• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 456
  • 67
  • 13
  • 13
  • 13
  • 13
  • 12
  • 4
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 536
  • 371
  • 143
  • 141
  • 116
  • 110
  • 97
  • 84
  • 76
  • 50
  • 50
  • 46
  • 45
  • 45
  • 44
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Processos no jornalismo digital: do Big Data à visualização de dados / Processes in digital journalism: from Big Data to data visualization

Estevanim, Mayanna 16 September 2016 (has links)
A sociedade está cada vez mais digitalizada, dados em diferentes extensões são passíveis de serem armazenados e correlacionados, temos um volume, variedade e velocidade de dados humanamente imensuráveis sem o auxílio de computadores. Neste cenário, falamos de um jornalismo de dados que visa o entendimento de temas complexos de relevância social e que sintoniza a profissão com as novas necessidades de compreensão informativa contemporânea. O intuito desta dissertação é problematizar a visualização de dados no jornalismo brasileiro partindo exatamente do que é esta visualização de dados jornalísticos e diante dos apontamentos sobre seu conceito e prática questionar como proporciona diferenciais relevantes. Por relevantes entendemos pautas de interesse público, que envolvem maior criticidade, maior aprofundamento e contextualização dos conteúdos no Big Data. As iniciativas que reúnem imagens relacionadas a dados e metadados ocorrem nas práticas de mercado, laboratórios acadêmicos, assim como em mídias independentes. Neste sistema narrativo atuam diferentes atores humanos e não-humanos, em construções iniciadas em codificações maquínicas, com bases de dados que dialogam com outras camadas até chegar a uma interface com o usuário. Há a necessidade de novas expertises por parte dos profissionais, trabalhos em equipe e conhecimento básico, muitas vezes, em linguagem de programação, estatística e a operacionalização de ferramentas na construção de narrativas dinâmicas e que cada vez mais envolvam o leitor. Sendo importante o pensar sobre um conteúdo que seja disponível para diferentes formatos. Para o desenvolvimento da pesquisa foi adotada uma estratégia multimetodológica, tendo os pressupostos da centralidade da comunicação, que perpassa todas as atividades comunicativas e informativas de forma transversal, sejam elas analógicas ou não. Um olhar que requer resiliências diante das abordagens teórico-metodológicas para que as mesmas consigam abarcar e sustentar as reflexões referentes ao dinâmico campo de estudos. Para se fazer as proposições e interpretações adotou-se como base o paradigma Jornalismo Digital em Base de Dados, tendo as contribuições dos conceitos de formato (RAMOS, 2012 e MACHADO, 2003), de jornalismo pós-industrial (COSTA, 2014), sistema narrativo e antenarrativa (BERTOCCHI, 2013) como meios de amadurecimento da compreensão do objeto proposto. / Society is increasingly digitalized. Different scopes of data are likely to be stored and correlated, having volumes, variety and accumulating speeds humanly impossible to track and analyze without the aid of computers. In this scenario we explore the realm of data-driven journalism with its aim of helping us understand complex issues of social relevance and which integrates journalism with the new needs of contemporary informative understanding. The purpose of this paper is to discuss data visualization in Brazilian journalism, starting with what data visualization is and then, upon its concept and practical uses, determine how this view provides relevant advantages. By relevant advantages we mean matters of public interest with more critical, greater depth and context of content on Big Data. Initiatives that bring together images related to data and metadata occur on market practices, academic laboratories, as well as independent media. This narrative system is acted upon different human and nonhuman agents, whose structures are being built with machinic codifications, using databases that communicate with other layers until reaching a user interface. There is a need for new expertise from professionals, teamwork and basic knowledge, often in programming languages, statistics and operational tools to build dynamic narratives and increasingly involve the reader. It is important to think about content that is available to different formats. For this research we adopted a multi-methodological strategy and the assumptions of the centrality of communication that permeates all communication and informational activities across the board, whether analog or not. A view that requires resilience in the face of theoretical and methodological approaches, so that they are able to embrace and support the reflections for this dynamic field of study. To make propositions and interpretations, adopted based on the Database Digital Journalism paradigm, and the contributions of format concepts (RAMOS, 2012 and MACHADO, 2003), post-industrial journalism (COSTA, 2014), system narrative and antenarrative (BERTOCCHI, 2013) maturing as means of understanding the proposed object.
352

Estudo de parâmetros turbulentos e sua relação com o coeficiente de reaeração com o uso da técnica fotográfica / Study of turbulent parameters and your relation with the coefficient reaeration with the use of the photographic technique

Pereira, Carlos Eugenio 18 March 2002 (has links)
A importância dada aos parâmetros de qualidade da água, principalmente nas últimas décadas justifica a realização desse trabalho, que investiga a relação de alguns parâmetros turbulentos com o coeficiente de reaeração, 'K IND.2', através de duas técnicas distintas de medida: o método ótico e a técnica fotográfica. O método ótico relaciona a intensidade de luz recebida por um diodo imerso na água com a velocidade vertical no ponto onde é realizada a medida; os dados coletados pelo método ótico constituem um sinal elétrico que contém a informação da deformação da superfície. A partir desse sinal determinam-se os seguintes parâmetros: valor RMS da tensão, função de autocorrelação, macroescala e espectro. Os resultados obtidos por esse método são funções temporais. O método fotográfico consiste em obter fotografias de partículas iluminadas sobre a superfície livre da água, com tempo de exposição conhecido. O método foi melhorado pela adição de dois disparos de flash, para permitir a determinação da variação da velocidade. As fotos são digitalizadas em um software gráfico e os valores obtidos são interpolados através do método Kriging de interpolação. O método fotográfico é uma função espacial. A partir do método fotográfico são determinados os seguintes parâmetros: valor RMS, função de autocorrelação e espectro. Os resultados obtidos permitem a comparação quantitativa entre as funções de autocorrelação e espectros, e a relação entre o coeficiente de reaeração, 'K IND.2' e o valor RMS obtidos pela sonda e pela foto / The importance given to the parameters of quality of the water, mainly in the last decades, it justifies the accomplishment of this work, that it investigates the relation of some turbulent parameters with the re-aeration coefficient, 'K IND.2', through two different techniques of measure: the optic method and the photographic technique. The optic method relates the intensity of the light received by a immersed diode in the water with the vertical speed at the point where the measure is accomplished; the data collected by the optic method are electric signs that contains the information of the deformation of the surface. Thereafter this signs, the following parameters are determined: RMS value of tension, self-correlation function, macro-scale and spectrum. The results obtained for this method they are temporal functions. The photographic method consists of obtaining pictures of illuminated particles on the free surface of the water, with time of exhibition known. The method was improved by addition of two shots of flashes, to allow the determination of the variation of the speed. The pictures, then, are digitized in a graphic software and the values obtained are interpolated through the Kriging interpolation method. The photographic method is a spatial function. With the photographic method may be determined the following parameters: RMS value, self-correlation function and spectrum. The results obtained may provide the quantitative comparison between the self-correlation function and spectrum; and also the relation between the re-aeration coefficient, 'K IND.2', and the RMS value, that are obtained through the probe and the picture
353

O uso de ferramentas de visualização tridimensional na detecção de deficiências em projeto geométrico de vias. / Tools of the use of three-dimensional visualization of deficiencies in the detection of geometric design route.

Figueira, Aurenice da Cruz 27 March 2012 (has links)
A utilização de tecnologias de visualização tridimensional aplicada à área de Transportes tem contribuído não só para avaliar o impacto de um projeto de rodovia na região de seu entorno, mas também, no desenvolvimento e estudo dos elementos do próprio projeto geométrico. A pesquisa busca avaliar o potencial do uso de ferramentas de visualização tridimensional (3D) na detecção de deficiências de coordenação entre os alinhamentos horizontal e vertical de um projeto rodoviário. A avaliação foi conduzida por meio de testes com grupos de indivíduos (estudantes do curso de Engenhara Civil sem experiência na área de desenvolvimento de projeto geométrico de rodovias). Estes indivíduos avaliaram trechos de vias em duas situações distintas com correta coordenação dos alinhamentos verticais e horizontais e posteriormente com distorção desta coordenação. Foi utilizado um software aplicativo na área de projeto geométrico de vias terrestre que permite criar um vídeo do drive through da via em questão. Em seguida os avaliadores responderam a um questionário que auxiliou a interpretar os resultados acerca da percepção de deficiências no traçado com a visualização 3D do projeto. Os resultados obtidos foram satisfatórios para o experimento realizado, o que leva a acreditar na possibilidade da introdução dessas ferramentas como parte do curso de engenharia civil, para auxiliar o egresso a desenvolver a habilidade de visualização espacial voltada para a área de projeto geométrico. / The use of three-dimensional visualization technologies applied in the field of transport has contributed not only to assess the impact of a highway project in the region of their surroundings, but also in the development and study of the geometric elements of the project itself. The research seeks to assess the effectiveness of visualization tools-dimensional (3D) in the detection of poor coordination between the horizontal and vertical alignment of a road project. The evaluation will be conducted by testing groups of individuals (students of civil engineering course - no experience in the development of geometric design of highways). These individuals evaluated stretches of roads in two different situations - with proper coordination of horizontal and vertical alignment and then with distortion of this coordination. We used a software application in the geometric design of roads that allows you to create a video drive through of the route in question. Then the evaluators responded to a questionnaire that helped interpret the results on the perception of disability in stroke with 3D visualization of the project. The results were satisfactory for the experiment which leads to believe in the possibility of introducing these tools as part of the civil engineering course, to assist the graduates to develop the skill of spatial visualization focused on the area of geometric design.
354

ONTO-Analyst: um método extensível para a identificação e visualização de anomalias em ontologias / ONTO-Analyst: An Extensible Method for the Identification and the Visualization of Anomalies in Ontologies

Orlando, João Paulo 21 August 2017 (has links)
A Web Semântica é uma extensão da Web em que as informações tem um significado explícito, permitindo que computadores e pessoas trabalhem em cooperação. Para definir os significados explicitamente, são usadas ontologias na estruturação das informações. À medida que mais campos científicos adotam tecnologias da Web Semântica, mais ontologias complexas são necessárias. Além disso, a garantia de qualidade das ontologias e seu gerenciamento ficam prejudicados quanto mais essas ontologias aumentam em tamanho e complexidade. Uma das causas para essas dificuldades é a existência de problemas, também chamados de anomalias, na estrutura das ontologias. Essas anomalias englobam desde problemas sutis, como conceitos mal projetados, até erros mais graves, como inconsistências. A identificação e a eliminação de anomalias podem diminuir o tamanho da ontologia e tornar sua compreensão mais fácil. Contudo, métodos para identificar anomalias encontrados na literatura não visualizam anomalias, muitos não trabalham com OWL e não são extensíveis por usuários. Por essas razões, um novo método para identificar e visualizar anomalias em ontologias, o ONTO-Analyst, foi criado. Ele permite aos desenvolvedores identificar automaticamente anomalias, usando consultas SPARQL, e visualizá-las em forma de grafos. Esse método usa uma ontologia proposta, a METAdata description For Ontologies/Rules (MetaFOR), para descrever a estrutura de outras ontologias, e consultas SPARQL para identificar anomalias nessa descrição. Uma vez identificadas, as anomalias podem ser apresentadas na forma de grafos. Um protótipo de sistema, chamado ONTO-Analyst, foi criado para a validação desse método e testado em um conjunto representativo de ontologias, por meio da verificação de anomalias representativas. O protótipo testou 18 tipos de anomalias retirados da literatura científica, em um conjunto de 608 ontologias OWL de 4 repositórios públicos importantes e dois artigos. O sistema detectou 4,4 milhões de ocorrências de anomalias nas 608 ontologias: 3,5 milhões de ocorrências de um mesmo tipo e 900 mil distribuídas em 11 outros tipos. Essas anomalias ocorreram em várias partes das ontologias, como classes, propriedades de objetos e de dados, etc. Num segundo teste foi realizado um estudo de caso das visualizações geradas pelo protótipo ONTO-Analyst das anomalias encontradas no primeiro teste. Visualizações de 11 tipos diferentes de anomalias foram automaticamente geradas. O protótipo mostrou que cada visualização apresentava os elementos envolvidos na anomalia e que pelo menos uma solução podia ser deduzida a partir da visualização. Esses resultados demonstram que o método pode eficientemente encontrar ocorrências de anomalias em um conjunto representativo de ontologias OWL, e que as visualizações facilitam o entendimento e correção da anomalia encontrada. Para estender os tipos de anomalias detectáveis, usuários podem escrever novas consultas SPARQL. / The Semantic Web is an extension of the World Wide Web in which the information has explicit meaning, allowing computers and people to work in cooperation. In order to explicitly define meaning, ontologies are used to structure information. As more scientific fields adopt Semantic Web technologies, more complex ontologies are needed. Moreover, the quality assurance of the ontologies and their management are undermined as these ontologies increase in size and complexity. One of the causes for these difficulties is the existence of problems, also called anomalies, in the ontologies structure. These anomalies range from subtle problems, such as poorly projected concepts, to more serious ones, such as inconsistencies. The identification and elimination of anomalies can diminish the ontologies size and provide a better understanding of the ontologies. However, methods to identify anomalies found in the literature do not provide anomaly visualizations, many do not work on OWL ontologies or are not user extensible. For these reasons, a new method for anomaly identification and visualization, the ONTO-Analyst, was created. It allows ontology developers to automatically identify anomalies, using SPARQL queries, and visualize them as graph images. The method uses a proposed ontology, the METAdata description For Ontologies/Rules (MetaFOR), to describe the structure of other ontologies, and SPARQL queries to identify anomalies in this description. Once identified, the anomalies can be presented as graph images. A system prototype, the ONTO-Analyst, was created in order to validate this method and it was tested in a representative set of ontologies, trough the verification of representative anomalies. The prototype tested 18 types of anomalies, taken from the scientific literature, in a set of 608 OWL ontologies from major public repositories and two articles. The system detected 4.4 million anomaly occurrences in the 608 ontologies: 3.5 million occurrences from the same type and 900 thousand distributed in 11 other types. These anomalies occurred in various parts of the ontologies, such as classes, object and data properties, etc. In a second test, a case study was performed in the visualizations generated by the ONTO-Analyst prototype, from the anomalies found in the first test. It was shown that each visualization presented the elements involved in the anomaly and that at least one possible solution could be deduced from the visualization. These results demonstrate that the method can efficiently find anomaly occurrences in a representative set of OWL ontologies and that the visualization aids in the understanding and correcting of said anomalies. In order to extend the types of detectable anomalies, users can write new SPARQL queries.
355

Projeções multidimensionais para a análise de fluxos de dados / Multidimensional projections for data stream analysis

Neves, Tácito Trindade de Araújo Tiburtino 17 November 2016 (has links)
As técnicas de projeção multidimensional tornaram-se uma ferramenta de análise importante. Elas buscam mapear dados de um espaço multidimensional para um espaço visual, de menor dimensão, preservando as estruturas de distância ou de vizinhança no mapa visual produzido. Apesar dos recentes avanços, as técnicas existentes ainda apresentam deficiências que prejudicam a sua utilização como ferramentas exploratórias em certos domínios. Um exemplo está nos cenários streaming, nos quais os dados são produzidos e/ou coletados de forma contínua. Como a maioria das técnicas de projeção necessitam percorrer os dados mais de uma vez para produzir um layout final, e fluxos normalmente não podem ser carregados por completo em memória principal, a aplicação direta ou mesmo a adaptação das técnicas existentes em tais cenários é inviável. Nessa tese de doutorado é apresentado um novo modelo de projeção, chamado de Xtreaming, no qual as instâncias de dados são visitadas apenas uma vez durante o processo de projeção. Esse modelo é capaz de se adaptar a mudanças nos dados conforme eles são recebidos, atualizando o mapa visual para refletir as novas estruturas que surgem ao longo do tempo. Os resultados dos testes mostram que o Xtreaming é muito competitivo em termos de preservação de distâncias e tempo de execução se comparado com técnicas do estado-da-arte. Também é apresentada uma nova técnica de projeção multidimensional, chamada de User-assisted Projection Technique for Distance Information (UPDis), que foi projetada para permitir a intervenção do usuário exigindo apenas informações de distância entre as instâncias, e que é utilizada como parte do Xtreaming. Os resultados também mostram que a UPDis é tão rápida, precisa e flexível quanto as técnicas do estado-da-arte. / Multidimensional Projection techniques have become an important analytics tool. They map data from a multidimensional space into a visual space preserving the distance or neighborhood structures on the produced layout. Despite the recent advances, existing techniques still present drawbacks that impair their use as exploratory tools on certain domains. An example is the streaming scenario, in which data are captured or produced continuously. Since most projection techniques need to traverse the data more than once to produce a final layout, and streaming data typically cannot be completely loaded into the main memory, the direct use or even adaptation of the existing techniques in such scenarios is infeasible. In this dissertation, we present a novel projection model, called Xtreaming, wherein the data instances are visited only once during the projection process. This model is able to adapt itself to the changes in data as data is received, updating the visual layout to reflect the new structures that emerge over time. The tests show that Xtreaming is very competitive regarding distance preservation and running time when compared with state-of-the-art projection techniques. We also present a new multidimensional projection technique, called User-assisted Projection Technique for Distance Information (UPDis), that was designed to allow user intervention requiring only distance information between data instances. UPDis is used as part of the Xtreaming model. The results show that UPDis is as fast, accurate and flexible as state-of-the-art techniques.
356

Visualização de informação de depuração: uma avaliação experimental / Visualization of debugging information: an empirical assessment

Silva, Fabio Pereira da 15 December 2017 (has links)
Depuração é a tarefa de localizar e corrigir defeitos em um programa. Apesar do esforço de pesquisa em depuração, especialmente nos últimos anos, ela ainda é realizada da mesma forma desde a década de 60, quando os primeiros depuradores simbólicos foram introduzidos. Localização de defeitos baseada em cobertura (LDC) é uma técnica de depuração promissora devido ao seu baixo custo de execução. LDC identifica os elementos mais suspeitos de um programa ao classificar linhas, métodos, classes e pacotes com maior valor de suspeição. Recentemente, ferramentas de visualização têm sido propostas para representar os valores de suspeição dos elementos de um programa. Entretanto, nenhuma delas foi introduzida em ambientes industriais e a utilização de depuradores simbólicos ainda é predominante. Nesta dissertação, foi avaliada a eficácia, a eficiência e a usabilidade de duas ferramentas de depuração, chamadas CodeForest e Jaguar, em ambientes reais. Jaguar apresenta os trechos mais suspeitos de um programa em uma lista ordenada por seus valores de suspeição. A CodeForest recebe informações de classes, métodos e blocos (conjunto de instruções executadas em sequência) suspeitos para construir uma floresta de cactus tridimensional representando o programa inspecionado. Na CodeForest, as classes são representadas como cactus, os métodos como galhos e os blocos como espinhos de um galho. Em ambas as ferramentas, os elementos do programa recebem cores que variam de acordo com o seu valor de suspeição. A questão básica respondida ao término deste trabalho é se as informações da depuração quando exibidas em uma metáfora visual melhoram a eficácia, a eficiência e a usabilidade na localização de defeitos. A eficácia e a eficiência foram avaliadas, respectivamente, pela capacidade da ferramenta direcionar o desenvolvedor ao método ou linha do defeito e o tempo necessário para localizá-los. A usabilidade das ferramentas foi avaliada por meio de um questionário baseado no modelo TAM (Technology Acceptance Model). Os resultados obtidos demonstram que a Jaguar foi mais eficaz, eficiente e com maior grau de usabilidade do que a CodeForest; entretanto, o tamanho do efeito estatístico é insignificante para a eficácia e eficiência e baixo para a usabilidade / Debugging is the task of locating and fixing defects in a program. Despite the research effort in debugging, especially in recent years, this task is still carried out in the same way since the 60s when the first symbolic debuggers were introduced. Spectrum-Based Fault Localization (SFL) is a promising debugging technique due to it is relative low execution cost. SFL pinpoints the most suspicious program elements by ranking lines, methods, classes and packages with greater suspicious values. Recently, visualization techniques have been proposed to represent the suspicious values of program elements. However, none of them have been introduced at industrial settings and the use of symbolic debuggers is still prevalent. This dissertation assessed the effectiveness, efficiency and usability of two debugging tools, called and CodeForest and Jaguar, in real environments. Jaguar presents the most suspicious elements of a program in a list sorted by suspicious values. CodeForest receives lists of suspicious classes, methods and blocks (set of statements executed in sequence) to build a three-dimensional cacti forest representing the program inspected. In CodeForest, classes are represented as cacti, methods as branches and blocks as thorns of a branch. In both tools, the program elements receive colors that vary according to the suspicious values. The basic question answered at the end of this research is whether debugging information when displayed as a visual metaphor improve the effectiveness, efficiency and usability during fault localization. The effectiveness and efficiency were assessed, respectively, by the tool\'s ability to direct the developer to the faulty method or line and the time spent to locate them. The tools\' usability was evaluated using the Technology Acceptance Model (TAM). The results show that Jaguar is more effective, efficient and presented greater usability than CodeForest; however, the statistical effect size is insignificant for effectiveness and efficiency and low for usability
357

Visual Analytics como ferramenta de auxílio ao processo de KDD : um estudo voltado ao pré-processamento

Cini, Glauber 29 March 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2017-06-27T13:53:26Z No. of bitstreams: 1 Glauber Cini_.pdf: 2121004 bytes, checksum: c1f55ddc527cdaeb7ae3c224baea727a (MD5) / Made available in DSpace on 2017-06-27T13:53:26Z (GMT). No. of bitstreams: 1 Glauber Cini_.pdf: 2121004 bytes, checksum: c1f55ddc527cdaeb7ae3c224baea727a (MD5) Previous issue date: 2017-03-29 / Nenhuma / O Visual Analytics consiste na combinação de métodos inteligentes e automáticos com a capacidade de percepção visual do ser humano visando a extração do conhecimento de conjuntos de dados. Esta capacidade visual é apoiada por interfaces interativas como, sendo a de maior importância para este trabalho, a visualização por Coordenadas Paralelas. Todavia, ferramentas que disponham de ambos os métodos automáticos (KDD) e visuais (Coordenadas Paralelas) de forma genérica e integrada mostra-se primordial. Deste modo, este trabalho apresenta um modelo integrado entre o processo de KDD e o de Visualização de Informação utilizando as Coordenadas Paralelas com ênfase no make sense of data, ao ampliar a possibilidade de exploração dos dados ainda na etapa de pré-processamento. Para demonstrar o funcionamento deste modelo, um plugin foi desenvolvido sobre a ferramenta WEKA. Este módulo é responsável por ampliar as possibilidades de utilização da ferramenta escolhida ao expandir suas funcionalidades a ponto de conceitua-la como uma ferramenta Visual Analytics. Junto a visualização de Coordenadas Paralelas disponibilizada, também se viabiliza a interação por permutação das dimensões (eixos), interação por seleção de amostras (brushing) e possibilidade de detalhamento das mesmas na própria visualização. / Visual Analytics is the combination of intelligent and automatic methods with the ability of human visual perception aiming to extract knowledge from data sets. This visual capability is supported by interactive interfaces, considering the most important for this work, the Parallel Coordinates visualization. However, tools that have both automatic methods (KDD) and visual (Parallel Coordinates) in a generic and integrated way is inherent. Thus, this work presents an integrated model between the KDD process and the Information Visualization using the Parallel Coordinates with emphasis on the make sense of data, by increasing the possibility of data exploration in the preprocessing stage. To demonstrate the operation of this model, a plugin was developed on the WEKA tool. This module is responsible for expanding the possibilities of chosen tool by expanding its functionality to the point of conceptualizing it as a Visual Analytics tool. In addition to the delivered visualization of Parallel Coordinate, it is also possible to interact by permutation of the dimensions (axes), interaction by selection of samples (brushing) and possibility of detailing them in the visualization itself.
358

Aplicação de ferramentas de visualização no processo de desenvolvimento de serviços de consultoria em empresa de TI

Silveira, Marisa De Camargo 31 January 2014 (has links)
Submitted by Maicon Juliano Schmidt (maicons) on 2015-07-13T17:24:34Z No. of bitstreams: 1 Marisa De Camargo Silveira.pdf: 2880498 bytes, checksum: 34a9f1b7aa050daf9ebeb7b14ea0ac9f (MD5) / Made available in DSpace on 2015-07-13T17:24:34Z (GMT). No. of bitstreams: 1 Marisa De Camargo Silveira.pdf: 2880498 bytes, checksum: 34a9f1b7aa050daf9ebeb7b14ea0ac9f (MD5) Previous issue date: 2014-01-31 / Nenhuma / A presente dissertação abordou aspectos estratégicos de serviços através do uso da tecnologia da informação na construção de estratégias e do entendimento da relevância da correta estruturação de processos mediante o planejamento de cenários e da gestão do conhecimento, bem como da observância da tecnologia orientada para a gestão do conhecimento, alicerçadas pelo design estratégico através de ferramentas de visualização. A estratégia da dissertação, de delineamento qualitativo, utilizou a pesquisa-ação por permitir adequações dos protótipos no decorrer do percurso do estudo, o que é aderente às constantes e necessárias atualizações. Como coleta dos dados, contou com técnicas de observação e entrevista com especialista. O presente estudo teve a seguinte premissa: avaliar, inserir ferramentas de visualização aplicadas a serviços em empresa de TI, e propor a partir dos dois ciclos estudados, uma abordagem de serviços com um portfólio de ferramentas mais participativo, envolvendo o cliente desde o início de cada projeto. Essa nova formatação objetivou a criação da inovação em serviços inerentes ao atendimento de soluções fiscais, dessa forma possibilitando uma atuação diferenciada com o intuito de refletir na geração de valores para os clientes e, consequentemente, obter o reconhecimento da instituição através de seus serviços inovadores. / The current paper has approached strategic aspects of services through the use of information technology in the building of strategies, the understanding of the relevance of the right structuring of processes via the planning of scenarios and knowledge management, as well as the observance of technology oriented to knowledge management, grounded on service strategic design through visualization tools. The paper’s strategy, which had a qualitative profile, made use of an action research method, as it allowed the adaptation of the prototypes in the course of the study, which, in turn, was adherent to the constant and necessary updates. Regarding data collection, observation techniques and interviews with experts were performed. The current study had the following premise: to evaluate and insert visualization tools applied to services in an IT company and, considering the two cycles studied, propose a service approach with a more participatory tool portfolio by involving the costumer since the beginning of each project. This new format pursued the creation of innovation for services inherent to tax solutions. Thus, a distinguished operation, which aimed to reflect on the generation of value to the customers and, consequently, the institution’s recognition for their innovative services have been made possible.
359

Um modelo para implementação de aplicações da Argument Web integradas com bases de dados abertos e ligados

Niche, Roberto 30 June 2015 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2015-10-21T15:18:41Z No. of bitstreams: 1 ROBERTO NICHE_.pdf: 2843778 bytes, checksum: 593973f2bdcb7e774f0022cc2e08fdea (MD5) / Made available in DSpace on 2015-10-21T15:18:41Z (GMT). No. of bitstreams: 1 ROBERTO NICHE_.pdf: 2843778 bytes, checksum: 593973f2bdcb7e774f0022cc2e08fdea (MD5) Previous issue date: 2015-06-30 / Milton Valente / Ferramentas de comunicação e colaboração são amplamente utilizadas na internet para expressar opiniões e descrever pontos de vista sobre os mais diversos assuntos. Entretanto elas não foram projetadas para apoiar a identificação precisa dos assuntos tratados e tampouco para permitir o relacionamento entre os elementos que compõem as interações. Os resultados observados são a disponibilidade de uma grande quantidade de informações geradas espontaneamente e a dificuldade de identificação precisa dos elementos de destaque dessas informações, bem como seus relacionamentos e suas fontes. A proposta central da Argument Web está relacionada com a definição de uma infraestrutura para anotar de forma precisa os argumentos das mensagens publicadas e possibilitar que estes estejam relacionados com suas diversas fontes. Quando integrada com a iniciativa de bases de dados abertos e ligados, a Argument Web apresenta o potencial de ampliar a qualidade das discussões colaborativas na Internet e favorecer a sua análise. Entretanto, as iniciativas para implementações de aplicações com base nestes conceitos ainda são restritas. Mesmo nas aplicações conhecidas, ainda são pouco exploradas as características de visualização e utilização de bases de dados abertos e ligados. Neste trabalho é descrito um modelo para a instanciação desse tipo de aplicações, com base no modelo Argument Interchange Format e no uso de linguagens da Web Semântica. O diferencial que este modelo apresenta está relacionado com a facilidade de integração entre fontes externas em formatos de bases de dados ligados. Um protótipo deste modelo foi avaliado em um estudo usando-se bases de dados abertas e ligadas no âmbito da administração pública brasileira, tendo sido observados bons resultados. / Internet communication and collaboration tools are widely used on the Internet to express opinions and describe views on various subjects. However, they were not designed to support the precise identification of the issues raised, nor to allow the relationship among the elements of the interactions. The observed results are the availability of a large amount of information generated spontaneously by users. Even then, the accurate identification of key discussion elements and their interconnecting relationships as well as their sources is still a challenge. The main goal of Argument Web is related to the definition of an infrastructure to note correctly the arguments of the posted messages and enable these to relate to its various sources. When integrated with the initiative to open and connected databases, the Argument Web has the potential to increase the quality of collaborative discussions on the Internet and to encourage their analysis. However, initiatives for application implementations based on these concepts are still restricted. Even in known applications, the display characteristics and use of open and linked data bases are still little explored. This paper describes a model for the creation of such applications, based on the Argument Interchange Format and the use of Semantic Web languages. We consider our main contributions to be twofold: first, our capability to integrate and link external data sources; and second, augmentation through. A prototype was created and employed in a case study, enabling discussion related to Brazilian government issues, in which good results were observed.
360

Um estudo epistemológico do Teorema Fundamental do Cálculo voltado ao seu ensino

Grande, André Lúcio 05 December 2013 (has links)
Made available in DSpace on 2016-04-27T16:57:28Z (GMT). No. of bitstreams: 1 Andre Lucio Grande.pdf: 7015777 bytes, checksum: b5f1d425b769f448f927e70cdc3f11ec (MD5) Previous issue date: 2013-12-05 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The Fundamental Theorem of Calculus (FTC) occupies a prominent position in the study of Differential and Integral Calculus (DIC) as it establishes a relationship which exists between the operations of integration and differentiation as inverse to each other in addition to its use in the calculation of definite integrals, especially in solving problems which involve area, volume and arc length, amongst others. However, in the context of Mathematics Education, regarding the teaching and learning of Calculus, researches conducted in Brazil and other countries like France, England and the United States, have shown misunderstanding on the part of the students regarding the lack of connection between the concepts of Integral and Derivatives in the study of FTC. Facing this scenario, this thesis aimed at conducting a didactic and epistemological study of FTC, presenting, as its result, the elaboration and analysis of teaching intervention of which main aim was to reveal and bring up the relationship between the operations of derivation and integration and under which conditions this relationship is established as this constitutes the essence of the theorem. As a theoretical frame of reference, one has used the ideas connected to the use of intuition and rigor in the construction of mathematical knowledge according to Henri Poincaré (1995) as well as the categorizations of intuition and the interrelations between its components: the formal, algorithmic and intuitive components in mathematical activities according to Efraim Fischbein (1991). The research presented is qualitative, presenting, as methodological procedures, the development of a teaching intervention as wells as the analysis of the solutions to questions proposed by fourteen students from a technological course in a public college in the state of São Paulo with the help of Geogebra Software. In order to analyze the resolutions, besides the already mentioned theoretical frame of reference, one has also adopted the works of Tall (1991) on the role of visualization of the teaching of Calculus and the interrelationships with intuition and rigor. As results, one highlights that exploring the concepts of integral, initially by the idea of accumulation and working simultaneously with the question related to the variation of this accumulation, has shown to be a suitable strategy so that students could understand the mutual relationship between integration and derivation as operations inverse to each other, as well as it allowed them to internalize such relationship as in the genesis of FTC which came after the study of these operations. Furthermore, one can conclude that the concept of function constituted the conducting principle which guided students on the understanding of FTC. Nevertheless, difficulties in understanding the continuity of a function, one of the central points of the theorem, was also an issue which came up in the results of the teaching intervention. Analysis has shown better results on students dealing with mathematical activities when the axis of interactions among formal, algorithmic and intuitive components is dealt with the axis regarding the question of visualization in the process of teaching and learning Calculus. At the end of tasks, one has observed that students have begun to show indications of concern in order to relate intuition with rigor in the building of mathematical knowledge / O Teorema Fundamental do Cálculo (TFC) ocupa uma posição de destaque no estudo do Cálculo Diferencial e Integral (CDI), pois estabelece a relação existente entre as operações de integração e derivação como inversas entre si, além da sua utilização no cálculo de integrais definidas, em especial na resolução de problemas envolvendo área, volume e comprimento de arco, entre outras. Entretanto, no âmbito da Educação Matemática, quanto ao ensino e aprendizagem do Cálculo, pesquisas realizadas no Brasil e em outros países, tais como França, Inglaterra e Estados Unidos evidenciaram a incompreensão dos alunos no tocante à falta de ligação existente entre os conceitos de integral e derivada no estudo do TFC em um curso de Cálculo. Diante desse panorama, esta tese teve por objetivo realizar um estudo didático e epistemológico do TFC, apresentando como resultado a elaboração e análise de uma intervenção de ensino que procurou fazer emergir a relação entre as operações de integração e derivação e sob quais condições essa relação se estabelece, o que constitui a essência do teorema. Como referencial teórico foram utilizadas as ideias ligadas ao uso da intuição e do rigor na construção do conhecimento matemático, segundo Henri Poincaré (1995), bem como as categorizações da intuição e as inter-relações entre os componentes: formal, algorítmico e intuitivo nas atividades matemáticas, de acordo com Efraim Fischbein (1991). A pesquisa é qualitativa, apresentando como procedimentos metodológicos a elaboração de uma intervenção de ensino, bem como a análise das resoluções das questões efetuadas por 14 estudantes do curso de Tecnologia de uma faculdade pública do Estado de São Paulo com o auxílio do software GeoGebra. Para análise das resoluções, além do referencial teórico citado, foram adotados os trabalhos de Tall (1991) sobre o papel da visualização no ensino do Cálculo e as inter-relações com a intuição e o rigor. Como resultados, destaca-se que explorar os conceitos de integral inicialmente por meio da ideia de acumulação, simultaneamente trabalhando-se com a questão da variação dessa acumulação, mostrou-se uma estratégia pertinente para que os estudantes compreendessem a relação mútua entre integração e derivação como operações inversas uma da outra, assim como permitiu que os estudantes interiorizassem que tal relação, como ocorreu na gênese do TFC, realizou-se posteriormente ao estudo dessas operações. Além disso, pode-se concluir que o conceito de função constituiu-se na linha condutora que norteou o entendimento dos estudantes sobre o TFC. Não obstante, as dificuldades da compreensão de continuidade de uma função, um dos pontos centrais do teorema, também foi uma questão que emergiu dos resultados da intervenção de ensino. A análise mostrou melhores resultados por parte dos estudantes nas atividades matemáticas, quando o eixo das interações entre os componentes algorítmico, formal e intuitivo é trabalhado em conjunto com o eixo relacionado à questão da visualização no ensino e aprendizagem do Cálculo. No final das tarefas, observou-se que os estudantes começaram a mostrar indícios da preocupação de relacionar a intuição com o rigor na construção do conhecimento matemático

Page generated in 0.0473 seconds