101 |
Identificando dificuldades e benefícios do uso do PSP apoiado por ferramentas de 3ª. geraçãoMontebelo, Renan Polo 22 May 2008 (has links)
Made available in DSpace on 2016-06-02T19:05:47Z (GMT). No. of bitstreams: 1
3388.pdf: 1949798 bytes, checksum: 1a2073d52b18588ac8cb15ca66beb5d9 (MD5)
Previous issue date: 2008-05-22 / Universidade Federal de Sao Carlos / Background: The Personal Software ProcessTM (PSP) is a methodology that can be used by software developers to improve the predictability, the productivity and the quality of their personal work. However, the great number of activities and metrics involved in the PSP makes its application very laborious and difficult. Several PSP supporting tools have been proposed in order to make its application more feasible, and such tools evolved as more experiments were conducted with the PSP. There are now three generations of PSP supporting tools, whereas third generation supporting tools are characterized by being able to collect and analyze Software Engineering metrics automatically and unobtrusively. Objective: This study s objective is to determine the difficulties and benefits of using third generation tools to support the PSP application. Method: The GQM paradigm was used to set up two Case Studies, one being in the academic environment with undergraduate students and another in a small software development company. Both case studies featured the PSP application supported by third generation tools. Results: Results show that third generation supporting tools have some advantages over previous generations tools, especially in the coding phase. However, third generation tools have limited PSP activities support and introduce new adoption problems. Conclusion: For a successful long-term PSP application, it is necessary that the supporting tools are completely adapted and integrated in the developers work environment, with both second and third generations tools characteristics. / Cenário: O Personal Software ProcessTM (PSP) é uma metodologia que pode ser usada por desenvolvedores de software para melhorar a previsibilidade, a produtividade e a qualidade de seu trabalho pessoal. No entanto, a grande quantidade de atividades e métricas envolvidas no PSP torna a sua aplicação bastante trabalhosa e difícil. Várias ferramentas de apoio foram propostas com o intuito de facilitar a aplicação da metodologia, sendo que tais ferramentas evoluíram à medida que estudos sobre a aplicação do PSP eram realizados. Assim, existem hoje três gerações de ferramentas de apoio ao PSP, sendo que as ferramentas de 3ª geração caracterizam-se por coletar e analisar métricas de Engenharia de Software automaticamente, sem a necessidade de intervenção direta do desenvolvedor. Objetivo: O objetivo deste trabalho é determinar as dificuldades e os benefícios do uso de ferramentas de 3ª geração para o apoio à aplicação do PSP. Método: Utilizando o paradigma GQM, foram elaborados dois estudos de caso, sendo um em ambiente acadêmico e outro em uma pequena empresa de desenvolvimento de software. Ambos os estudos de caso envolveram a aplicação do PSP com o apoio de ferramentas de 3ª geração. Resultados: Os resultados mostram que ferramentas de 3ª geração apresentam algumas vantagens em relação às ferramentas de gerações anteriores, especialmente na fase de codificação. No entanto, tais ferramentas apóiam um número limitado de atividades do PSP, além de introduzirem novos problemas de adoção. Conclusão: Para que a aplicação do PSP tenha sucesso em longo prazo é necessário que a ferramenta de apoio seja completamente adaptada e integrada ao ambiente de trabalho do desenvolvedor, apresentando tanto características de ferramentas de 2ª quanto de 3ª gerações.
|
102 |
Recuperação de documentos baseados em informação semântica no ambiente AMMO.Corrêa, Adriana Cristina Giusti 25 August 2003 (has links)
Made available in DSpace on 2016-06-02T19:06:03Z (GMT). No. of bitstreams: 1
DissACGC.pdf: 1152663 bytes, checksum: b9af98519cb385cdf69ae9a80dbb5bf1 (MD5)
Previous issue date: 2003-08-25 / This study presents techniques used for extracting semantic information from texts and
strategies for semantic information-based document retrieval. These techniques and strategies
have been adopted so as to develop a Document Manipulation System based on Semantic
Information. Previously established values of similarity and relevance are used in the document
retrieval process.. The organization of semantic information, user interfaces, manipulation of
imprecise information and the extraction and retrieval mechanism are discussed. The
impreciseness in the semantic information is treated through similarity values in order to
compare the query´spredicates with the database results. Relevance values specified for the
query´s predicates have been used to classify the resulting documents. A prototype of the system
has been developed. This prototype can be incorporated into the AMMO environment
(Authoring and Manipulation of Multimedia Objects), whose aim is to provide resources for
creating, storing and manipulating multimedia applications. / Neste trabalho são apresentadas técnicas utilizadas na extração de informação semântica
de textos e estratégias para recuperação de documentos baseada em informação semântica, que
foram adotadas para o desenvolvimento de um Sistema para Manipulação de Documentos
baseada em Informação Semântica. Para a recuperação de documentos são considerados valores
de similaridade e relevância estabelecidos. A organização da informação semântica, as interfaces
com o usuário, a manipulação das informações imprecisas, o mecanismo de extração e
recuperação são discutidos. A imprecisão inerente à informação semântica é tratada através de
valores de similaridade para comparar os termos requeridos na consulta e os consultados no
banco de dados. Os valores de relevância especificados para os termos envolvidos na consulta
são utilizados para classificar os documentos resultantes. Foi desenvolvido um protótipo do
sistema, que pode ser incorporado ao ambiente AMMO (Authoring and Manipulation of
Multimedia Objects), que tem por objetivo fornecer recursos para a criação, armazenamento e
manipulação de aplicações multimídia.
|
103 |
Utilizando XML para publicação de dados multimídia na web.Teixeira, Eduardo Cotrin 21 February 2002 (has links)
Made available in DSpace on 2016-06-02T19:06:04Z (GMT). No. of bitstreams: 1
DissECT.pdf: 1686156 bytes, checksum: b0ac8a0a204b32af0621b1d744787f9f (MD5)
Previous issue date: 2002-02-21 / Oriented-Object Database Management Systems have been adopted for the management of
multimedia applications, becoming possible to implement recovery forms that propitiate more
expression capacity to the user if are foreseen metadata (information about the stored data)
that assist in this task, providing a more natural and powerful form to find objects in the
objects base. In this context project AMMO (Authoring and Manipulation of Multimedia
Objects) appeared, aiming to provide an environment for support the authoring, storage and
manipulation of multimedia applications. The developed work aims to implement automatic
XML document creation for representation of multimedia data obtained as result of
consultations to the Multimedia Objects Server (MmOS) of AMMO environment, preserving
the advantages of this environment, as possibility of content-based search, semantics
description of multimedia data and high reusability, associating them with XML advantages,
as interchange facility, independence and flexibility in presentation form and semantics
description of content. The XML concepts, the AMMO Project, the XML representation of
multimedia data with semantic information, the creation and use of XML documents inside
AMMO Project and some possible forms of visualization of the data through the XSL Style
Sheets are presented. / Sistemas de gerenciamento de banco de dados orientados a objetos têm sido adotados para o
gerenciamento de aplicações multimídia, tornando possível implementar formas de
recuperação que propiciem maior poder de expressão ao usuário desde que sejam previstos
metadados (informações sobre os dados armazenados) que auxiliem nesta tarefa,
proporcionando ao usuário uma forma mais natural e poderosa para encontrar os objetos no
banco de objetos. Nesse contexto surgiu o projeto AMMO (Authoring and Manipulation of
Multimedia Objects), com o objetivo de prover um ambiente para suporte à autoria,
armazenamento e manipulação de aplicações multimídia. O trabalho desenvolvido tem como
objetivo implementar a criação automática de documentos XML para representação de dados
multimídia obtidos como resultado de consultas ao Servidor de Objetos Multimídia (MmOS -
Multimedia Objects Server) do ambiente AMMO, preservando as vantagens presentes nesse
ambiente, como possibilidade de busca por conteúdo, descrição semântica dos dados
multimídia e alta reusabilidade, associando-as às vantagens de XML, como facilidade de
intercâmbio, independência e flexibilidade na forma de apresentação e descrição semântica de
conteúdo. São apresentados os conceitos de XML, o Projeto AMMO, a representação em
XML dos dados multimídia com informações semânticas, a criação e o uso dos documentos
XML dentro do Projeto AMMO e algumas formas possíveis de visualização dos dados
através do uso de Folhas de Estilo XSL.
|
104 |
Proposta de um procedimento de programação on-line da produção de sistemas flexíveis de manufatura baseado em lógica fuzzy. / Proposal of a Production On-line Scheduling Procedure of Flexible Manufacturing Systems based on Fuzzy.Domingos, Jean Carlos 25 August 2004 (has links)
Made available in DSpace on 2016-06-02T19:06:23Z (GMT). No. of bitstreams: 1
DissJCD.pdf: 3954079 bytes, checksum: 63ef4f081a962ca21478327fb623632d (MD5)
Previous issue date: 2004-08-25 / Flexible manufacturing systems (FMS) have been designed to meet market
requirements that demand products that are quality and ready to deliver. In order to
meet the market requirements, the methodologies used in the FMS scheduling must
consider a highly dynamic environment, where it is often necessary to meet or to react
to uncertain demands and to get better use of its resources. An on-line scheduling
procedure based on fuzzy logic is proposed in this work, whose main characteristic is
shop floor tasks scheduling using fuzzy rules building with the support of an expert to
meet several measures of performance. A simulation study was carried out with the
objective to verify the applicability of the proposed approach, using a simulation tool
integrated with the on-line scheduling procedure based on fuzzy logic. / Os sistemas flexíveis de manufatura (FMS) têm sido projetados para atender as
necessidades do mercado, que demandam por produtos que apresentam qualidade e
prazos de entrega pequenos. Para atender as necessidades do mercado, as metodologias
usadas na programação de operações de FMS devem considerar um ambiente altamente
dinâmico, onde é frequentemente necessário atender ou reagir a demandas incertas e
fazer o melhor uso de seus recursos. Um procedimento de programação on-line baseado
em lógica fuzzy é proposto neste trabalho, cuja característica principal é programar as
tarefas do chão de fábrica utilizando regras fuzzy construídas com o apoio de um
especialista para atender a várias medidas de desempenho simultaneamente. Um estudo
por meio de simulação foi realizado com o objetivo de verificar a aplicabilidade da
abordagem proposta, utilizando uma ferramenta de simulação integrada ao
procedimento de programação on-line baseado em lógica fuzzy.
|
105 |
Agrupamento de dados semissupervisionado na geração de regras fuzzyLopes, Priscilla de Abreu 27 August 2010 (has links)
Submitted by Izabel Franco (izabel-franco@ufscar.br) on 2016-09-06T18:25:30Z
No. of bitstreams: 1
DissPAL.pdf: 2245333 bytes, checksum: 24abfad37e7d0675d6cef494f4f41d1e (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-12T14:03:53Z (GMT) No. of bitstreams: 1
DissPAL.pdf: 2245333 bytes, checksum: 24abfad37e7d0675d6cef494f4f41d1e (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-12T14:04:01Z (GMT) No. of bitstreams: 1
DissPAL.pdf: 2245333 bytes, checksum: 24abfad37e7d0675d6cef494f4f41d1e (MD5) / Made available in DSpace on 2016-09-12T14:04:09Z (GMT). No. of bitstreams: 1
DissPAL.pdf: 2245333 bytes, checksum: 24abfad37e7d0675d6cef494f4f41d1e (MD5)
Previous issue date: 2010-08-27 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Inductive learning is, traditionally, categorized as supervised and unsupervised.
In supervised learning, the learning method is given a labeled data set (classes
of data are known). Those data sets are adequate for problems of classification
and regression. In unsupervised learning, unlabeled data are analyzed in order to
identify structures embedded in data sets.
Typically, clustering methods do not make use of previous knowledge, such as
classes labels, to execute their job. The characteristics of recently acquired data
sets, great volume and mixed attribute structures, contribute to research on better
solutions for machine learning jobs.
The proposed research fits into this context. It is about semi-supervised fuzzy
clustering applied to the generation of sets of fuzzy rules. Semi-supervised clustering
does its job by embodying some previous knowledge about the data set. The
clustering results are, then, useful for labeling the remaining unlabeled data in the
set. Following that, come to action the supervised learning algorithms aimed at
generating fuzzy rules.
This document contains theoretic concepts, that will help in understanding the
research proposal, and a discussion about the context wherein is the proposal.
Some experiments were set up to show that this may be an interesting solution for
machine learning jobs that have encountered difficulties due to lack of available
information about data. / O aprendizado indutivo é, tradicionalmente, dividido em supervisionado e não
supervisionado. No aprendizado supervisionado é fornecido ao método de aprendizado
um conjunto de dados rotulados (dados que tem a classe conhecida). Estes
dados são adequados para problemas de classificação e regressão. No aprendizado
não supervisionado são analisados dados não rotulados, com o objetivo de
identificar estruturas embutidas no conjunto.
Tipicamente, métodos de agrupamento não se utilizam de conhecimento prévio,
como rótulos de classes, para desempenhar sua tarefa. A característica de conjuntos
de dados atuais, grande volume e estruturas de atributos mistas, contribui
para a busca de melhores soluções para tarefas de aprendizado de máquina.
É neste contexto em que se encaixa esta proposta de pesquisa. Trata-se da
aplicação de métodos de agrupamento fuzzy semi-supervisionados na geração de
bases de regras fuzzy. Os métodos de agrupamento semi-supervisionados realizam
sua tarefa incorporando algum conhecimento prévio a respeito do conjunto de dados.
O resultado do agrupamento é, então, utilizado para rotulação do restante do
conjunto. Em seguida, entram em ação algoritmos de aprendizado supervisionado
que tem como objetivo gerar regras fuzzy.
Este documento contém conceitos teóricos para compreensão da proposta de
trabalho e uma discussão a respeito do contexto onde se encaixa a proposta. Alguns
experimentos foram realizados a fim de mostrar que esta pode ser uma solução
interessante para tarefas de aprendizado de máquina que encontram dificuldades
devido à falta de informação disponível sobre dados.
|
106 |
Uma abordagem dirigida por modelos para distribuição tardia de aplicaçõesEsperança, Vinicius Nordi 07 March 2016 (has links)
Submitted by Caroline Periotto (carol@ufscar.br) on 2016-09-26T20:19:11Z
No. of bitstreams: 1
DissVNE.pdf: 1613517 bytes, checksum: bd44342cd60c7332f4ed2a360b407235 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-27T20:14:41Z (GMT) No. of bitstreams: 1
DissVNE.pdf: 1613517 bytes, checksum: bd44342cd60c7332f4ed2a360b407235 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-27T20:14:47Z (GMT) No. of bitstreams: 1
DissVNE.pdf: 1613517 bytes, checksum: bd44342cd60c7332f4ed2a360b407235 (MD5) / Made available in DSpace on 2016-09-27T20:14:53Z (GMT). No. of bitstreams: 1
DissVNE.pdf: 1613517 bytes, checksum: bd44342cd60c7332f4ed2a360b407235 (MD5)
Previous issue date: 2016-03-07 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / The need to improve software systems to adapt to the new technologies is a constant topic of research. As computing evolves, new challenges emerge and new solutions must be created. The increasing use of various types of devices for access to sites and software and the ease that the Internet provides the information access, force researchers to keep great efforts improving already developed applications, or even thinking of ways to facilitate the development of software to run on multiple devices. The general purpose of this master’s research was focused on this problem, distribute software systems initially designed to run on a single computer in order to eliminate many tasks that the developer thoroughly repeat this process. The approach allows developers to use the source code of any application and distribution models, perform the division of its software quickly in order to test different distributions without time cost. Using concepts of MDD (Model-Driven Development), analyzers and code generators, and concepts of microservices, it developed a partitioner that distributes the source code of an application on multiple servers, creating small services for each, making these services exchange information with each other while maintaining the functionality of the application intact. The partitioner gives flexibility to the programmer to choose the arrangement of classes among the services that will be created. Developers can then easily test different ways to distribute the code of the application without the need of having to develop services and communication between the new services. This approach was called late distribution. Experimental studies were performed to ensure the validity of the project. In total, five different tests were conducted in order to verify the creation of services would be performed as defined by the programmer. In all cases the result was satisfactory, allowing distribution of software code used between the designated servers. / A necessidade de melhoria de sistemas de software para adequarem-se às novas tecnologias é tema constante de pesquisas. Conforme a computação evolui, novos desafios surgem, e novas soluções devem ser criadas. A crescente utilização de diversos tipos de aparelhos para acesso a sites e software, além da facilidade que a Internet proporciona ao acesso de informações, força pesquisadores da área a manterem grandes esforços melhorando aplicações já desenvolvidas, ou mesmo pensando em formas de facilitar o desenvolvimento de software de forma a rodar em vários dispositivos. O intuito geral desta pesquisa de mestrado foi com foco nesse problema, de distribuir sistemas de software inicialmente projetados para rodar em um único computador de maneira a eliminar muitas tarefas que o desenvolvedor repetiria exaustivamente nesse processo. A abordagem permite que programadores possam, a partir do código fonte de alguma aplicação e modelos de distribuição, realizar a divisão do seu software de maneira rápida, a fim de testar diversas distribuições sem custo de tempo. Utilizando conceitos de DSDM (Desenvolvimento de Software Dirigido a Modelos), analisadores e geradores de código, e conceitos de microsserviços, foi desenvolvido um particionador que distribui o código fonte de uma aplicação em diversos servidores, criando pequenos serviços para cada, fazendo esses serviços trocarem informações entre si, mantendo as funcionalidades da aplicação intactas. O particionador dá flexibilidade ao programador de escolher a disposição das classes entre os serviços que serão criados. Desenvolvedores podem então, facilmente, testar diversas maneiras de distribuir o código de sua aplicação, sem a necessidade de ter que desenvolver os serviços e a comunicação entre eles. Essa abordagem foi denominada distribuição tardia. Estudos experimentais foram realizados para garantir a validade do projeto. No total, cinco testes diferentes foram conduzidos, a fim de verificar se a criação dos serviços seria realizada como definida pelo programador. Em todos os casos o resultado foi satisfatório, permitindo a distribuição do código do software utilizado entre os servidores designados.
|
107 |
Análise comparativa de técnicas avançadas de agrupamento / Comparative analysis of advanced clustering techniquesPiantoni, Jane 29 January 2016 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2016-10-25T22:08:51Z
No. of bitstreams: 1
PIANTONI_Jane_2016.pdf: 14171171 bytes, checksum: dff7166cfad97d46b01738a24a184b1c (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2016-10-25T22:09:03Z (GMT) No. of bitstreams: 1
PIANTONI_Jane_2016.pdf: 14171171 bytes, checksum: dff7166cfad97d46b01738a24a184b1c (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2016-10-25T22:09:18Z (GMT) No. of bitstreams: 1
PIANTONI_Jane_2016.pdf: 14171171 bytes, checksum: dff7166cfad97d46b01738a24a184b1c (MD5) / Made available in DSpace on 2016-10-25T22:09:29Z (GMT). No. of bitstreams: 1
PIANTONI_Jane_2016.pdf: 14171171 bytes, checksum: dff7166cfad97d46b01738a24a184b1c (MD5)
Previous issue date: 2016-01-29 / Não recebi financiamento / The goal of this study is to investigate the characteristics of the new data clustering approaches, carrying out a comparative study of clustering techniques that combine or select multiple solutions, analyzing these latest techniques in relation to variety and completeness of knowledge that can be extracted with your application. Studies have been conducted related to the influence of partitions based on traditional ensembles and multi-objective ensemble. The performance of the methods was evaluated by applying them to different sets of base partitions, in order to evaluate them with respect to their ability to identify quality partitions from different initial scenarios. The other study, was conducted to evaluate the ability of the techniques in relation to recover the information available in the data. And for this, investigations were carried out in two contexts: partitions, which is the traditional form of analysis and clusters to internally verify that the recovered partitions contains more relevant information than the partition analysis shows. And to undertake such analyzes were observed the quality of partitions and clusters, the percentage of actual information (partitions and clusters) really recovered, in both contexts, and the volume of irrelevant information that each technique produces. Among the analyzes are the search for novel partitions and more robust than the sets of base partitions assembly used in the experiments, analysis of the influence of the partitions based on ensembles, the capacity analysis techniques in obtaining multiple partitions, and the analysis of the clusters extracted. / Este trabalho tem como objetivo investigar as características das novas abordagens de agrupamento de dados, realizando um estudo comparativo das técnicas de agrupamento que combinam ou selecionam múltiplas soluções, analisando essas técnicas mais recentes em relação a variedade e completude do conhecimento que pode ser extraído com sua aplicação. Foram realizados estudos relacionados a influência das partições base nos ensembles tradicionais e ensemble multi-objetivo. O desempenho dos métodos foi avaliado, aplicando-os em diferentes conjuntos de partições base, com o objetivo de avaliá-los com respeito a sua capacidade de identificar partições de qualidade a partir de diferentes cenários iniciais. O outro estudo realizado teve como objetivo avaliar a capacidade das técnicas em relação a recuperar as informações existentes nos dados. Para isto, foram realizadas investigações nos dois contextos: partições, que é a forma tradicional de análise e clusters para verificar internamente se as partições recuperadas contém mais informações relevantes do que a análise de partições demonstra. Para realizar tais análises, foram observadas a qualidade das partições e dos clusters, a porcentagem de informações reais (partições e clusters) realmente recuperadas, nos dois contextos, e o volume de informações irrelevantes que cada técnica produz. Dentre as análises realizadas, estão a busca por partições inéditas e mais robustas que o conjunto de partições base utilizados nos experimentos, a análise da influência das partições base nos ensembles, a análise da capacidade das técnicas na obtenção de múltiplas partições e a análise dos clusters extraídos.
|
108 |
Modelo de procedência para auxiliar na análise da qualidade do dado geográficoSantos, Renata Ribeiro dos 09 August 2016 (has links)
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-03-29T19:09:28Z
No. of bitstreams: 1
DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-04-11T13:45:04Z (GMT) No. of bitstreams: 1
DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-04-11T13:45:15Z (GMT) No. of bitstreams: 1
DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) / Made available in DSpace on 2017-04-11T13:53:54Z (GMT). No. of bitstreams: 1
DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5)
Previous issue date: 2016-08-09 / Não recebi financiamento / The quality of the geographic data must be a relevant concern for providers and consumers of this
type of data because the manipulation and analysis of low quality geographic data may result in
errors, which will be propagated through the consequent data. Thus it is important to properly
document the information which allows for certifying the quality of the geographic data. In order
to provide a minimum amount of metadata for such purpose, this dissertation presents an approach
based on the provenance of the geographic data, which corresponds to the information about the
history of such data from its origin until the processes that resulted in its current state. For this
purpose, a provenance model called ProcGeo was proposed, in which it was defined a minimum
amount of metadata that must be considered for the analysis of the quality of a certain geographic
data. Although a few works and geographic metadata standards, such as Federal Geographic Data
Committee (FGDC) and ISO 19115, consider the information about the provenance in the analysis
of the quality of geographic data, it´s the opinion of the author that some metadata considered
important for this purpose are not adequately contemplated. In this work, the prototype of an
interface called ProcGeoInter was also implemented, aiming to guarantee the completeness and
correctness in the filling out of the defined metadata in the ProcGeo model as well as the
visualization of their content. The validation of the ProcGeo model and of the ProcGeoInter
interface were made through tests and surveys applied to providers and consumers of geographic
data. As a means of comparison, the interface for filling out and visualization of metadata
available by SIG Quantum GIS (plugin Metatools) was used, which implements the FGDC
geographic metadata standard. The obtained results indicated that the metadata defined in the
ProcGeo model helped the geographic data provider in the description of the provenance of such
data, when compared to those defined in the FGDC geographic metadata standard. Through the
consumer´s focus it was possible to notice that the information filled out in the metadata defined
by the ProcGeo favored the analysis of the quality of the consumed data. It was clear that both
providers and consumers do not possess the habit of providing or consuming the information
predicted in the FGDC and ISO 19115 geographic metadata standards. / A qualidade do dado geográfico deve ser uma preocupação relevante para provedores e
consumidores desse tipo de dado, pois a manipulação e análise de um dado geográfico com baixa
qualidade podem resultar em erros que vão se propagar nos dados gerados a partir desse. Assim, é
importante que a informação que permita atestar a qualidade do dado geográfico seja
adequadamente documentada. Com o propósito de oferecer um conjunto mínimo de metadados
para essa finalidade, esse trabalho apresenta uma abordagem baseada na procedência do dado
geográfico, que corresponde à informação sobre a história do dado, desde a sua origem até os
processos que resultaram no seu estado atual. Para tanto, foi proposto um modelo de procedência
denominado ProcGeo no qual foi definido um conjunto mínimo de metadados que devem ser
considerados para a análise da qualidade de um dado geográfico. Embora alguns trabalhos e
padrões de metadados geográficos, como o Federal Geographic Data Committee (FGDC) e o ISO
19115, considerem a informação da procedência para a análise da qualidade do dado geográfico,
sob o ponto de vista da autora deste trabalho, alguns metadados considerados importantes para
essa finalidade não são adequadamente contemplados. Neste trabalho também foi implementado o
protótipo de uma interface denominada ProcGeoInter, que tem como finalidade garantir a
corretude e completude do preenchimento dos metadados definidos no modelo ProcGeo e a
visualização do conteúdo dos mesmos. A validação do modelo ProcGeo e da interface
ProcGeoInter foram realizados por meio de testes e questionários aplicados a provedores e
consumidores de dados geográficos. Para efeito de comparação, foi considerada a interface para
preenchimento e visualização de metadados disponibilizada no SIG Quantum GIS (plugin
Metatoools), que implementa o padrão de metadados geográficos FGDC. Os resultados obtidos
indicaram que os metadados definidos no modelo ProcGeo auxiliaram o provedor de dados
geográficos na descrição da procedência desses dados, quando comparados aos definidos no
padrão de metadados geográficos FGDC. Pelo foco do consumidor foi possível perceber que as
informações preenchidas nos metadados definidos pelo ProcGeo favoreceram a análise da
qualidade dos dados consumidos. Ficou evidente que tanto provedores quanto consumidores não
possuem o hábito de prover ou consumir as informações previstas nos padrões de metadados
geográficos FGDC e ISO 19115.
|
109 |
Implementação inicial da RFC 6897 / Initial implementation of RFC 6897Silva, Alan Castro 06 December 2016 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T14:58:47Z
No. of bitstreams: 1
SILVA_Alan_2016.pdf: 14722594 bytes, checksum: 0c8346924c434318f6c349f7ed8112d9 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T14:58:54Z (GMT) No. of bitstreams: 1
SILVA_Alan_2016.pdf: 14722594 bytes, checksum: 0c8346924c434318f6c349f7ed8112d9 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T14:58:59Z (GMT) No. of bitstreams: 1
SILVA_Alan_2016.pdf: 14722594 bytes, checksum: 0c8346924c434318f6c349f7ed8112d9 (MD5) / Made available in DSpace on 2017-06-01T14:59:06Z (GMT). No. of bitstreams: 1
SILVA_Alan_2016.pdf: 14722594 bytes, checksum: 0c8346924c434318f6c349f7ed8112d9 (MD5)
Previous issue date: 2016-12-06 / Não recebi financiamento / The Multipath TCP (MPTCP) protocol allows applications to better explore the network resources available to multi-connected devices such as mobile phones or multi-homed systems. Here, some advantages are envisioned: bandwidth aggregation, the ability to maintain the connection, if one of the network path fails and the use of multiple paths. To extend these capabilities to the application, RFC 6897 defines an API to better control each of MPTCP’s subflows, so that these can be added or removed as needed. This work presents an initial API implementation as defined in RFC 6897. We implemented some functions described in the document, such as protocol on/o, check existent subflows and add new subflows. To test the API and validate our implementation we built an HTTP application that detects elephant flows and uses the API for open new subflows using the original TCP connection. Some tests were performed in a network using a cubic topology and showed that the API utilization decreased the Flow Completion time of TCP connections. / O protocolo Multipath TCP (MPTCP) permite que as aplicações possam explorar melhor os recursos de rede disponíveis para dispositivos multiconectados como os telefones móveis ou sistemas multi-homed. Aqui, algumas vantagens são previstas: agregação de banda, a habilidade de manter a conexão estabelecida se houver falha em um dos caminhos de rede e a utilização de múltiplos caminhos. Para estender essas capacidades para a aplicação, a RFC 6897 define uma API que permite um melhor controle de cada subfluxo MPTCP, de modo que esses possam ser adicionados ou removidos conforme necessário. Este trabalho apresenta uma implementação inicial da API descrita na RFC 6897 para o protocolo MPTCP. Sendo assim, implementamos algumas das funções de manipulação do protocolo MPTCP descritas no documento, quais sejam: ligar e desligar o protocolo, verificar subfluxos existentes e adicionar novos subfluxos. Para testar a API e validar a nossa implementação, nós desenvolvemos uma aplicação HTTP que detecta fluxos elefantes e utiliza a API para abrir novos subfluxos a partir da conexão TCP original. Testes de desempenho foram realizados em uma topologia cúbica e mostraram que a utilização da API pela aplicação diminuiu o Flow Completion Time das conexões TCP.
|
110 |
IPS: um plug-in para templates de códigos associativos / IPS: a plug-in for associative code templatesMoraes, Rodrigo Vieira de 25 November 2016 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T17:00:50Z
No. of bitstreams: 1
MORAES_Rodrigo_2016.pdf: 42751751 bytes, checksum: 25891a495567a6bce1d41328abf03d12 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T17:00:58Z (GMT) No. of bitstreams: 1
MORAES_Rodrigo_2016.pdf: 42751751 bytes, checksum: 25891a495567a6bce1d41328abf03d12 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T17:01:04Z (GMT) No. of bitstreams: 1
MORAES_Rodrigo_2016.pdf: 42751751 bytes, checksum: 25891a495567a6bce1d41328abf03d12 (MD5) / Made available in DSpace on 2017-06-01T17:01:09Z (GMT). No. of bitstreams: 1
MORAES_Rodrigo_2016.pdf: 42751751 bytes, checksum: 25891a495567a6bce1d41328abf03d12 (MD5)
Previous issue date: 2016-11-25 / Não recebi financiamento / The APIs are becoming increasingly more popular and they play a important role in software development. However, many APIs are large and complex that makes them hard to learn. Among avaliable resources to learn to use an API, there are the code samples. A code sample can be used to demonstrate to a programmer how to use API’s components together to attain a specific goal. But, code sample are static and they haven’t information about how to adapt the code snippet shown as example to programmer’s context. Tools have been proposed to assist the programmers in finding and adapting code snippets that may be useful for a programming task. A specific type of these tools are the code template tools. Code templates are code snippets manually registered containing integration directives. The integration directives instruct the code template tool on how to adapt a code snippet to programmer’s context. In this work, code snippet tools are investigated and it is proposed a code template tool called IPS. It presents some novelties in relation to other code template tools. In the IPS, a code template can be associated to a Java class and the IPS has a code template recommender that is automatically updated as the source code is edited by the programmer. Also it is proposed the role parameters, a new concept for the parameters of code templates that extends the concept of the parameters associated to a type which is present in current code template tools. The role parameters has the objective of accepting arguments that would at first be incompatible with a specific type, but that obey a expected pattern. / As APIs têm se tornado cada vez mais populares e elas têm um papel fundamental no desenvolvimento de software. No entanto, muitas APIs são grandes e complexas o que torna a aprendizagem delas difícil. Entre os recursos disponíveis para se aprender a utilizar uma API, há os exemplos de código. Um exemplo de código pode demonstrar a um programador como componentes de uma API podem ser utilizados juntos para atingir um determinado objetivo. Porém, exemplos de código são estáticos e não contêm informações de como adaptar o trecho de código apresentado como exemplo para o contexto do programador. Ferramentas têm sido propostas para auxiliar os programadores a encontrarem e adaptarem trechos de códigos que possam ser úteis para uma tarefa de programação. Um tipo específico dessas ferramentas são as ferramentas de templates de código. Templates de código são trechos de códigos cadastrados manualmente contendo diretivas de integração. As diretivas de integração instruem a ferramenta a como adaptar um trecho de código para o contexto do programador. Neste trabalho, ferramentas de trechos de código são investigadas e é proposta uma ferramenta de template de código denominada IPS. Ela apresenta novidades em relação às outras ferramentas de templates de código. No IPS, um template de código pode ser associado a uma classe Java e o IPS possui um recomendador de templates de código que é automaticamente atualizado conforme o código fonte é editado pelo programador. Também é proposto os parâmetros do tipo role, um novo conceito que estende o conceito dos parâmetros associados a um tipo que está presente nas ferramentas de templates de código atuais. Os parâmetros do tipo role têm como objetivo aceitar argumentos que seriam a princípio incompatíveis com um determinado tipo, porém que sigam um determinado padrão esperado.
|
Page generated in 0.0316 seconds