• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 741
  • 15
  • 10
  • 8
  • 8
  • 8
  • 4
  • 4
  • 2
  • Tagged with
  • 762
  • 357
  • 326
  • 262
  • 259
  • 243
  • 242
  • 239
  • 191
  • 178
  • 151
  • 141
  • 134
  • 132
  • 130
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
461

Recuperação de documentos baseados em informação semântica no ambiente AMMO.

Corrêa, Adriana Cristina Giusti 25 August 2003 (has links)
Made available in DSpace on 2016-06-02T19:06:03Z (GMT). No. of bitstreams: 1 DissACGC.pdf: 1152663 bytes, checksum: b9af98519cb385cdf69ae9a80dbb5bf1 (MD5) Previous issue date: 2003-08-25 / This study presents techniques used for extracting semantic information from texts and strategies for semantic information-based document retrieval. These techniques and strategies have been adopted so as to develop a Document Manipulation System based on Semantic Information. Previously established values of similarity and relevance are used in the document retrieval process.. The organization of semantic information, user interfaces, manipulation of imprecise information and the extraction and retrieval mechanism are discussed. The impreciseness in the semantic information is treated through similarity values in order to compare the query´spredicates with the database results. Relevance values specified for the query´s predicates have been used to classify the resulting documents. A prototype of the system has been developed. This prototype can be incorporated into the AMMO environment (Authoring and Manipulation of Multimedia Objects), whose aim is to provide resources for creating, storing and manipulating multimedia applications. / Neste trabalho são apresentadas técnicas utilizadas na extração de informação semântica de textos e estratégias para recuperação de documentos baseada em informação semântica, que foram adotadas para o desenvolvimento de um Sistema para Manipulação de Documentos baseada em Informação Semântica. Para a recuperação de documentos são considerados valores de similaridade e relevância estabelecidos. A organização da informação semântica, as interfaces com o usuário, a manipulação das informações imprecisas, o mecanismo de extração e recuperação são discutidos. A imprecisão inerente à informação semântica é tratada através de valores de similaridade para comparar os termos requeridos na consulta e os consultados no banco de dados. Os valores de relevância especificados para os termos envolvidos na consulta são utilizados para classificar os documentos resultantes. Foi desenvolvido um protótipo do sistema, que pode ser incorporado ao ambiente AMMO (Authoring and Manipulation of Multimedia Objects), que tem por objetivo fornecer recursos para a criação, armazenamento e manipulação de aplicações multimídia.
462

Utilizando XML para publicação de dados multimídia na web.

Teixeira, Eduardo Cotrin 21 February 2002 (has links)
Made available in DSpace on 2016-06-02T19:06:04Z (GMT). No. of bitstreams: 1 DissECT.pdf: 1686156 bytes, checksum: b0ac8a0a204b32af0621b1d744787f9f (MD5) Previous issue date: 2002-02-21 / Oriented-Object Database Management Systems have been adopted for the management of multimedia applications, becoming possible to implement recovery forms that propitiate more expression capacity to the user if are foreseen metadata (information about the stored data) that assist in this task, providing a more natural and powerful form to find objects in the objects base. In this context project AMMO (Authoring and Manipulation of Multimedia Objects) appeared, aiming to provide an environment for support the authoring, storage and manipulation of multimedia applications. The developed work aims to implement automatic XML document creation for representation of multimedia data obtained as result of consultations to the Multimedia Objects Server (MmOS) of AMMO environment, preserving the advantages of this environment, as possibility of content-based search, semantics description of multimedia data and high reusability, associating them with XML advantages, as interchange facility, independence and flexibility in presentation form and semantics description of content. The XML concepts, the AMMO Project, the XML representation of multimedia data with semantic information, the creation and use of XML documents inside AMMO Project and some possible forms of visualization of the data through the XSL Style Sheets are presented. / Sistemas de gerenciamento de banco de dados orientados a objetos têm sido adotados para o gerenciamento de aplicações multimídia, tornando possível implementar formas de recuperação que propiciem maior poder de expressão ao usuário desde que sejam previstos metadados (informações sobre os dados armazenados) que auxiliem nesta tarefa, proporcionando ao usuário uma forma mais natural e poderosa para encontrar os objetos no banco de objetos. Nesse contexto surgiu o projeto AMMO (Authoring and Manipulation of Multimedia Objects), com o objetivo de prover um ambiente para suporte à autoria, armazenamento e manipulação de aplicações multimídia. O trabalho desenvolvido tem como objetivo implementar a criação automática de documentos XML para representação de dados multimídia obtidos como resultado de consultas ao Servidor de Objetos Multimídia (MmOS - Multimedia Objects Server) do ambiente AMMO, preservando as vantagens presentes nesse ambiente, como possibilidade de busca por conteúdo, descrição semântica dos dados multimídia e alta reusabilidade, associando-as às vantagens de XML, como facilidade de intercâmbio, independência e flexibilidade na forma de apresentação e descrição semântica de conteúdo. São apresentados os conceitos de XML, o Projeto AMMO, a representação em XML dos dados multimídia com informações semânticas, a criação e o uso dos documentos XML dentro do Projeto AMMO e algumas formas possíveis de visualização dos dados através do uso de Folhas de Estilo XSL.
463

Proposta de um procedimento de programação on-line da produção de sistemas flexíveis de manufatura baseado em lógica fuzzy. / Proposal of a Production On-line Scheduling Procedure of Flexible Manufacturing Systems based on Fuzzy.

Domingos, Jean Carlos 25 August 2004 (has links)
Made available in DSpace on 2016-06-02T19:06:23Z (GMT). No. of bitstreams: 1 DissJCD.pdf: 3954079 bytes, checksum: 63ef4f081a962ca21478327fb623632d (MD5) Previous issue date: 2004-08-25 / Flexible manufacturing systems (FMS) have been designed to meet market requirements that demand products that are quality and ready to deliver. In order to meet the market requirements, the methodologies used in the FMS scheduling must consider a highly dynamic environment, where it is often necessary to meet or to react to uncertain demands and to get better use of its resources. An on-line scheduling procedure based on fuzzy logic is proposed in this work, whose main characteristic is shop floor tasks scheduling using fuzzy rules building with the support of an expert to meet several measures of performance. A simulation study was carried out with the objective to verify the applicability of the proposed approach, using a simulation tool integrated with the on-line scheduling procedure based on fuzzy logic. / Os sistemas flexíveis de manufatura (FMS) têm sido projetados para atender as necessidades do mercado, que demandam por produtos que apresentam qualidade e prazos de entrega pequenos. Para atender as necessidades do mercado, as metodologias usadas na programação de operações de FMS devem considerar um ambiente altamente dinâmico, onde é frequentemente necessário atender ou reagir a demandas incertas e fazer o melhor uso de seus recursos. Um procedimento de programação on-line baseado em lógica fuzzy é proposto neste trabalho, cuja característica principal é programar as tarefas do chão de fábrica utilizando regras fuzzy construídas com o apoio de um especialista para atender a várias medidas de desempenho simultaneamente. Um estudo por meio de simulação foi realizado com o objetivo de verificar a aplicabilidade da abordagem proposta, utilizando uma ferramenta de simulação integrada ao procedimento de programação on-line baseado em lógica fuzzy.
464

Agrupamento de dados semissupervisionado na geração de regras fuzzy

Lopes, Priscilla de Abreu 27 August 2010 (has links)
Submitted by Izabel Franco (izabel-franco@ufscar.br) on 2016-09-06T18:25:30Z No. of bitstreams: 1 DissPAL.pdf: 2245333 bytes, checksum: 24abfad37e7d0675d6cef494f4f41d1e (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-12T14:03:53Z (GMT) No. of bitstreams: 1 DissPAL.pdf: 2245333 bytes, checksum: 24abfad37e7d0675d6cef494f4f41d1e (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-12T14:04:01Z (GMT) No. of bitstreams: 1 DissPAL.pdf: 2245333 bytes, checksum: 24abfad37e7d0675d6cef494f4f41d1e (MD5) / Made available in DSpace on 2016-09-12T14:04:09Z (GMT). No. of bitstreams: 1 DissPAL.pdf: 2245333 bytes, checksum: 24abfad37e7d0675d6cef494f4f41d1e (MD5) Previous issue date: 2010-08-27 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Inductive learning is, traditionally, categorized as supervised and unsupervised. In supervised learning, the learning method is given a labeled data set (classes of data are known). Those data sets are adequate for problems of classification and regression. In unsupervised learning, unlabeled data are analyzed in order to identify structures embedded in data sets. Typically, clustering methods do not make use of previous knowledge, such as classes labels, to execute their job. The characteristics of recently acquired data sets, great volume and mixed attribute structures, contribute to research on better solutions for machine learning jobs. The proposed research fits into this context. It is about semi-supervised fuzzy clustering applied to the generation of sets of fuzzy rules. Semi-supervised clustering does its job by embodying some previous knowledge about the data set. The clustering results are, then, useful for labeling the remaining unlabeled data in the set. Following that, come to action the supervised learning algorithms aimed at generating fuzzy rules. This document contains theoretic concepts, that will help in understanding the research proposal, and a discussion about the context wherein is the proposal. Some experiments were set up to show that this may be an interesting solution for machine learning jobs that have encountered difficulties due to lack of available information about data. / O aprendizado indutivo é, tradicionalmente, dividido em supervisionado e não supervisionado. No aprendizado supervisionado é fornecido ao método de aprendizado um conjunto de dados rotulados (dados que tem a classe conhecida). Estes dados são adequados para problemas de classificação e regressão. No aprendizado não supervisionado são analisados dados não rotulados, com o objetivo de identificar estruturas embutidas no conjunto. Tipicamente, métodos de agrupamento não se utilizam de conhecimento prévio, como rótulos de classes, para desempenhar sua tarefa. A característica de conjuntos de dados atuais, grande volume e estruturas de atributos mistas, contribui para a busca de melhores soluções para tarefas de aprendizado de máquina. É neste contexto em que se encaixa esta proposta de pesquisa. Trata-se da aplicação de métodos de agrupamento fuzzy semi-supervisionados na geração de bases de regras fuzzy. Os métodos de agrupamento semi-supervisionados realizam sua tarefa incorporando algum conhecimento prévio a respeito do conjunto de dados. O resultado do agrupamento é, então, utilizado para rotulação do restante do conjunto. Em seguida, entram em ação algoritmos de aprendizado supervisionado que tem como objetivo gerar regras fuzzy. Este documento contém conceitos teóricos para compreensão da proposta de trabalho e uma discussão a respeito do contexto onde se encaixa a proposta. Alguns experimentos foram realizados a fim de mostrar que esta pode ser uma solução interessante para tarefas de aprendizado de máquina que encontram dificuldades devido à falta de informação disponível sobre dados.
465

Uma abordagem dirigida por modelos para distribuição tardia de aplicações

Esperança, Vinicius Nordi 07 March 2016 (has links)
Submitted by Caroline Periotto (carol@ufscar.br) on 2016-09-26T20:19:11Z No. of bitstreams: 1 DissVNE.pdf: 1613517 bytes, checksum: bd44342cd60c7332f4ed2a360b407235 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-27T20:14:41Z (GMT) No. of bitstreams: 1 DissVNE.pdf: 1613517 bytes, checksum: bd44342cd60c7332f4ed2a360b407235 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-27T20:14:47Z (GMT) No. of bitstreams: 1 DissVNE.pdf: 1613517 bytes, checksum: bd44342cd60c7332f4ed2a360b407235 (MD5) / Made available in DSpace on 2016-09-27T20:14:53Z (GMT). No. of bitstreams: 1 DissVNE.pdf: 1613517 bytes, checksum: bd44342cd60c7332f4ed2a360b407235 (MD5) Previous issue date: 2016-03-07 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / The need to improve software systems to adapt to the new technologies is a constant topic of research. As computing evolves, new challenges emerge and new solutions must be created. The increasing use of various types of devices for access to sites and software and the ease that the Internet provides the information access, force researchers to keep great efforts improving already developed applications, or even thinking of ways to facilitate the development of software to run on multiple devices. The general purpose of this master’s research was focused on this problem, distribute software systems initially designed to run on a single computer in order to eliminate many tasks that the developer thoroughly repeat this process. The approach allows developers to use the source code of any application and distribution models, perform the division of its software quickly in order to test different distributions without time cost. Using concepts of MDD (Model-Driven Development), analyzers and code generators, and concepts of microservices, it developed a partitioner that distributes the source code of an application on multiple servers, creating small services for each, making these services exchange information with each other while maintaining the functionality of the application intact. The partitioner gives flexibility to the programmer to choose the arrangement of classes among the services that will be created. Developers can then easily test different ways to distribute the code of the application without the need of having to develop services and communication between the new services. This approach was called late distribution. Experimental studies were performed to ensure the validity of the project. In total, five different tests were conducted in order to verify the creation of services would be performed as defined by the programmer. In all cases the result was satisfactory, allowing distribution of software code used between the designated servers. / A necessidade de melhoria de sistemas de software para adequarem-se às novas tecnologias é tema constante de pesquisas. Conforme a computação evolui, novos desafios surgem, e novas soluções devem ser criadas. A crescente utilização de diversos tipos de aparelhos para acesso a sites e software, além da facilidade que a Internet proporciona ao acesso de informações, força pesquisadores da área a manterem grandes esforços melhorando aplicações já desenvolvidas, ou mesmo pensando em formas de facilitar o desenvolvimento de software de forma a rodar em vários dispositivos. O intuito geral desta pesquisa de mestrado foi com foco nesse problema, de distribuir sistemas de software inicialmente projetados para rodar em um único computador de maneira a eliminar muitas tarefas que o desenvolvedor repetiria exaustivamente nesse processo. A abordagem permite que programadores possam, a partir do código fonte de alguma aplicação e modelos de distribuição, realizar a divisão do seu software de maneira rápida, a fim de testar diversas distribuições sem custo de tempo. Utilizando conceitos de DSDM (Desenvolvimento de Software Dirigido a Modelos), analisadores e geradores de código, e conceitos de microsserviços, foi desenvolvido um particionador que distribui o código fonte de uma aplicação em diversos servidores, criando pequenos serviços para cada, fazendo esses serviços trocarem informações entre si, mantendo as funcionalidades da aplicação intactas. O particionador dá flexibilidade ao programador de escolher a disposição das classes entre os serviços que serão criados. Desenvolvedores podem então, facilmente, testar diversas maneiras de distribuir o código de sua aplicação, sem a necessidade de ter que desenvolver os serviços e a comunicação entre eles. Essa abordagem foi denominada distribuição tardia. Estudos experimentais foram realizados para garantir a validade do projeto. No total, cinco testes diferentes foram conduzidos, a fim de verificar se a criação dos serviços seria realizada como definida pelo programador. Em todos os casos o resultado foi satisfatório, permitindo a distribuição do código do software utilizado entre os servidores designados.
466

Análise comparativa de técnicas avançadas de agrupamento / Comparative analysis of advanced clustering techniques

Piantoni, Jane 29 January 2016 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2016-10-25T22:08:51Z No. of bitstreams: 1 PIANTONI_Jane_2016.pdf: 14171171 bytes, checksum: dff7166cfad97d46b01738a24a184b1c (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2016-10-25T22:09:03Z (GMT) No. of bitstreams: 1 PIANTONI_Jane_2016.pdf: 14171171 bytes, checksum: dff7166cfad97d46b01738a24a184b1c (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2016-10-25T22:09:18Z (GMT) No. of bitstreams: 1 PIANTONI_Jane_2016.pdf: 14171171 bytes, checksum: dff7166cfad97d46b01738a24a184b1c (MD5) / Made available in DSpace on 2016-10-25T22:09:29Z (GMT). No. of bitstreams: 1 PIANTONI_Jane_2016.pdf: 14171171 bytes, checksum: dff7166cfad97d46b01738a24a184b1c (MD5) Previous issue date: 2016-01-29 / Não recebi financiamento / The goal of this study is to investigate the characteristics of the new data clustering approaches, carrying out a comparative study of clustering techniques that combine or select multiple solutions, analyzing these latest techniques in relation to variety and completeness of knowledge that can be extracted with your application. Studies have been conducted related to the influence of partitions based on traditional ensembles and multi-objective ensemble. The performance of the methods was evaluated by applying them to different sets of base partitions, in order to evaluate them with respect to their ability to identify quality partitions from different initial scenarios. The other study, was conducted to evaluate the ability of the techniques in relation to recover the information available in the data. And for this, investigations were carried out in two contexts: partitions, which is the traditional form of analysis and clusters to internally verify that the recovered partitions contains more relevant information than the partition analysis shows. And to undertake such analyzes were observed the quality of partitions and clusters, the percentage of actual information (partitions and clusters) really recovered, in both contexts, and the volume of irrelevant information that each technique produces. Among the analyzes are the search for novel partitions and more robust than the sets of base partitions assembly used in the experiments, analysis of the influence of the partitions based on ensembles, the capacity analysis techniques in obtaining multiple partitions, and the analysis of the clusters extracted. / Este trabalho tem como objetivo investigar as características das novas abordagens de agrupamento de dados, realizando um estudo comparativo das técnicas de agrupamento que combinam ou selecionam múltiplas soluções, analisando essas técnicas mais recentes em relação a variedade e completude do conhecimento que pode ser extraído com sua aplicação. Foram realizados estudos relacionados a influência das partições base nos ensembles tradicionais e ensemble multi-objetivo. O desempenho dos métodos foi avaliado, aplicando-os em diferentes conjuntos de partições base, com o objetivo de avaliá-los com respeito a sua capacidade de identificar partições de qualidade a partir de diferentes cenários iniciais. O outro estudo realizado teve como objetivo avaliar a capacidade das técnicas em relação a recuperar as informações existentes nos dados. Para isto, foram realizadas investigações nos dois contextos: partições, que é a forma tradicional de análise e clusters para verificar internamente se as partições recuperadas contém mais informações relevantes do que a análise de partições demonstra. Para realizar tais análises, foram observadas a qualidade das partições e dos clusters, a porcentagem de informações reais (partições e clusters) realmente recuperadas, nos dois contextos, e o volume de informações irrelevantes que cada técnica produz. Dentre as análises realizadas, estão a busca por partições inéditas e mais robustas que o conjunto de partições base utilizados nos experimentos, a análise da influência das partições base nos ensembles, a análise da capacidade das técnicas na obtenção de múltiplas partições e a análise dos clusters extraídos.
467

Teorema de Pitágoras, aplicações de demonstrações em sala de aula

Tartaglia Filho, Leonardo 26 October 2016 (has links)
Submitted by Alison Vanceto (alison-vanceto@hotmail.com) on 2017-02-16T11:55:02Z No. of bitstreams: 1 DissLTF.pdf: 7687528 bytes, checksum: 21db8089b37d9b1d1cbb6276365f0436 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-03-14T19:38:10Z (GMT) No. of bitstreams: 1 DissLTF.pdf: 7687528 bytes, checksum: 21db8089b37d9b1d1cbb6276365f0436 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-03-14T19:38:19Z (GMT) No. of bitstreams: 1 DissLTF.pdf: 7687528 bytes, checksum: 21db8089b37d9b1d1cbb6276365f0436 (MD5) / Made available in DSpace on 2017-03-14T19:48:08Z (GMT). No. of bitstreams: 1 DissLTF.pdf: 7687528 bytes, checksum: 21db8089b37d9b1d1cbb6276365f0436 (MD5) Previous issue date: 2016-10-26 / Não recebi financiamento / [ENG]The official curriculum of the state of São Paulo in their spiral character, discusses the Pythagorean Theorem as one of their learning situations for the 9th year of elementary school, and on top of that content, contextualizes the topic in several other opportunities in high school, one of the most common theories in the Euclidean geometry. The work contributes in the creation of skills and competencies necessary for the understanding of geometry, which is apparent or not the figure of the right triangle, with the aim of providing tools for students to build knowledge necessary in order to find solutions to the problems posed by notebook student, which is the basic curriculum for all students of the state of São Paulo school. The activities, as workshops and activity sheets, proposed by the developer of this dissertation were applied to 35 students of the 9th grade of elementary school of the State School Pedro Bento Alves, located in central city of Arandu, state of São Paulo, which has in its framework students 800 students, divided shapeless way in 22 classrooms. Through the activity sheets, the author made the draft statements for the Pythagorean Theorem through manual labor, which believes it has a more significant effect to the students. The results were analyzed and compared with the assumptions previously raised during the preparation and creation of the dissertation, and the Didactic Engineering as the main research methodology and data analysis. Proposals classes had a good development because students behaved as protagonists of actions, being motivated and participative during the execution of activities. Students reached the proposed objectives, understanding that the material developed provided a different routine, as it has been applied, and thus conclude that the leaves of activities will be useful to all teachers who want to develop them in their classes, adapting -the as reality, performance and utilization of their students. The work contributed greatly to the professional development of the author, since rethink strategies and pursue new activities through research, raised the level of knowledge on the subject, which provided new practices in the classroom. / O currículo oficial do estado de São Paulo em seu caráter espiral, aborda o Teorema de Pitágoras como uma de suas situações de aprendizagem para o 9° ano do ensino fundamental, e em cima desse conteúdo, contextualiza o tema em diversas outras oportunidades no ensino médio, sendo uma das teorias mais frequentes na parte da geometria euclidiana. O trabalho contribui na criação de habilidades e competências necessárias para a interpretação da geometria, que tem aparente ou não a figura do triângulo retângulo, com o objetivo de dar ferramentas para que o aluno construa conhecimentos necessários, a fim de encontrar soluções aos problemas propostos pelo caderno do aluno, que é a base curricular para todos os estudantes da rede estadual de ensino paulista. As atividades, em forma de oficinas e folhas de atividades, propostas pelo desenvolvedor dessa dissertação, foram aplicadas para 35 alunos do 9° ano do ensino fundamental da Escola Estadual Pedro Bento Alves, situada na região central da cidade de Arandu, estado de São Paulo, a qual tem em seu quadro discente 800 alunos, divididos de maneira disforme em 22 salas de aula. Nas folhas de atividades o autor fez a proposta de demonstrações para o Teorema de Pitágoras através do trabalho manual, que acredita ter efeito mais significativo para os alunos. Os resultados foram analisados e comparados com as hipóteses levantadas previamente durante a fase de preparação e criação da dissertação, tendo a Engenharia Didática como metodologia principal de investigação e análise dos dados. As aulas propostas tiveram um bom desenvolvimento, pois os alunos se portaram como protagonistas das ações, mostrando-se motivados e participativos durante a execução das atividades. Os alunos atingiram os objetivos propostos, entendendo que o material desenvolvido proporcionava uma rotina diferenciada, na forma com que foi aplicado, e com isso concluo que as folhas de atividades poderão ser úteis a todos os professores que queiram desenvolvê-las em suas aulas, adaptando-as conforme realidade, rendimento e aproveitamento de seus alunos. O trabalho contribuiu muito para o desenvolvimento profissional do autor, uma vez que repensar estratégias e buscar novas atividades através de pesquisas, elevou o nível de conhecimento sobre o tema, que propiciou novas práticas em sala de aula.
468

Modelo de procedência para auxiliar na análise da qualidade do dado geográfico

Santos, Renata Ribeiro dos 09 August 2016 (has links)
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-03-29T19:09:28Z No. of bitstreams: 1 DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-04-11T13:45:04Z (GMT) No. of bitstreams: 1 DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-04-11T13:45:15Z (GMT) No. of bitstreams: 1 DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) / Made available in DSpace on 2017-04-11T13:53:54Z (GMT). No. of bitstreams: 1 DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) Previous issue date: 2016-08-09 / Não recebi financiamento / The quality of the geographic data must be a relevant concern for providers and consumers of this type of data because the manipulation and analysis of low quality geographic data may result in errors, which will be propagated through the consequent data. Thus it is important to properly document the information which allows for certifying the quality of the geographic data. In order to provide a minimum amount of metadata for such purpose, this dissertation presents an approach based on the provenance of the geographic data, which corresponds to the information about the history of such data from its origin until the processes that resulted in its current state. For this purpose, a provenance model called ProcGeo was proposed, in which it was defined a minimum amount of metadata that must be considered for the analysis of the quality of a certain geographic data. Although a few works and geographic metadata standards, such as Federal Geographic Data Committee (FGDC) and ISO 19115, consider the information about the provenance in the analysis of the quality of geographic data, it´s the opinion of the author that some metadata considered important for this purpose are not adequately contemplated. In this work, the prototype of an interface called ProcGeoInter was also implemented, aiming to guarantee the completeness and correctness in the filling out of the defined metadata in the ProcGeo model as well as the visualization of their content. The validation of the ProcGeo model and of the ProcGeoInter interface were made through tests and surveys applied to providers and consumers of geographic data. As a means of comparison, the interface for filling out and visualization of metadata available by SIG Quantum GIS (plugin Metatools) was used, which implements the FGDC geographic metadata standard. The obtained results indicated that the metadata defined in the ProcGeo model helped the geographic data provider in the description of the provenance of such data, when compared to those defined in the FGDC geographic metadata standard. Through the consumer´s focus it was possible to notice that the information filled out in the metadata defined by the ProcGeo favored the analysis of the quality of the consumed data. It was clear that both providers and consumers do not possess the habit of providing or consuming the information predicted in the FGDC and ISO 19115 geographic metadata standards. / A qualidade do dado geográfico deve ser uma preocupação relevante para provedores e consumidores desse tipo de dado, pois a manipulação e análise de um dado geográfico com baixa qualidade podem resultar em erros que vão se propagar nos dados gerados a partir desse. Assim, é importante que a informação que permita atestar a qualidade do dado geográfico seja adequadamente documentada. Com o propósito de oferecer um conjunto mínimo de metadados para essa finalidade, esse trabalho apresenta uma abordagem baseada na procedência do dado geográfico, que corresponde à informação sobre a história do dado, desde a sua origem até os processos que resultaram no seu estado atual. Para tanto, foi proposto um modelo de procedência denominado ProcGeo no qual foi definido um conjunto mínimo de metadados que devem ser considerados para a análise da qualidade de um dado geográfico. Embora alguns trabalhos e padrões de metadados geográficos, como o Federal Geographic Data Committee (FGDC) e o ISO 19115, considerem a informação da procedência para a análise da qualidade do dado geográfico, sob o ponto de vista da autora deste trabalho, alguns metadados considerados importantes para essa finalidade não são adequadamente contemplados. Neste trabalho também foi implementado o protótipo de uma interface denominada ProcGeoInter, que tem como finalidade garantir a corretude e completude do preenchimento dos metadados definidos no modelo ProcGeo e a visualização do conteúdo dos mesmos. A validação do modelo ProcGeo e da interface ProcGeoInter foram realizados por meio de testes e questionários aplicados a provedores e consumidores de dados geográficos. Para efeito de comparação, foi considerada a interface para preenchimento e visualização de metadados disponibilizada no SIG Quantum GIS (plugin Metatoools), que implementa o padrão de metadados geográficos FGDC. Os resultados obtidos indicaram que os metadados definidos no modelo ProcGeo auxiliaram o provedor de dados geográficos na descrição da procedência desses dados, quando comparados aos definidos no padrão de metadados geográficos FGDC. Pelo foco do consumidor foi possível perceber que as informações preenchidas nos metadados definidos pelo ProcGeo favoreceram a análise da qualidade dos dados consumidos. Ficou evidente que tanto provedores quanto consumidores não possuem o hábito de prover ou consumir as informações previstas nos padrões de metadados geográficos FGDC e ISO 19115.
469

O modelo padrão no ensino médio: um tratamento elementar / The standard model in high school: an elementary treatment

Gomes, Roberto Rodrigues 08 February 2017 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2017-04-24T18:51:07Z No. of bitstreams: 1 GOMES_Roberto_2017.pdf: 42869946 bytes, checksum: d695b024593b35d0417108f1650fdbfe (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-04-24T18:51:14Z (GMT) No. of bitstreams: 1 GOMES_Roberto_2017.pdf: 42869946 bytes, checksum: d695b024593b35d0417108f1650fdbfe (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-04-24T18:51:21Z (GMT) No. of bitstreams: 1 GOMES_Roberto_2017.pdf: 42869946 bytes, checksum: d695b024593b35d0417108f1650fdbfe (MD5) / Made available in DSpace on 2017-04-24T18:51:28Z (GMT). No. of bitstreams: 1 GOMES_Roberto_2017.pdf: 42869946 bytes, checksum: d695b024593b35d0417108f1650fdbfe (MD5) Previous issue date: 2017-02-08 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Due to the importance of the teaching of Modern and Contemporary Physics (MCP) in basic education, especially in high school, and the technologies developed as of the end of the 19th century, as well as their applications, in this dissertation we contribute with the study of an important area of MCP: The Standard Model. For better understanding of this topic, we have adopted various methods, like ludic game, practical activity, technical visits (physical and virtual), and videos, among others. We want to achieve with these methodologies the understanding of the characteristics of the constituent elementary particles of matter, of the forces of interaction, the need for the construction of particle accelerators and the technologies involved in their construction that, directly or indirectly, contribute to society-oriented technologies in different areas of knowledge, such as: communications, medical, food, security, among others. Initially, we made a historical recurrence on the constitution of matter, beginning with Democritus and Aristotle's thoughts, until we get to the beginning of the 19th century of our era. Sequentially, we approach the atomic models of Dalton, Thomson, Rutherford, Bohr and Sommerfeld. We finish the theoretical part of this dissertation with a chapter on the Standard Model, which is our priority. In it we describe the Standard Model theories, technologies and the impacts MCP has on countries' economies. For the development of this dissertation, we adopted the theoretical reference championed by David Ausubel, which considers that the spontaneous knowledge of the student is the most important content that he brings to the classroom. / Devido à importância do ensino da Física Moderna e Contemporânea (FMC) na educação básica, principalmente no ensino médio, e das tecnologias desenvolvidas a partir do fim do século XIX, bem como de suas aplicabilidades, nesta dissertação contribuímos com o estudo de uma importante área da FMC: o Modelo Padrão. Para melhor compreensão desse tópico, adotamos metodologias variadas, como jogo lúdico, atividade prática, visitas técnicas (física e virtual), vídeos, entre outras. Pretendemos alcançar com essas metodologias a compreensão das características das partículas elementares constituintes da matéria, das forças de interação, da necessidade da construção dos aceleradores de partículas e das tecnologias envolvidas em suas construções que, direta ou indiretamente, contribuem com tecnologias voltadas para a sociedade em diferentes áreas do conhecimento, como: comunicações, médicas, alimentícias, segurança, entre outras. Inicialmente, fizemos uma recorrência histórica sobre a constituição da matéria, começando com os pensamentos de Demócrito e Aristóteles até chegarmos ao início do século XIX de nossa era. Sequencialmente abordamos os modelos atômicos de Dalton, Thomson, Rutherford, Bohr e Sommerfeld. Finalizamos a parte teórica dessa dissertação com um capítulo sobre o Modelo Padrão, o qual é a nossa prioridade de estudos. Nele, descrevemos teorias do Modelo Padrão, tecnologias e impactos que a FMC causa na economia dos países. Para o desenvolvimento desta dissertação, adotamos o referencial teórico defendido por David Ausubel, o qual considera que o conhecimento espontâneo do aluno é o conteúdo mais importante que ele leva para a sala de aula.
470

Implementação inicial da RFC 6897 / Initial implementation of RFC 6897

Silva, Alan Castro 06 December 2016 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T14:58:47Z No. of bitstreams: 1 SILVA_Alan_2016.pdf: 14722594 bytes, checksum: 0c8346924c434318f6c349f7ed8112d9 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T14:58:54Z (GMT) No. of bitstreams: 1 SILVA_Alan_2016.pdf: 14722594 bytes, checksum: 0c8346924c434318f6c349f7ed8112d9 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T14:58:59Z (GMT) No. of bitstreams: 1 SILVA_Alan_2016.pdf: 14722594 bytes, checksum: 0c8346924c434318f6c349f7ed8112d9 (MD5) / Made available in DSpace on 2017-06-01T14:59:06Z (GMT). No. of bitstreams: 1 SILVA_Alan_2016.pdf: 14722594 bytes, checksum: 0c8346924c434318f6c349f7ed8112d9 (MD5) Previous issue date: 2016-12-06 / Não recebi financiamento / The Multipath TCP (MPTCP) protocol allows applications to better explore the network resources available to multi-connected devices such as mobile phones or multi-homed systems. Here, some advantages are envisioned: bandwidth aggregation, the ability to maintain the connection, if one of the network path fails and the use of multiple paths. To extend these capabilities to the application, RFC 6897 defines an API to better control each of MPTCP’s subflows, so that these can be added or removed as needed. This work presents an initial API implementation as defined in RFC 6897. We implemented some functions described in the document, such as protocol on/o, check existent subflows and add new subflows. To test the API and validate our implementation we built an HTTP application that detects elephant flows and uses the API for open new subflows using the original TCP connection. Some tests were performed in a network using a cubic topology and showed that the API utilization decreased the Flow Completion time of TCP connections. / O protocolo Multipath TCP (MPTCP) permite que as aplicações possam explorar melhor os recursos de rede disponíveis para dispositivos multiconectados como os telefones móveis ou sistemas multi-homed. Aqui, algumas vantagens são previstas: agregação de banda, a habilidade de manter a conexão estabelecida se houver falha em um dos caminhos de rede e a utilização de múltiplos caminhos. Para estender essas capacidades para a aplicação, a RFC 6897 define uma API que permite um melhor controle de cada subfluxo MPTCP, de modo que esses possam ser adicionados ou removidos conforme necessário. Este trabalho apresenta uma implementação inicial da API descrita na RFC 6897 para o protocolo MPTCP. Sendo assim, implementamos algumas das funções de manipulação do protocolo MPTCP descritas no documento, quais sejam: ligar e desligar o protocolo, verificar subfluxos existentes e adicionar novos subfluxos. Para testar a API e validar a nossa implementação, nós desenvolvemos uma aplicação HTTP que detecta fluxos elefantes e utiliza a API para abrir novos subfluxos a partir da conexão TCP original. Testes de desempenho foram realizados em uma topologia cúbica e mostraram que a utilização da API pela aplicação diminuiu o Flow Completion Time das conexões TCP.

Page generated in 2.4056 seconds