• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 199
  • 187
  • 118
  • 26
  • 15
  • 8
  • 7
  • 6
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 621
  • 167
  • 161
  • 159
  • 135
  • 116
  • 98
  • 96
  • 94
  • 87
  • 82
  • 70
  • 63
  • 62
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

[en] SUPPORT FOR RECORDING AND USING DESIGN RATIONALE FOR WEB APPLICATION DESIGN / [pt] SUPORTE AO REGISTRO E USO DE DECISÕES DE PROJETOS DE APLICAÇÕES PARA A WEB

DANIELE REIS GONZAGA SANTOS 11 October 2007 (has links)
[pt] Todo projetista realiza, ao projetar algum artefato, uma seqüência de raciocínio e de tomadas de decisão de projeto que resultam neste artefato. A captura do raciocínio utilizado pelo projetista durante a modelagem de uma aplicação raramente é realizada. Tal raciocínio é denominado na literatura como Design Rationale, e a dificuldade de sua captura e uso é atribuída em grande parte à falta de ferramentas adequadas a este fim. Tais ferramentas devem ser integradas ao processo de design, interrompendo minimamente o raciocínio do projetista/desenvolvedor que está construindo a aplicação. Estas ferramentas devem também permitir o reuso de soluções, auxiliando o projetista/desenvolvedor a melhorar a qualidade de design de seus artefatos. O objetivo do trabalho realizado é integrar a captura e uso de design rationale a um ambiente de prototipação de aplicações hipermídia, além de permitir o reuso de designs registrados. Como resultado, é apresentado o ambiente integrado HyperDE+DR, baseado no ambiente HyperDE para prototipação de aplicações hipermídia e na abordagem Kuaba para representação e uso de design rationale. O ambiente integrado HyperDE+DR desenvolvido e implementado gera e registra automaticamente decisões de design tomadas durante a construção dos artefatos pelo projetista/desenvolvedor. Questões e idéias são geradas e respondidas também automaticamente pelo ambiente, de acordo com os métodos de design usados pelo ambiente - OOHDM e SHDM -, o que facilita o processo de captura do design rationale. Adicionalmente, o ambiente possibilita o reuso de design rationales, permitindo a integração ou reutilização de designs para a construção de novas aplicações, podendo torná-las mais completas, consistentes e reduzir o esforço de desenvolvimento. / [en] Every designer follows some line of reasoning, and makes several decisions when designing an artifact, which is the final result of this decision process. This design reasoning and decision structure, commonly called Design Rationale, is rarely captured and recorded. The reasons for this seem to be due to the lack of appropriate tools, which should capture the Design Rationale in an unobtrusive way, allowing the designer to focus on the design itself. Such tools should also allow reusing previous design solutions, helping the designer/developer to improve the quality of the solution. The goal of this dissertation is to provide means to capture, record and use Design rationale within a prototyping environment for hypermedia applications. As result, we present the HyperDE+DR environment, which combines the HyperDE environment with the Kuaba approach for recording Design Rationale. The HyperDE+DR environment automatically generates and records design decisions made by the designer during the development process. Questions and ideas are automatically generated and tentatively answered, to be reviewed later by the designer by following the OOHDM and SHDM design methods that underlie the original HyperDE environment. In addition, HyperDE+DR supports Design Rationale use, by allowing integration of previous design rationales into a design being developed. This allows improving the completeness and consistency of the resulting design, also lowering development costs.
172

Portal de conhecimento sobre critérios, estratégias, técnicas e ferramentas de teste de aplicações web / Knowledge portal about testing web application criteria, procedures, techniques and tools

Costa, Marcella Letícia de Souza 26 February 2008 (has links)
O advento da tecnologia da Internet, juntamente com a World Wide Web, popularizaram e permitiram uma grande expansão e demanda por aplicações web. Por executarem em um ambiete heterogêneo e complexo, as aplicações web apresentam várias características que as diferenciam dos sistemas tradicionais. As particularidades dessas aplicações tornam o fator qualidade essencial para o sucesso dessas aplicações. Alguns requisitos de qualidade, como usabilidade, confiabilidade, interoperabilidade e segurança devem, então, ser validados. Para assegurar a qualidade desejada, são necessárias executar as atividades de Verificação, Validação e Teste (VV&T). Dentre elas, as mais utilizadas são as atividades de teste. Os critérios, estratégias e ferramentas de teste precisam ser identificados e avaliados para se estabelecer uma relação entre os custos e benefícios entre elas, a fim de guiar a escolha de cada uma durante os testes de aplicações web. A realização de estudos experimentais para realizar essa análise beneficia tanto a academia, nas atividades de ensino e pesquisa, como a indústria, nas atividades de seleção e aplicação de critérios, estratégias e ferramentas de teste de aplicações web. Para que os resultados obtidos estejam acessíveis, é proposto o desenvolvimento de um portal de conhecimento que disponibilize de maneira sistemática o conhecimento obtido sobre critérios, estratégias e ferramentas de teste de aplicações web. Esse portal tem como objetivo oferecer às organizações um ambiente compartilhado de conhecimento, a fim de proporcionar a existência de um ciclo de criação, troca, retenção e reuso do conhecimento / The development of internet technology, along with the World Wide Web, made popular and allowed a demand boom and expansion of web applications. Web applications present some characteristics that differentiate them from the traditional systems, since they execute in a heterogeneous and complex environment. The particularities of these applications demand quality as an essential factor for success. Is this way, quality requirements, like usability, reliability, interoperability and security must be validated. To assure the desired quality, it\'s necessary to execute the activities of Verification, Validation and Test (VV&T), where the most used are the testing activities. The testing criteria, strategies and tools need to be identified and evaluated to establish a relation between the costs and benefits, in order to guide the choice of each one during the tests of web applications. The carrying out of experimental studies benefits the academy, in the activities of education and research, and the industry, in the activities of selection and application of criteria, strategies and tools of testing web applications. Moreover, these results need to be accessible to make available information to the interest people. This work presents the development of a knowledge portal, to facilitate knowledge sharing in a systematic way, with information of test criteria, strategies and tools for validating web applications. This portal intends to offer to the organizations and academic institutions a shared environment of web application test knowledge, in order to constitute a knowledge creation, change, retention and reuse cycle
173

Mapeamento semântico entre UNL e componentes de software para execução de requisições imperativas em linguagem natural / Semantic mapping between UNL and software components to the execution of imperative natural requests

Linhalis, Flávia 13 April 2007 (has links)
A linguagem natural corresponde ao meio mais convencional de comunicação entre as pessoas. O desejo que os seres humanos possuem de se comunicar com as máquinas é evidenciado por pesquisas, que têm sido realizadas desde o final da década de 70, com o objetivo de ter requisições expressas em linguagem natural executadas pelas máquinas. Alguns trabalhos na literatura têm sido propostos com esse fim, entretanto a maioria deles considera requisições expressas apenas em Inglês. Uma maneira de flexibilizar a utilização de várias línguas em sistemas que utilizam linguagem natural é por meio de uma interlíngua, pois essa é uma representação intermediária e processável por máquina das informações contidas em diversas línguas naturais. O trabalho descrito nesta tese propõe que requisições imperativas em linguagem natural sejam convertidas para a interlíngua UNL (Universal Networking Language) e executadas por meio da ativação dos componentes de software apropriados. Para atingir esse objetivo, este trabalho propõe a Arquitetura OntoMap (Ontology-based Semantic Mapping), que utiliza ontologias para realizar o mapeamento semântico entre UNL e componentes de software e para realizar a busca pelos componentes mais apropriados para executar as requisições. A Arquitetura OntoMap conta com (i) um serviço para converter requisições em linguagem natural para UNL; (ii) uma ontologia de alto nível, chamada Ontologia InterComp (Interlíngua-Componentes), que juntamente com regras e inferência, fornece informações semânticas a respeito dos componentes que podem ser utilizados para executar a requisição; (iii) uma Ontologia de Componentes, que relaciona dados das interfaces dos componentes com informações semânticas do domínio de aplicação dos mesmos; e (iv) um Módulo de Busca que utiliza as informações semânticas inferidas e a Ontologia de Componentes para encontrar os componentes apropriados para executar as requisições expressas em linguagem natural. Este trabalho propõe ainda um processo para utilizar a Arquitetura OntoMap em diversos domínios de aplicação e com diferentes conjuntos de componentes. Esse processo foi instanciado considerando componentes desenvolvidos para o domínio de gerenciamento de cursos / Natural Language is the common way of communication between people. The desire of human beings to communicate with machines is evidenced by research, that has been conducted since the late 70?s, triyng to express requests in natural language that can be executed by machines. However, most of the works that have pursued this goal consider requests expressed only in English. A way to facilitate the use of several languages in natural language systems is by using an interlingua. An interlingua is an intermediary representation for natural language information that can be processed by machines. The work described in this thesis proposes to convert imperative natural language requests into the UNL (Universal Networking Language) interlingua and to execute those requests using the apropriate software components. In order to achieve this goal, this work proposes the OntoMap (Ontology-based Semantic Mapping) architecture. It uses ontologies to perform a semantic mapping between UNL and software componente and to search for software components to execute the requests. The OntoMap architecture is composed by (i) a service to convert natural language requests into UNL; (ii) an upper ontology, named InterComp (Interlingua-Components), that uses inference to provide semantic information about components that could be used to execute the requests; (iii) a Components Ontology that relates the component?s interfaces to semantic information about the application domain of the components; and (iv) a search module that uses the infered information and the Components Ontology to reach the components to execute the requests. This work also proposes a process to help the use of the OntoMap architecture in several application domains using different component sets. This process is intanciated considering compoments developed for the course management domain
174

Genômica translacional: integrando dados clínicos e biomoleculares / Translational genomics: integrating clinical and biomolecular data

Miyoshi, Newton Shydeo Brandão 06 February 2013 (has links)
A utilização do conhecimento científico para promoção da saúde humana é o principal objetivo da ciência translacional. Para que isto seja possível, faz-se necessário o desenvolvimento de métodos computacionais capazes de lidar com o grande volume e com a heterogeneidade da informação gerada no caminho entre a bancada e a prática clínica. Uma barreira computacional a ser vencida é o gerenciamento e a integração dos dados clínicos, sócio-demográficos e biológicos. Neste esforço, as ontologias desempenham um papel essencial, por serem um poderoso artefato para representação do conhecimento. Ferramentas para gerenciamento e armazenamento de dados clínicos na área da ciência translacional que têm sido desenvolvidas, via de regra falham por não permitir a representação de dados biológicos ou por não oferecer uma integração com as ferramentas de bioinformática. Na área da genômica existem diversos modelos de bancos de dados biológicos (tais como AceDB e Ensembl), os quais servem de base para a construção de ferramentas computacionais para análise genômica de uma forma independente do organismo de estudo. Chado é um modelo de banco de dados biológicos orientado a ontologias, que tem ganhado popularidade devido a sua robustez e flexibilidade, enquanto plataforma genérica para dados biomoleculares. Porém, tanto Chado quanto os outros modelos de banco de dados biológicos não estão preparados para representar a informação clínica de pacientes. Este projeto de mestrado propõe a implementação e validação prática de um framework para integração de dados, com o objetivo de auxiliar a pesquisa translacional integrando dados biomoleculares provenientes das diferentes tecnologias omics com dados clínicos e sócio-demográficos de pacientes. A instanciação deste framework resultou em uma ferramenta denominada IPTrans (Integrative Platform for Translational Research), que tem o Chado como modelo de dados genômicos e uma ontologia como referência. Chado foi estendido para permitir a representação da informação clínica por meio de um novo Módulo Clínico, que utiliza a estrutura de dados entidade-atributo-valor. Foi desenvolvido um pipeline para migração de dados de fontes heterogêneas de informação para o banco de dados integrado. O framework foi validado com dados clínicos provenientes de um Hospital Escola e de um banco de dados biomoleculares para pesquisa de pacientes com câncer de cabeça e pescoço, assim como informações de experimentos de microarray realizados para estes pacientes. Os principais requisitos almejados para o framework foram flexibilidade, robustez e generalidade. A validação realizada mostrou que o sistema proposto satisfaz as premissas, levando à integração necessária para a realização de análises e comparações dos dados. / The use of scientific knowledge to promote human health is the main goal of translational science. To make this possible, it is necessary to develop computational methods capable of dealing with the large volume and heterogeneity of information generated on the road between bench and clinical practice. A computational barrier to be overcome is the management and integration of clinical, biological and socio-demographics data. In this effort, ontologies play a crucial role, being a powerful artifact for knowledge representation. Tools for managing and storing clinical data in the area of translational science that have been developed, usually fail due to the lack on representing biological data or not offering integration with bioinformatics tools. In the field of genomics there are many different biological databases (such as AceDB and Ensembl), which are the basis for the construction of computational tools for genomic analysis in an organism independent way. Chado is a ontology-oriented biological database model which has gained popularity due to its robustness and flexibility, as a generic platform for biomolecular data. However, both Chado as other models of biological databases are not prepared to represent the clinical information of patients. This project consists in the proposal, implementation and validation of a practical framework for data integration, aiming to help translational research integrating data coming from different omics technologies with clinical and socio-demographic characteristics of patients. The instantiation of the designed framework resulted in a computational tool called IPTrans (Integrative Platform for Translational Research), which has Chado as template for genomic data and uses an ontology reference. Chado was extended to allow the representation of clinical information through a new Clinical Module, which uses the data structure entity-attribute-value. We developed a pipeline for migrating data from heterogeneous sources of information for the integrated database. The framework was validated with clinical data from a School Hospital and a database for biomolecular research of patients with head and neck cancer. The main requirements were targeted for the framework flexibility, robustness and generality. The validation showed that the proposed system satisfies the assumptions leading to integration required for the analysis and comparisons of data.
175

Suporte ao desenvolvimento e à integração de ontologias no domínio biomédico / Supporting development and integration of ontologies in the biomedical domain

Waldemarin, Ricardo Cacheta 21 September 2015 (has links)
O surgimento e o uso crescente de novas tecnologias têm levado à produção e armazenamento de grandes volumes de dados biomédicos. Tais dados são provenientes de diferentes técnicas, armazenados em formatos de representação diversos e utilizados por diferentes ferramentas. Esta heterogeneidade representa um empecilho ao maior uso desses dados em abordagens integrativas de pesquisa como, por exemplo, a biologia sistêmica. Neste cenário, artefatos de modelagem conceitual, tais como ontologias, têm sido utilizados para organizar e integrar dados heterogêneos de uma forma coerente. A OBO Foundry representa, atualmente, o maior esforço no desenvolvimento de ontologias biomédicas de forma colaborativa. Dentre as ontologias desenvolvidas pela OBO Foundry, destaca-se Ontologia de Relacionamentos (RO-OBO). A RO-OBO provê definições formais para um conjunto de relacionamentos de propósito geral utilizados nas ontologias biomédicas e busca promover a criação de ontologias mais corretas e integráveis. Um perfil UML foi proposto para representar formalmente o conjunto de conceitos e relacionamentos existentes na RO-OBO. Este perfil permite desenvolver modelos UML utilizando os conceitos presentes nesta ontologia, bem como torna possível o desenvolvimento de suporte à validação sintática dos modelos criados em relação a um conjunto de restrições formalmente definidas. Adicionalmente, percebe-se na literatura que o suporte à integração de modelos UML e ontologias OBO, em particular as ontologias representadas na linguagem OBO File Format, é limitado. Neste sentido, este trabalho teve como objetivo geral investigar o suporte ao desenvolvimento de ontologias biomédicas na linguagem UML. De forma específica, investigou-se o desenvolvimento de um editor gráfico, chamado OBO-RO Editor, para o suporte à construção de ontologias utilizando o perfil UML proposto, bem como a integração de ontologias desenvolvidas utilizando UML e ontologias desenvolvidas na linguagem OBO File Format. De forma a atingir nossos objetivos, uma arquitetura de referência foi definida e um processo de desenvolvimento orientado a modelos foi utilizado. A arquitetura definida é composta por uma série de artefatos inter-relacionados os quais são transformados (semi) automaticamente em código de aplicação, possibilitando a obtenção de ciclos de desenvolvimento mais rápidos e confiáveis. O OBO-RO Editor disponibiliza um conjunto de elementos gráficos de modelagem definidos a partir do perfil UML proposto, bem como provê mecanismos para a validação sintática (semi) automática de uma ontologia desenvolvida segundo as restrições definidas neste perfil. Adicionalmente, o OBO-RO Editor também provê suporte à integração de modelos UML a outras ontologias da OBO Foundry, permitindo o reuso e o desenvolvimento menos propenso a erros de ontologias no domínio biomédico. / The development and increasing use of new technologies has resulted in the production and storage of a huge amount of biomedical data. These data are produced using different techniques, stored in different formats and consumed by different (software) tools. This heterogeneity hinders effective data usage in integrative research approaches, including systems biology. In this scenario, conceptual modeling artifacts, such as ontologies, have been used to organize and integrate heterogeneous data in a coherent manner. Nowadays, the OBO Foundry represents the most important effort for the collaborative development of ontologies in the biomedical domain. The OBO Relation Ontology (OBO-RO) can be considered one of the most relevant ontologies in the domain. This ontology provides formal definitions for a number of general purpose relationships used in biomedical ontologies, thus facilitating the integration of existing ontologies and the development of new ontologies in the domain. An UML profile has been proposed to formally define the different types of concepts and relationships provided by the OBO-RO. This profile enables the creation of UML models using such concepts and allows the development of support for the automatic validation of these models based on formal constraints. Additionally, the support for the integration between UML models and OBO ontologies, particularly ontologies represented using the OBO File Format, is limited. In this sense, this project aimed at investigating the support for the development of biomedical ontologies using UML. In particular, we investigated the development of a graphical editor, named OBO-RO Editor, to support ontology development using the proposed UML profile. Additionally, we also investigated the integration of ontologies developed using UML and ontologies developed using the OBO File Format. In order to achieve our goals, we have defined a reference architecture and a model-driven development process. The reference architecture consists of a number of related artifacts that are transformed to application code (semi) automatically. Such characteristic allowed us to obtain faster and more reliable development cycles. The OBO-RO Editor provides a number of graphical elements defined in the proposed UML profile for the modeling of biomedical ontologies and support the (semi) automatic syntactic validation of such ontologies against the contraints defined in the profile. Additionally, OBO-RO Editor also provides support for the integration of developed UML models and other OBO ontologies, allowing the reuse and the accurate development of biomedical ontologies.
176

Interoperabilidade de documentos digitais usando ontologias / Digital Documents Interoperability using Ontologies

Suca, Erika Guetti 17 October 2012 (has links)
As organizações precisam trocar informações de forma simples e eficiente, com custos tão baixos quanto possível. Essas informações às vezes são apresentadas na forma de documentos com formato e conteúdos pré-definidos. Esses documentos podem ser equivalentes ou quase equivalentes, porém bastantes distintos em diferentes organizações. Numa mesma organização, os documentos podem ser diferentes em contextos históricos. O propósito deste trabalho é facilitar a distribuição dos documentos, superando o problema dos formatos com os quais foram criados. O objetivo é possibilitar a interoperabilidade de documentos e atingir a portabilidade simples e confiável de documentos através da reutilização de formatos e conteúdos, em diferentes combinações plausíveis. Propomos, usar ontologias como solução ao problema da falta de interoperabilidade nas implementações de formatos de documentos. Como prova de conceito consideramos a portabilidade entre os formatos padrão ODF(Open Document Format) e (Office Open XML). / Organizations need to exchange information simple and efficient, with costs as low as possible. Such information is sometimes presented as documents and with pre-defined content. These documents may be equivalent or nearly equivalent, but quite distinct in different organizations. In the same organization, documents can be different historical contexts. The purpose of this work is to enable interoperability of documents and achieve portability of digital documents through the reuse of content and format in different plausible combinations. We propose the characterization of digital documents using ontologies as a solution to the problem of lack of interoperability in the implementations of document formats. As proof of concept we consider the portability between ODF(Open Document Format) and OOXML (Office Open XML) document formats.
177

Ontoloby-based semantic query processing in database systems

Necib, Chokri Ben 11 January 2008 (has links)
Die Bedeutung der in den relationalen Datenbankmanagementsystemen dargestellten Realwelt-Objekten wird weder explizit noch vollständig beschrieben. Demzufolge treffen häufig diese Systeme mit den Anfrageantworten nicht die Benutzerabsichten. Die vorliegende Dissertation präsentiert einen ontologie-basierten Ansatz für die semantische Anfrageverarbeitung. In diesem Ansatz sollen semantische Informationen aus einer gegebenen Ontologie abgeleitet und für die Umformulierung der Benutzeranfrage verwendet werden. Dies führt zu einer neuen Anfrage, die für den Benutzer sinnvollere Ergebnisse aus der Datenbank zurückliefern kann. Wir definieren und spezifizieren Einschränkungen und Abbildungen zwischen der Ontologie- und den Datenbank-Konzepten, um eine Ontologie mit einer Datenbank zu verknüpfen. Des Weiteren entwickeln wir eine Reihe von Algorithmen, die uns helfen, diese Abbildungen auf eine halbautomatische Weise zu finden. Au"serdem entwickeln wir eine Reihe von semantischen Regeln, die für die Umformulierung einer Anfrage benutzt werden. Die Haupteigenschaft einer Regel ist es, Begriffe einer Anfrage durch andere Begriffe zu ersetzen oder anzureichern, die von denselben ontologischen Konzepten dargestellt werden. Weiterhin benutzen wir die Theorie der Termersetzungssysteme, um den Transformationsprozess zu formalisieren und die wesentlichen Eigenschaften für das Anwenden der Regeln zu studieren. Aufbauend auf diesem Ansatz wurde ein Prototyp implementiert und wurde die Fähigkeit unseres Ansatzes durch einer real existierenden Anwendung ausgewertet. / Currently, database management systems solely rely on exact syntax of queries to retrieve data. As consequence query answers often do not meet the user''s intention. In this thesis we propose an ontology-based semantic query processing approach for database systems. We use ontologies to transform a user query into another query that may provide a more meaningful answer to the user. For this purpose, we define and specify different mappings that relate concepts of an ontology with those of an underlying database and develop a set of algorithms that allow us to find these mappings in a semi-automatic way. Moreover, we propose a set of semantic rules for transforming queries using terms derived from the ontology. We classify the rules and demonstrate their usefulness using practical examples. Furthermore, we make use of the theory of term rewriting systems to formalize the transformation process and to study the basic properties for applying these rules. Finally, we implement a prototype system using current technologies and evaluate its capability by using a real world application.
178

Utilização de ontologias para busca em um sistema colaborativo de imagens arquitetônicas / On the use of ontologies for search in a collaborative system for architectural images

Yucra, Marisol Solis 27 October 2016 (has links)
A recuperação de informação é ainda um assunto essencial a melhorar nos diferentes tipos de sistemas web. Um tipo de sistema web que é muito utilizado na atualidade, é o sistema colaborativo. Estes sistemas permitem que os usuários estejam mais envolvidos, seja contribuindo com a inserção de textos, imagens ou dados, assim como utilizando etiquetas (tags) para identificar aos elementos existentes no sistema e que serão compartilhados com outros usuários. Nesta dissertação utilizamos um sistema colaborativo de compartilhamento de imagens arquitetônicas, onde os usuários podem inserir títulos e tags livremente para descrever uma imagem. Contudo as tags podem ter um significado ambíguo, resultando em imagens recuperadas que não são relevantes, quando são utilizadas técnicas tradicionais, como por exemplo busca booleana ou por palavra-chave. Além disso, os usuários podem utilizar consultas mais complexas utilizando uma linguagem livre, e utilizando as técnicas mencionadas podem recuperar informação não relevante. Assim, esta pesquisa aborda, a construção de uma ontologia no domínio arquitetônico denominada OntoArq, baseada no vocabulário controlado da USP e no tesauro experimental de arquitetura brasileira, a qual possibilitou fortalecer a relação entre as tags e os conceitos estruturados da ontologia, por meio de uso de hierarquias de classes e relações semânticas existentes entre as classes. A ontologia também ajudou a melhorar a recuperação de documentos para consultas complexas que utilizam uma linguagem livre, por meio da adição de termos arquitetônicos relacionados à consulta original dada pelo usuário. E quando a consulta expandida é utilizada em conjunto com o modelo de espaço vetorial existente no sistema de recuperação, auxilia na recuperação de imagens mais relevantes. A avaliação de nossa abordagem foi realizada através de experimentos que utilizaram os dados do sistema Arquigrafia, dois conjuntos de consultas e medidas de avaliação como precisão, cobertura e medida-F. Os conjuntos eram compostos por 11 consultas dada por especialistas da área de arquitetura e 9 consultas aleatórias extraídas do log de busca do Google Analytics do sistema Arquigrafia, tendo um total de 20 consultas. Para nossos experimentos utilizamos as 20 consultas que pertenciam aos dois conjuntos de consultas mencionados, dentre os quais obtivemos resultados positivos para 16 consultas, considerando um valor de precisão, cobertura e medida-F maior do que 50%, com nossa abordagem. Em comparação a outra abordagem, que usa a técnica de busca boolena, obteve-se 1 consulta com resultado positivo, também considerando precisão, cobertura e medida-F maior do que 50%. Assim, podemos concluir que nossa abordagem obteve melhores resultados. Além disso, pelos resultados obtidos, consideramos que nossa abordagem, ao utilizar uma ontologia, pode ser um inicio de como empregar as ontologias como ferramenta de apoio para dar um maior significado semântico às tags que existem num sistema colaborativo e como as ontologias permitem a adição de termos na consulta, sendo estes termos relacionados a uma área do conhecimento, que para nosso caso, a área da arquitetura. Desta maneira podemos recuperar os documentos associados às imagens, os quais serão mais relevantes para consulta feita pelo usuário. / Information retrieval is an essential issue in different web system that needs to be improved. In recent years, collaborative systems have gained popularity. In this thesis, we use a collaborative system of architectural image sharing, that users can add titles and tags freely to describe an image. However, the tags may have an ambiguous meaning, resulting in recovering images that are not relevant when traditional technics are used, such as Boolean and keyword search. In addition, users usually use natural language in their queries and with the mentioned techniques it is less posible to retrieve relevant information. Our research approach is to construct an ontology for architectural domain, based on the controlled vocabulary of USP and the experimental thesaurus architecture information. The ontology allowed to enhance the relationship between tags and structured concepts of ontology, improving the information retrieval through the expanded terms. And when the expanded query is used in conjunction with the vector space model in the recovery system, it helps retrieve more relevant images. The evaluation of our approach was carried out through experiments that used data of Arquigrafia system, two sets of queries were created and metrics like precision, coverage and measure-F were used. The sets consisted of 11 queries given by architecture experts and 9 random queries extracted from Google Analytics logs of the Arquigrafia system, taking a total of 20 queries. In our experiments we used the 20 queries from the two sets, among which we obtained positive results for 16 queries, considering precision, coverage and F-measure values greater than 50%, applying our approach. In comparison to another approach, which uses the Boolean search technique, we obtained 1 query with positive result, also considering the same metrics with values greater than 50%. Thus, we can conclude that our approach has achieved better results. In addition, from the results obtained, we consider that our approach using an ontology can be a beginning of how to use ontologies as a support tool to give a greater semantic meaning to tags that exist in a collaborative system, and how Ontologies allow the addition of semantic terms in queries, like terms related to a knowledge area, in our case the area of architecture. In this way we can retrieve documents associated with images, which will be more relevant to the user\'s query.
179

Uso de ontologias e mapas conceituais na descoberta e análise de objetos de aprendizagem: um estudo de caso em eletrostática / Ontologies and conceptual maps in learning objects discovery and analysis: a case study in electrostatic

Machion, Andréia Cristina Grisolio 07 May 2007 (has links)
A falta de materiais instrucionais digitais disponíveis em larga escala e com baixo custo levou à criação da tecnologia de Objetos de Aprendizagem (OAs) [Wiley 2000]. Nessa tecnologia, materiais para ensino e aprendizagem são construídos na forma de pequenos componentes (objetos) para que possam ser combinados de várias maneiras diferentes, ou seja, possam ser reutilizados na composição de seqüências didáticas que cubram um determinado domínio de aprendizagem, por exemplo, Geometria Euclidiana ou Eletrostática. Nessa visão, cabe ao professor (ou ao próprio aluno) decidir qual é a seqüência de OAs mais adequada para um determinado contexto instrucional (ou de acordo com as preferências do aluno). OAs podem estar disponíveis em grandes repositórios na Internet, de maneira que qualquer usuário - professor ou estudante - possa buscá-los e recuperá-los de acordo com suas necessidades. Para tornar a busca e recuperação mais ecientes, cada objeto precisa ser descrito num formato padrão o que permite a sua utilização em diversas plataformas. Atualmente, cada uma das tarefas associadas à descoberta e utilização de OAs é realizada de forma não automatizada, ou seja, um professor ao elaborar um curso, deve fazer uma busca nos repositórios de OAs disponíveis, ou na própria Web, e selecionar os objetos de interesse. Nessa etapa, é preciso que o professor analise cada OA recuperado a m de decidir: (a) se ele satisfaz ou não os objetivos didáticos em questão; (b) em que ponto do curso o OA pode ser inserido, dadas as suposições sobre o conhecimento prévio feitas no projeto de construção do OA; (c) qual é o nível de diculdade, o contexto instrucional e o tipo de recurso de aprendizagem do OA desejados (por exemplo, exercício, simulação, notas de aula, testes etc.). Além disso, quando o professor faz a busca por OAs, ele utiliza somente palavras-chave, sem nenhuma referência sobre a estrutura do domínio de conhecimento. Essa é a principal limitação dessa tecnologia: não existem padrões para a representação do conteúdo de um OA, que possibilite automatizar a recuperação e análise de OAs em termos do seu conteúdo relacionado ao domínio no qual ele se insere. Esse trabalho propõe uma ferramenta, chamada SEQUOA (Seqüenciamento de OAs), que dê suporte ao professor para a tarefa de seleção e composição de OAs, com base na tecnologia da Web Semântica. Com esse objetivo, foi feito um estudo de caso para o domínio da Eletrostática. Foram construídas ontologias para: formalizar as descrições de OAs, baseando-se em padrões largamente adotados, e descrever o domínio de aprendizagem de uma maneira didática (segundo educadores experientes no domínio em questão). O uso dessas ontologias permite que a ferramenta SEQUOA seja capaz de realizar inferências sobre as diferentes características dos OAs e gerar um conjunto de seqüências alternativas de OAs, para um determinado domínio de aprendizagem, promovendo assim o reuso de OAs. / The lack of large amounts of digital instructional material available at a low cost lead to the creation of Learning Objects (LOs) [Wiley 2000]. With this technology, instructional material is built in the form of small components (objects) that can be combined in dierent arrangements allowing for their re-utilization in the composition of didactic sequences that cover a domain, for example, Euclidian Geometry or Electrostatic. Hence it is the teacher (or even the student) who decides which is the more appropriate LO sequence for a determined instructional context (or in accordance with the students\' preference). LOs maybe available in Internet repositories, so that any user a teacher or a student can search and retrieve them as needed. To make this search and retrieval more eective, every object must be described in a standard format what is also useful to allow its use in any platform. Currently, the tasks associated with LOs discovery and utilization are accomplished manually. The teacher who needs to elaborate an instructional module must do a search in the available repositories and select useful and relevant objects inspecting one by one, eventually spending large amounts of time searching for keywords. In this stage its necessary that the teacher analyzes each retrieved LO in order to decide: a) if it satises or not the course didactic objectives; b) in each part of the course the LO may be inserted, considering its assumptions about the previous knowledge made in its design; c) which are the diculty level, instructional context and type of earning resource (example, exercise, simulation, notes, tests, etc). Moreover, when a teacher searches for LOs, she only has keywords, there are no references to the knowledge domain structure. This is this technology main shortcoming: there are no standards to represent a LO content which makes it possible to automate LOs retrieval and analysis considering its content related to the knowledge domain it pertains to. Automating this search has been the aim of many research projects, with the goal of time saving and optimality, in terms of selecting the LOs that will best satisfy the teacher\'s needs. Based on Articial Intelligence techniques, this work proposes a new way of structuring a learning domain and a framework that allows a teacher to select LOs automatically in accordance with her preferences or needs. This work also proposes a set of ontologies to formalize LOs descriptions, based on domain knowledge structure and on standard descriptions that are widely adopted, allowing the utilization of theorem provers based on description logics to make inferences
180

Representação semântica de perfil dinâmico de usuários em comunidades de prática / Semantic representation of dynamic user profiles in communities of practice

Pereira, Matheus January 2017 (has links)
Em comunidades de prática, a aprendizagem ocorre por meio da interação e colaboração constante de seus participantes, o caráter social destes ambientes é fundamental para a construção do conhecimento. Por este motivo, esta dissertação busca compreender a forma como os usuários interagem em comunidades de prática e propõe a estruturação destas informações em torno de um perfil dinâmico de usuário. A aplicação de perfis de usuário neste contexto permite entender o indivíduo, seus interesses e necessidades. A partir da representação dos participantes de comunidades de prática é possível desenvolver sistemas de aprendizagem inteligente, sistemas de recomendação, elementos de gamificação e sistemas de acesso e recuperação de informação personalizados. Estes mecanismos procuram estimular o engajamento dos participantes e promover a aprendizagem colaborativa. A representação das informações neste trabalho será apoiada pelo uso de tecnologias da web semântica e de ontologias para a formalização das relações em comunidades de prática. O desenvolvimento de softwares educacionais baseados na web semântica amplia a capacidade de implementação de novos mecanismos de aprendizagem, contribuindo para a análise das interações e a inferências sobre as informações dos usuários. O uso de ontologias permite a formalização das informações e torna possível a elaboração de uma rede de conhecimento que pode ser processada e consumida por agentes de software, contribuindo para a interoperabilidade do sistema. / In communities of practice, learning is built through constant interaction and collaboration of their participants, the social aspect of these environments is crucial for the knowledge construction. For this reason, this work intends to understand how users interact in communities of practice and proposes a dynamic user profile to structure this information. An user profile applied in this context allows us to understand the person, his interests and needs. The representation of participants in communities of practice allow us to develop intelligent learning systems, recommender systems, gamification elements and systems for personalized access and personalized information retrieval. Those mechanisms intend to stimulate participant engagement to promote collaborative learning. In this work, semantic web technologies and ontologies are used to represent this informations. The development of educational software based on the semantic web expands the capacity to implement new learning mechanisms, contributing to the analysis of the interactions and the inferences about user informations. The use of ontologies allows the formalization of information and enables the elaboration of a knowledge network that can be processed and consumed by software agents, contributing to the system interoperability.

Page generated in 0.0461 seconds