491 |
Desenvolvimento de aplicações multimídia baseado em arquitetura orientada a serviços e nos padrões MPEG-7 e MPEG-21. / Developing multimedia applications using service oriented architectures and the MPEG-7 and MPEG-21 standards.Matushima, Reinaldo 31 August 2007 (has links)
Aplicações multimídia caracterizam-se por necessitar de grandes recursos computacionais e de rede. Frente a estes requisitos, os modelos de desenvolvimento sempre consideraram arquiteturas altamente especializadas e integradas, resultando em estruturas monolíticas que restringem o reuso, bem como exigem grande esforço para realização de alterações. Este tipo de direcionamento limita e dificulta o desenvolvimento de aplicações multimídia complexas e de larga escala. Existe uma demanda por diretrizes de desenvolvimento que consigam atender escopos cada vez mais amplos, suportando aplicações escaláveis, flexíveis, interoperáveis e de fácil programação. Neste contexto, este trabalho propõe o uso conjunto de Arquiteturas Orientadas a Serviço e os padrões MPEG-7 e MPEG-21. Apresenta-se como estas tecnologias podem facilitar o desenvolvimento de novas aplicações multimídia, diminuindo o custo e o esforço de desenvolvimento, e dando suporte às crescentes e diversificadas demandas por novos tipos de aplicações multimídia. O que deu base para o trabalho foi a busca por uma solução que atendesse a alguns requisitos adicionais verificados ao longo do projeto de uma Plataforma de Gerência de Vídeo. Entre outras coisas, é apresentado como as tecnologias que dão suporte ao desenvolvimento de arquiteturas orientadas a serviço se posicionam frente ao desenvolvimento de aplicações multimídia e, como elas, conjuntamente com os padrões MPEG-7 e MPEG-21 estão sendo utilizadas para melhorar a plataforma citada. É apresentado também um processo para modelagem de aplicações segundo os princípios de orientação a serviço, generalizando a solução apresentada para o desenvolvimento de aplicações multimídia quaisquer. Como resultado, pode-se verificar que, apesar de ainda existirem algumas questões a serem tratadas, as tecnologias apresentadas representam conjuntamente uma ferramenta ampla para o desenvolvimento de aplicações multimídia. / Multimedia applications are characterized for demanding huge network and computing resources. Because these demands, the current development models always were based on highly specialized and integrated architectures. Thus, they present monolithic structures which limits reuse, as well requiring a lot of efforts to perform changes. This approach limits the development of complex and large scale multimedia applications. There are demand for development models for enabling larger scopes application, supporting scalable, flexible and ease programming applications. In this context this work proposes the conjugated use of Service Oriented Architectures and the MPEG-7 and MPEG-21 standards. It presents how these technologies can allow multimedia applications ease development, minimizing coasts and efforts. Besides, it is also showed how they answer for the raising and multiple demands for new multimedia applications types. This work motivation was to create a solution to support some additional requirements verified during the design of a Video Management Platform. Among the diversified issues treated in this work, it is presented how technologies supporting Service Oriented Architectures are positioned regarding multimedia applications development, and how they together MPEG-7 and MPEG-21 standards are being used to improve the Platform. It is also presented an analysis process for applying the principles of Service Orientation in the multimedia applications development. The aim is generalizing the presented solution to be applied in any multimedia application development. As result from the whole work, it can be verified that, although there are some issues to be covered, the technologies presented represent a complete tool for multimedia applications development.
|
492 |
Réseaux Bayésiens pour fusion de données statiques et temporelles / Bayesian networks for static and temporal data fusionRahier, Thibaud 11 December 2018 (has links)
La prédiction et l'inférence sur des données temporelles sont très souvent effectuées en utilisant uniquement les séries temporelles. Nous sommes convaincus que ces tâches pourraient tirer parti de l'utilisation des métadonnées contextuelles associées aux séries temporelles, telles que l'emplacement, le type, etc. Réciproquement, les tâches de prédiction et d'inférence sur les métadonnées pourraient bénéficier des informations contenues dans les séries temporelles. Cependant, il n'existe pas de méthode standard pour modéliser conjointement les données de séries temporelles et les métadonnées descriptives. De plus, les métadonnées contiennent fréquemment des informations hautement corrélées ou redondantes et peuvent contenir des erreurs et des valeurs manquantes.Nous examinons d’abord le problème de l’apprentissage de la structure graphique probabiliste inhérente aux métadonnées en tant que réseau Bayésien. Ceci présente deux avantages principaux: (i) une fois structurées en tant que modèle graphique, les métadonnées sont plus faciles à utiliser pour améliorer les tâches sur les données temporelles et (ii) le modèle appris permet des tâches d'inférence sur les métadonnées uniquement, telles que l'imputation de données manquantes. Cependant, l'apprentissage de la structure de réseau Bayésien est un défi mathématique conséquent, impliquant un problème d'optimisation NP-difficile. Pour faire face à ce problème, nous présentons un algorithme d'apprentissage de structure sur mesure, inspiré de nouveaux résultats théoriques, qui exploite les dépendances (quasi)-déterministes généralement présentes dans les métadonnées descriptives. Cet algorithme est testé sur de nombreux jeux de données de référence et sur certains jeux de métadonnées industriels contenant des relations déterministes. Dans les deux cas, il s'est avéré nettement plus rapide que l'état de la l'art, et a même trouvé des structures plus performantes sur des données industrielles. De plus, les réseaux Bayésiens appris sont toujours plus parcimonieux et donc plus lisibles.Nous nous intéressons ensuite à la conception d'un modèle qui inclut à la fois des (méta)données statiques et des données temporelles. En nous inspirant des modèles graphiques probabilistes pour les données temporelles (réseaux Bayésiens dynamiques) et de notre approche pour la modélisation des métadonnées, nous présentons une méthodologie générale pour modéliser conjointement les métadonnées et les données temporelles sous forme de réseaux Bayésiens hybrides statiques-dynamiques. Nous proposons deux algorithmes principaux associés à cette représentation: (i) un algorithme d'apprentissage qui, bien qu'optimisé pour les données industrielles, reste généralisable à toute tâche de fusion de données statiques et dynamiques, et (ii) un algorithme d'inférence permettant les d'effectuer à la fois des requêtes sur des données temporelles ou statiques uniquement, et des requêtes utilisant ces deux types de données.%Nous fournissons ensuite des résultats sur diverses applications inter-domaines telles que les prévisions, le réapprovisionnement en métadonnées à partir de séries chronologiques et l’analyse de dépendance d’alarmes en utilisant les données de certains cas d’utilisation difficiles de Schneider Electric.Enfin, nous approfondissons certaines des notions introduites au cours de la thèse, et notamment la façon de mesurer la performance en généralisation d’un réseau Bayésien par un score inspiré de la procédure de validation croisée provenant de l’apprentissage automatique supervisé. Nous proposons également des extensions diverses aux algorithmes et aux résultats théoriques présentés dans les chapitres précédents, et formulons quelques perspectives de recherche. / Prediction and inference on temporal data is very frequently performed using timeseries data alone. We believe that these tasks could benefit from leveraging the contextual metadata associated to timeseries - such as location, type, etc. Conversely, tasks involving prediction and inference on metadata could benefit from information held within timeseries. However, there exists no standard way of jointly modeling both timeseries data and descriptive metadata. Moreover, metadata frequently contains highly correlated or redundant information, and may contain errors and missing values.We first consider the problem of learning the inherent probabilistic graphical structure of metadata as a Bayesian Network. This has two main benefits: (i) once structured as a graphical model, metadata is easier to use in order to improve tasks on temporal data and (ii) the learned model enables inference tasks on metadata alone, such as missing data imputation. However, Bayesian network structure learning is a tremendous mathematical challenge, that involves a NP-Hard optimization problem. We present a tailor-made structure learning algorithm, inspired from novel theoretical results, that exploits (quasi)-determinist dependencies that are typically present in descriptive metadata. This algorithm is tested on numerous benchmark datasets and some industrial metadatasets containing deterministic relationships. In both cases it proved to be significantly faster than state of the art, and even found more performant structures on industrial data. Moreover, learned Bayesian networks are consistently sparser and therefore more readable.We then focus on designing a model that includes both static (meta)data and dynamic data. Taking inspiration from state of the art probabilistic graphical models for temporal data (Dynamic Bayesian Networks) and from our previously described approach for metadata modeling, we present a general methodology to jointly model metadata and temporal data as a hybrid static-dynamic Bayesian network. We propose two main algorithms associated to this representation: (i) a learning algorithm, which while being optimized for industrial data, is still generalizable to any task of static and dynamic data fusion, and (ii) an inference algorithm, enabling both usual tasks on temporal or static data alone, and tasks using the two types of data.%We then provide results on diverse cross-field applications such as forecasting, metadata replenishment from timeseries and alarms dependency analysis using data from some of Schneider Electric’s challenging use-cases.Finally, we discuss some of the notions introduced during the thesis, including ways to measure the generalization performance of a Bayesian network by a score inspired from the cross-validation procedure from supervised machine learning. We also propose various extensions to the algorithms and theoretical results presented in the previous chapters, and formulate some research perspectives.
|
493 |
Uma proposta de publicação de dados do orçamento público na Web / A proposal for public budget data publishing in the WebSantana, Marcelo Tavares de 04 December 2013 (has links)
Este trabalho apresenta uma proposta de publicação de dados de execução do orçamento público em acordo com a legislação brasileira. A partir das leis e da revisão da literatura foram levantados requisitos que devem ser considerados numa publicação de dados que seja processável por máquina. São apresentadas dimensões de dados como qualidade de dados, metadados e taxonomia, além das abordagens Dados Governamentais Abertos e Linked Data. A proposta de publicação resultante além de alinhada com os requisitos estudados prevê processamento por máquina em três níveis: tratamento de dados, validação de dados e colecionamento de conjuntos de dados. Com as tecnologias selecionadas, como XBRL e XSLT, alcançou-se um modelo que atendeu cartorze requisitos levantados, abrindo caminho para estudos como a de uma rede de conjuntos de dados baseada nesta proposta. / This paper presents a proposal for publishing public budget data in accordance with Brazilian law. From the laws have raised requirements that must be considered in the publication data format that is machine-processable. From the literature review were also raised requirements that are part of the proposed publication of this work, such as controlled vocabularies, metadata and taxonomy. Two approaches of open data were also considered in the preparation of the publication format: Open Government Data and Linked Data. The proposed publication resulting from this work, that use technologies like XBRL and XSLT, is aligned with the raised requirements provides three levels of machine-processing: data processing, data validation and collecting datasets.
|
494 |
Uma proposta de publicação de dados do orçamento público na Web / A proposal for public budget data publishing in the WebMarcelo Tavares de Santana 04 December 2013 (has links)
Este trabalho apresenta uma proposta de publicação de dados de execução do orçamento público em acordo com a legislação brasileira. A partir das leis e da revisão da literatura foram levantados requisitos que devem ser considerados numa publicação de dados que seja processável por máquina. São apresentadas dimensões de dados como qualidade de dados, metadados e taxonomia, além das abordagens Dados Governamentais Abertos e Linked Data. A proposta de publicação resultante além de alinhada com os requisitos estudados prevê processamento por máquina em três níveis: tratamento de dados, validação de dados e colecionamento de conjuntos de dados. Com as tecnologias selecionadas, como XBRL e XSLT, alcançou-se um modelo que atendeu cartorze requisitos levantados, abrindo caminho para estudos como a de uma rede de conjuntos de dados baseada nesta proposta. / This paper presents a proposal for publishing public budget data in accordance with Brazilian law. From the laws have raised requirements that must be considered in the publication data format that is machine-processable. From the literature review were also raised requirements that are part of the proposed publication of this work, such as controlled vocabularies, metadata and taxonomy. Two approaches of open data were also considered in the preparation of the publication format: Open Government Data and Linked Data. The proposed publication resulting from this work, that use technologies like XBRL and XSLT, is aligned with the raised requirements provides three levels of machine-processing: data processing, data validation and collecting datasets.
|
495 |
Desenvolvimento de aplicações multimídia baseado em arquitetura orientada a serviços e nos padrões MPEG-7 e MPEG-21. / Developing multimedia applications using service oriented architectures and the MPEG-7 and MPEG-21 standards.Reinaldo Matushima 31 August 2007 (has links)
Aplicações multimídia caracterizam-se por necessitar de grandes recursos computacionais e de rede. Frente a estes requisitos, os modelos de desenvolvimento sempre consideraram arquiteturas altamente especializadas e integradas, resultando em estruturas monolíticas que restringem o reuso, bem como exigem grande esforço para realização de alterações. Este tipo de direcionamento limita e dificulta o desenvolvimento de aplicações multimídia complexas e de larga escala. Existe uma demanda por diretrizes de desenvolvimento que consigam atender escopos cada vez mais amplos, suportando aplicações escaláveis, flexíveis, interoperáveis e de fácil programação. Neste contexto, este trabalho propõe o uso conjunto de Arquiteturas Orientadas a Serviço e os padrões MPEG-7 e MPEG-21. Apresenta-se como estas tecnologias podem facilitar o desenvolvimento de novas aplicações multimídia, diminuindo o custo e o esforço de desenvolvimento, e dando suporte às crescentes e diversificadas demandas por novos tipos de aplicações multimídia. O que deu base para o trabalho foi a busca por uma solução que atendesse a alguns requisitos adicionais verificados ao longo do projeto de uma Plataforma de Gerência de Vídeo. Entre outras coisas, é apresentado como as tecnologias que dão suporte ao desenvolvimento de arquiteturas orientadas a serviço se posicionam frente ao desenvolvimento de aplicações multimídia e, como elas, conjuntamente com os padrões MPEG-7 e MPEG-21 estão sendo utilizadas para melhorar a plataforma citada. É apresentado também um processo para modelagem de aplicações segundo os princípios de orientação a serviço, generalizando a solução apresentada para o desenvolvimento de aplicações multimídia quaisquer. Como resultado, pode-se verificar que, apesar de ainda existirem algumas questões a serem tratadas, as tecnologias apresentadas representam conjuntamente uma ferramenta ampla para o desenvolvimento de aplicações multimídia. / Multimedia applications are characterized for demanding huge network and computing resources. Because these demands, the current development models always were based on highly specialized and integrated architectures. Thus, they present monolithic structures which limits reuse, as well requiring a lot of efforts to perform changes. This approach limits the development of complex and large scale multimedia applications. There are demand for development models for enabling larger scopes application, supporting scalable, flexible and ease programming applications. In this context this work proposes the conjugated use of Service Oriented Architectures and the MPEG-7 and MPEG-21 standards. It presents how these technologies can allow multimedia applications ease development, minimizing coasts and efforts. Besides, it is also showed how they answer for the raising and multiple demands for new multimedia applications types. This work motivation was to create a solution to support some additional requirements verified during the design of a Video Management Platform. Among the diversified issues treated in this work, it is presented how technologies supporting Service Oriented Architectures are positioned regarding multimedia applications development, and how they together MPEG-7 and MPEG-21 standards are being used to improve the Platform. It is also presented an analysis process for applying the principles of Service Orientation in the multimedia applications development. The aim is generalizing the presented solution to be applied in any multimedia application development. As result from the whole work, it can be verified that, although there are some issues to be covered, the technologies presented represent a complete tool for multimedia applications development.
|
496 |
CollaboraTVware: uma infra-estrutura ciente de contexto para suporte a participação colaborativa no cenário da TV Digital Interativa. / CollaboraTVware: a context-aware infrastructure with support for collaborative participation in an Interactive Digital TV environment.Luiz Gustavo Pacola Alves 13 October 2008 (has links)
O advento da TV Digital Interativa no mundo modifica, em definitivo, a experiência do usuário em assistir a TV, tornando-a mais rica principalmente pelo uso do recurso da interatividade. Os usuários passam a ser pró-ativos e começam a interagir das mais diversas formas: construção de comunidades virtuais, discussão sobre um determinado conteúdo, envio de mensagens e recomendações, dentre outras. Neste cenário a participação dos usuários de forma colaborativa assume um papel importante e essencial. Aliado a isso, a recepção na TV Digital Interativa é feita através de dispositivos computacionais que, devido à convergência digital, estão presentes cada vez mais em meios ubíquos. Um outro fator preponderante a considerar, resultante desta mídia, corresponde ao crescimento da quantidade e diversidade de programas e serviços interativos disponíveis, dificultando, assim, a seleção de conteúdo de maior relevância. Diante dos fatos expostos, esta pesquisa tem como principal objetivo propor e implementar uma infra-estrutura de software no cenário da TV Digital Interativa intitulada CollaboraTVware para orientar, de forma transparente, os usuários na escolha de programas e serviços interativos através da participação colaborativa de outros usuários com perfis e contextos similares. No escopo deste trabalho, a participação colaborativa corresponde às avaliações atribuídas por usuários no sentido de expressar opiniões sobre os conteúdos veiculados. As modelagens de usuário, do dispositivo utilizado e do contexto da interação do usuário, essenciais para o desenvolvimento do CollaboraTVware, são representadas por padrões de metadados flexíveis usados no domínio da TV Digital Interativa (MPEG-7, MPEG-21 e TV-Anytime), e suas devidas extensões. A arquitetura do CollaboraTVware é composta por dois subsistemas: dispositivo do usuário e provedor de serviços. A tarefa de classificação, da teoria de mineração de dados, é a abordagem adotada na concepção da infra-estrutura. O conceito de perfil de uso participativo é apresentado e discutido. Para demonstrar e validar as funcionalidades do CollaboraTVware em um cenário de uso, foi desenvolvida uma aplicação (EPG colaborativo) como estudo de caso. / The advent of the Interactive Digital TV around the world transforms, ultimately, the user experience in watching TV, making it richer mainly by enabling user interactivity. The users become pro-active and begin to interact with very different ways: building virtual communities, discussion about contents, sending messages and recommendations etc. In this scenario the user participation in a collaborative assumes an important and essential role. Additionally, the reception in Interactive Digital TV is done by devices that due to digital convergence are increasingly present in ubiquitous environments. Another preponderant issue to consider, resulting from this media, is the growing of the number and diversity of programs and interactive services available, increasing the difficulty of selecting relevant content. Thus, the main objective of this work is to propose and implement a software infrastructure in an Interactive Digital Television environment entitled CollaboraTVware to guide in a transparent way, users in the choice of programs and interactive services through the collaborative participation of other users with similar profiles and contexts. In the scope of this work, the collaborative participation corresponds to the rating given by users in order to express opinions about the content transmitted. The modeling of user, device used and context of user interaction, essential for the development of CollaboraTVware, are represented by granular metadata standards used in the field of Interactive Digital TV (MPEG-7, MPEG-21 and TV-Anytime), and its extensions needed. The CollaboraTVware architecture is composed of two subsystems: user device and service provider. The classification task, from the theory of data mining, is the approach adopted in the infrastructure design. The concept of participative usage profile is presented and discussed. To demonstrate the functionalities in a use scenario, was developed an application (collaborative EPG) as a case study which uses the CollaboraTVware.
|
497 |
Findability: elementos essenciais para as formas de encontro da informação em bibliotecas digitaisLandshoff, Renate 19 November 2011 (has links)
Made available in DSpace on 2016-04-29T14:23:04Z (GMT). No. of bitstreams: 1
Renate Landshoff.pdf: 3875996 bytes, checksum: a0da1263d095248a5d6973fb7cd4e325 (MD5)
Previous issue date: 2011-11-19 / This study aims to recommend key elements which impact the ways to find information in digital library environments, including features found in Web 2.0. The theory is based on the concept of Findability, coined by Morville, on the significant contribution of Manovich, on Santaella‟s study about cognitive profiles of readers and Internet users, and on Weinberg and Cunha‟s view on the mission of digital libraries. The development of this work is based on the method of qualitative case studies, highlighting positive and negative aspects of search interfaces from elements considered relevant to digital library projects and identified with the contribution of concepts brought from Library and Information Science. The study emphasizes the contribution of digital libraries for Web search, without however fail to point to their weaknesses and need for evolution. The processing of information at the time of data entry, the development of more intelligent search interfaces, the different cognitive profiles of users, the participation of multidisciplinary teams and constant monitoring of the digital environment elements must be considered and pursued over the existence of a design of this profile. The study points out finally the changes that must occur in searching from the Semantic Web and the development of artificial intelligence, impacting the way we are used to seek information, continually increasing its "findability." / Este estudo tem por objetivo recomendar elementos essenciais que impactam as formas de encontro da informação em ambientes de bibliotecas digitais, incluindo as funcionalidades encontradas na Web 2.0. A fundamentação teórica está baseada no conceito de Findability, cunhado por Morville, na contribuição expressiva de Manovich, no estudo de Santaella sobre os perfis cognitivos de leitores e internautas e na visão de Weinberg e Cunha sobre a missão de bibliotecas digitais. O desenvolvimento deste trabalho está baseado no método de estudos de casos qualitativos, ressaltando aspectos positivos e negativos de interfaces de busca a partir de elementos considerados relevantes para projetos de bibliotecas digitais e identificados com a contribuição de conceitos trazidos da área de Biblioteconomia e Ciência da Informação. O estudo destaca a contribuição das bibliotecas digitais para a pesquisa na Web, sem no entanto deixar de apontar para as suas fragilidades e necessidade de evolução. O tratamento da informação no momento da entrada de dados, o desenvolvimento de interfaces de busca mais inteligentes, os diversos perfis cognitivos de usuários, a participação de equipes multidisciplinares e o monitoramento constante do ambiente digital devem ser elementos considerados e perseguidos ao longo da existência de um projeto deste perfil. O estudo destaca por fim, as mudanças que devem ocorrer com a busca a partir da Web Semântica e o desenvolvimento da inteligência artificial, impactando na forma como estamos acostumados a buscar a informação, aumentando cada vez mais a sua encontrabilidade
|
498 |
ROAPA ? Reposit?rio de Objetos de Aprendizagem para o ensino de pesca e aquicultura / ROAPA - Repository of Learning Objects for the teaching of fishing and aquacultureAlvim, Silvio Jos? Trindade 06 May 2016 (has links)
Submitted by Celso Magalhaes (celsomagalhaes@ufrrj.br) on 2017-10-23T13:32:01Z
No. of bitstreams: 1
2016 - Silvio Jos? Trindade Alvim.pdf: 2247518 bytes, checksum: f99ece6b37073375f383ae996565e974 (MD5) / Made available in DSpace on 2017-10-23T13:32:01Z (GMT). No. of bitstreams: 1
2016 - Silvio Jos? Trindade Alvim.pdf: 2247518 bytes, checksum: f99ece6b37073375f383ae996565e974 (MD5)
Previous issue date: 2016-05-06 / The use of technology in education has experienced a number of changes. The use of the computer as a learning tool promoter is a constant challenge for educators. The creation, classification and maintenance of digital materials with educational content are laborious but essential tasks for the good use of technologies of information and communication in education, in various levels of education. In this context, the work that follows is intended to propose the creation of a reference model for implementation of a Learning Object Repository (LOR) as well as outlining a production process of these objects and choosing a team based on roles and responsibilities modeled in the process. As methodological approach was made a literature review on the subject. Conceptual maps were used to support the planning of the repository model. For choosing the set of metadata used in the model was made a Systematic Review of Literature (SRL) and after these steps the initial software interface has been validated through a survey instrument using the Likert scale for evaluation of non-functional software requirements applied to a group of educators and students of the academic community of IFES Campus Pi?ma. It is expected that the model will serve as a subsidy for the implementation of a repository for use by technical courses of Aquaculture and Fisheries of aforementioned campus, allowing the search and use of digital educational materials for teachers and students, in a simply and efficiently way / O uso de tecnologia na educa??o tem passado por uma s?rie de mudan?as. O uso do computador como ferramenta promotora da aprendizagem ? um desafio constante para os educadores. A cria??o, classifica??o e manuten??o de materiais digitais com conte?do educacional ? uma tarefa trabalhosa mas fundamental para o bom uso das TIC na educa??o, nos mais variados n?veis de ensino. Nesse contexto, o trabalho que se segue tem por objetivo propor a cria??o de um modelo de refer?ncia para implanta??o de um Reposit?rio de Objetos de Aprendizagem (ROA) bem como delinear um processo de produ??o destes objetos e de escolha de uma equipe, baseada em pap?is e responsabilidades modeladas no processo. Como percurso metodol?gico foi feita uma revis?o bibliogr?fica sobre o assunto. Foram utilizados mapas conceituais para apoiar a planejamento do modelo de reposit?rio. Para a escolha do conjunto de metadados utilizados no modelo foi feito uma Revis?o Sistem?tica de Literatura (RSL) e ap?s essas etapas a interface inicial do software foi validada atrav?s de um instrumento de pesquisa utilizando a escala Likert, para avalia??o de requisitos n?o funcionais de software, aplicada a um grupo formado por educadores e alunos da comunidade acad?mica do IFES Campus Pi?ma. Espera-se que o modelo proposto sirva de subs?dio para implementa??o de um reposit?rio para uso pelos cursos t?cnicos de Aquicultura e Pesca do campus supracitado, permitindo a busca e utiliza??o de materiais digitais educacionais, por professores e alunos, de forma simples e eficiente
|
499 |
Fit for purpose? : a metascientific analysis of metabolomics data in public repositoriesSpicer, Rachel January 2019 (has links)
Metabolomics is the study of metabolites and metabolic processes. Due to the diversity of structures and polarities of metabolites, no single analytical technique is able to measure the entire metabolome - instead a varied set of experimental designs and instrumental technologies are used to measure specific portions. This has led to the development of many distinct data analysis and processing methods and software. There is hope that metabolomics can be utilized for clinical applications, in toxicology and to measure the exposome. However, for these applications to be realised data must be high quality, sufficiently standardised and annotated, and FAIR (Findable, Accessible, Interoperable and Reproducible). For this purpose, it is also important that standardised, FAIR software workflows are available. There has also recently been much concern over the reproducibility of scientific research, which FAIR and open data, and workflows can help to address. To this end, this thesis aims to assess current practices and standards of sharing data within the field of metabolomics, using metascientific approaches. The types of functions of software for processing and analysing metabolomics data is also assessed. Reporting standards are designed to ensure that the minimum information required to un- derstand and interpret the results of analysis are reported. However, poor reporting standards are ignored and not complied with. Compliance to the biological context Metabolomics Standards Initiative (MSI) guidelines was examined, in order to investigate their timeliness. The state of open data within the metabolomics community was examined by investigating how much publicly available metabolomics data there is and where has it been deposited. To explore whether journal data sharing policies are driving open metabolomics data, which journals publish articles that have their underlying data made open was also examined. However, open data alone is not inherently useful: if data is incomplete, lacking in quality or missing crucial metadata, it is not valuable. Conversely, if data are reused, this can demonstrate the worth of public data archiving. Levels of reuse of public metabolomics data were therefore examined. With greater than 250 software tools specific for metabolomics, practitioners are faced with a daunting task to select the best tools for data collection and analysis. To help educate researchers about what software is available, a taxonomy of metabolomics software tools and a GitHub pages wiki, which provides extensive details about all included software, have been developed.
|
500 |
PersonalTVware: uma infraestrutura de suporte a sistemas de recomendação sensíveis ao contexto para TV Digital Personalizada. / PersonalTVware: an infrastructure to support the context-aware recommender systems for Personalized Digital TV.Silva, Fábio Santos da 18 March 2011 (has links)
O processo de digitalização da TV em diversos países do mundo tem contribuído para o aumento do volume de programas de TV, o que gera uma sobrecarga de informação. Consequentemente, o usuário está enfrentando dificuldade para encontrar os programas de TV favoritos dentre as várias opções disponíveis. Diante deste cenário, os sistemas de recomendação destacam-se como uma possível solução. Tais sistemas são capazes de filtrar itens relevantes de acordo com as preferências do usuário ou de um grupo de usuários que possuem perfis similares. Entretanto, em diversas recomendações o interesse do usuário pode depender do seu contexto. Assim, torna-se importante estender as abordagens tradicionais de recomendação personalizada por meio da exploração do contexto do usuário, o que poderá melhorar a qualidade das recomendações. Para isso, este trabalho descreve uma infraestrutura de software de suporte ao desenvolvimento e execução de sistemas de recomendação sensíveis ao contexto para TV Digital Interativa - intitulada de PersonalTVware. A solução proposta fornece componentes que implementam técnicas avançadas para recomendação de conteúdo e processamento de contexto. Com isso, os desenvolvedores de sistemas de recomendação concentram esforços na lógica de apresentação de seus sistemas, deixando questões de baixo nível para o PersonalTVware gerenciar. As modelagens de usuário, e do contexto, essenciais para o desenvolvimento do PersonalTVware, são representadas por padrões de metadados flexíveis usados na TV Digital Interativa (MPEG-7 e TV-Anytime), e suas devidas extensões. A arquitetura do PersonalTVware é composta por dois subsistemas: dispositivo do usuário e provedor de serviços. A tarefa de predição de preferências contextuais é baseada em métodos de aprendizagem de máquina, e a filtragem de informação sensível ao contexto tem como base a técnica de filtragem baseada em conteúdo. O conceito de perfil contextual também é apresentado e discutido. Para demonstrar e validar as funcionalidades do PersonalTVware em um cenário de uso, foi desenvolvido um sistema de recomendação sensível ao contexto como estudo de caso. / The process of digitalization of TV in several countries around the world has, contributed to increase the volume of TV programs offered and it leads, to information overload problem. Consequently, the user facing the difficulty to find their favorite TV programs in view of various available options. Within this scenario, the recommender systems stand out as a possible solution. These systems are capable of filtering relevant items according to the user preferences or the group of users who have similar profiles. However, the most of the recommender systems for Interactive Digital TV has rarely take into consideration the users contextual information in carrying out the recommendation. However, in many recommendations the user interest may depend on the context. Thus, it becomes important to extend the traditional approaches to personalized recommendation of TV programs by exploiting the context of user, which may improve the quality of the recommendations. Therefore, this work presents a software infrastructure in an Interactive Digital TV environment to support context-aware personalized recommendation of TV programs entitled PersonalTVware. The proposed solution provides components which implement advanced techniques to recommendation of content and context management. Thus, developers of recommender systems can concentrate efforts on the presentation logic of their systems, leaving low-level questions for the PersonalTVware managing. The modeling of user and context, essential for the development of PersonalTVware, are represented by granular metadata standards used in the Interactive Digital TV field (MPEG-7 and TV-Anytime), and its extensions required. The PersonalTVware architecture is composed by two subsystems: the users device and the service provider. The task of inferring contextual preferences is based on machine learning methods, and context-aware information filtering is based on content-based filtering technique. The concept of contextual user profile is presented and discussed. To demonstrate the functionalities in a usage scenario a context-aware recommender system was developed as a case study applying the PersonalTVware.
|
Page generated in 0.0634 seconds