• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 23
  • 5
  • 4
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 76
  • 76
  • 26
  • 25
  • 22
  • 13
  • 11
  • 10
  • 10
  • 10
  • 10
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

An Empirical Review of the Connection Between Model Viewer Characteristics and the Comprehension of Conceptual Process Models

Mendling, Jan, Recker, Jan, Reijers, Hajo A., Leopold, Henrik 20 January 2018 (has links) (PDF)
Understanding conceptual models of business domains is a key skill for practitioners tasked with systems analysis and design. Research in this field predominantly uses experiments with specific user proxy cohorts to examine factors that explain how well different types of conceptual models can be comprehended by model viewers. However, the results from these studies are difficult to compare. One key difficulty rests in the unsystematic and fluctuating consideration of model viewer characteristics (MVCs) to date. In this paper, we review MVCs used in prominent prior studies on conceptual model comprehension. We then design an empirical review of the influence of MVCS through a global, cross-sectional experimental study in which over 500 student and practitioner users were asked to answer comprehension questions about a prominent type of conceptual model - BPMN process models. As an experimental treatment, we used good versus bad layout in order to increase the variance of performance. Our results show MVC to be a multi-dimensional construct. Moreover, process model comprehension is related in different ways to different traits of the MVC construct. Based on these findings, we offer guidance for experimental designs in this area of research and provide implications for the study of MVCs.
22

[en] A MODEL AND AN INTERACTIVE SYSTEM FOR PLOT COMPOSITION AND ADAPTATION, BASED ON PLAN RECOGNITION AND PLAN GENERATION / [pt] UM MODELO E UM SISTEMA INTERATIVO PARA COMPOSIÇÃO E ADAPTAÇÃO DE ENREDOS, BASEADOS EM RECONHECIMENTO E GERAÇÃO DE PLANOS

BORJE FELIPE FERNANDES KARLSSON 18 March 2010 (has links)
[pt] Este trabalho tem por alvo um modelo e um sistema interativo para a composição e adaptação de enredos, com base em um paradigma de reconhecimento de planos / geração de planos. Os enredos gerados devem pertencer a algum gênero escolhido, previamente especificado em termos de aspectos estáticos, dinâmicos e comportamentais. A técnica de modelagem envolve a análise de enredos sob uma perspectiva quádrupla, em vista de relações sintagmáticas, paradigmáticas, antitéticas e meronímicas entre os eventos constituintes. O sistema interativo implementado, de nome LogTell-R, demonstra a viabilidade do modelo proposto. / [en] This work aims at a model and an interactive system for plot composition and adaptation, based on a plan-recognition / plan-generation paradigm. The generated plots must belong to some chosen genre, to be previously specified in terms of static, dynamic and behavioural aspects. The modeling technique involves the analysis of plots under a fourfold perspective, in view of syntagmatic, paradigmatic, antithetic and meronymic relations between the constituent events. The implemented interactive system, named LogTell-R, demonstrates the feasibility of the proposed model.
23

Hmt : modelagem e projeto de aplicações hipermídia / HMT: hypermedia applications modeling and design

Nemetz, Fabio January 1995 (has links)
Após três décadas de pesquisa em hipermídia, muitos problemas identificados ainda não foram totalmente solucionados. Problemas relacionados com desorientação, sobrecarga cognitiva, qualidade de interface, interatividade e estruturação dos componentes dos sistemas hipermídia, são alguns que merecem ser citados. Particularmente, o problema clássico de desorientação do usuário recebeu maior atenção. Várias propostas de solução já foram sugeridas: use de roteiros guiados em substituição a navegação, retorno ao no anterior (`backtrack'), histórico de nos visitados, marcas de livro (`bookmarks'), mapas globais e locais, visões olho-de-peixe, metáforas, folheadores (`browsers'), entre outras. Se observa também que o avanço tecnológico permite que cada vez mais as aplicações incluam dados multimídia. Esta tendência mostra a necessidade urgente do surgimento de novas técnicas de modelagem de aplicações hipermídia que diminuam os problemas citados anteriormente. Desta forma, se pretende com a presente dissertação, propor uma técnica de modelagem de aplicações hipermídia, capaz de diminuir os problemas de desorientação do usuário e também de facilitar a identificação das estruturas compreensíveis que interligarão os componentes da aplicação. A técnica de modelagem aqui proposta - HMT (`Hypermedia Modeling Technique') - utiliza quatro modelos para descrever uma aplicação: o modelo de objetos descreve os objetos do domínio da aplicação e seus relacionamentos; o modelo de hiperobjetos refina o modelo de objetos, adicionando maior semântica aos relacionamentos; o modelo de navegação descreve os elos e estruturas de acesso e o modelo de interface contem as descrições sobre como o usuário ira perceber os objetos hipermídia. A técnica HMT se baseou no levantamento dos problemas relevantes as aplicações hipermídia e principalmente na analise das propostas e dos principais trabalhos encontrados na literatura. Finalmente, reforçando a viabilidade das idéias, foi feita a modelagem, projeto e implementação da aplicação hipermídia sobre literatura no Rio Grande do Sul, sob a forma de CD-ROM : Enciclopédia da Literatura Rio-Grandense. / After three decades of hypermedia research a great number of identified problems still remain without a total solution. Problems related to disorientation, cognitive overhead, interface, interaction and structure of hypermedia applications components are some of the main problems. The classical user disorientation problem has been the main focus of the attention. Many solution proposals have been suggested: the use of guided tours replacing navigation, backtrack, history mechanisms, bookmarks, global and local maps, fisheye views, metaphors, browsers, among others. We note that the technological advance allows the construction of applications that include multimedia data. This shows us that new modeling techniques for hypermedia applications are required to reduce the problems cited above. In this dissertation, we intend to propose a modeling technique for hypermedia applications, capable of reducing both the user disorientation problem and the identification of comprehensible structures that will link the components of the application. This modeling technique - the HMT (Hypermedia Modeling Technique) - uses four models to describe an application: the object model describes the objects of the application domain and their relationships; the hyperobject model enhances the object model, adding more semantics to the relationships; the navigation model describes the access structures and the interface model contains the descriptions of how the user will perceive the hypermedia objects. The HMT technique was based on the relevant problems related to hypermedia applications and mainly on the analysis of the proposals and related research found in the literature. Finally, reinforcing the viability of the proposed ideas, an application was modeled, designed and implemented: the CD-ROM "Enciclopedia da Literatura Rio- Grandense" which deals with literary information.
24

Hmt : modelagem e projeto de aplicações hipermídia / HMT: hypermedia applications modeling and design

Nemetz, Fabio January 1995 (has links)
Após três décadas de pesquisa em hipermídia, muitos problemas identificados ainda não foram totalmente solucionados. Problemas relacionados com desorientação, sobrecarga cognitiva, qualidade de interface, interatividade e estruturação dos componentes dos sistemas hipermídia, são alguns que merecem ser citados. Particularmente, o problema clássico de desorientação do usuário recebeu maior atenção. Várias propostas de solução já foram sugeridas: use de roteiros guiados em substituição a navegação, retorno ao no anterior (`backtrack'), histórico de nos visitados, marcas de livro (`bookmarks'), mapas globais e locais, visões olho-de-peixe, metáforas, folheadores (`browsers'), entre outras. Se observa também que o avanço tecnológico permite que cada vez mais as aplicações incluam dados multimídia. Esta tendência mostra a necessidade urgente do surgimento de novas técnicas de modelagem de aplicações hipermídia que diminuam os problemas citados anteriormente. Desta forma, se pretende com a presente dissertação, propor uma técnica de modelagem de aplicações hipermídia, capaz de diminuir os problemas de desorientação do usuário e também de facilitar a identificação das estruturas compreensíveis que interligarão os componentes da aplicação. A técnica de modelagem aqui proposta - HMT (`Hypermedia Modeling Technique') - utiliza quatro modelos para descrever uma aplicação: o modelo de objetos descreve os objetos do domínio da aplicação e seus relacionamentos; o modelo de hiperobjetos refina o modelo de objetos, adicionando maior semântica aos relacionamentos; o modelo de navegação descreve os elos e estruturas de acesso e o modelo de interface contem as descrições sobre como o usuário ira perceber os objetos hipermídia. A técnica HMT se baseou no levantamento dos problemas relevantes as aplicações hipermídia e principalmente na analise das propostas e dos principais trabalhos encontrados na literatura. Finalmente, reforçando a viabilidade das idéias, foi feita a modelagem, projeto e implementação da aplicação hipermídia sobre literatura no Rio Grande do Sul, sob a forma de CD-ROM : Enciclopédia da Literatura Rio-Grandense. / After three decades of hypermedia research a great number of identified problems still remain without a total solution. Problems related to disorientation, cognitive overhead, interface, interaction and structure of hypermedia applications components are some of the main problems. The classical user disorientation problem has been the main focus of the attention. Many solution proposals have been suggested: the use of guided tours replacing navigation, backtrack, history mechanisms, bookmarks, global and local maps, fisheye views, metaphors, browsers, among others. We note that the technological advance allows the construction of applications that include multimedia data. This shows us that new modeling techniques for hypermedia applications are required to reduce the problems cited above. In this dissertation, we intend to propose a modeling technique for hypermedia applications, capable of reducing both the user disorientation problem and the identification of comprehensible structures that will link the components of the application. This modeling technique - the HMT (Hypermedia Modeling Technique) - uses four models to describe an application: the object model describes the objects of the application domain and their relationships; the hyperobject model enhances the object model, adding more semantics to the relationships; the navigation model describes the access structures and the interface model contains the descriptions of how the user will perceive the hypermedia objects. The HMT technique was based on the relevant problems related to hypermedia applications and mainly on the analysis of the proposals and related research found in the literature. Finally, reinforcing the viability of the proposed ideas, an application was modeled, designed and implemented: the CD-ROM "Enciclopedia da Literatura Rio- Grandense" which deals with literary information.
25

Um catálogo de regras para validações estruturais de diagramas EER

NASCIMENTO FILHO, Antonio Josivaldo do 27 August 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-07-01T12:55:12Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao Antonio Nascimento.pdf: 2311695 bytes, checksum: b542c4d4f9b8c4d8e7e4f07b723f9f93 (MD5) / Made available in DSpace on 2016-07-01T12:55:12Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao Antonio Nascimento.pdf: 2311695 bytes, checksum: b542c4d4f9b8c4d8e7e4f07b723f9f93 (MD5) Previous issue date: 2015-08-27 / Um diagrama EER para ser válido deve estar em conformidade com as regras sintáticas da sua linguagem de modelagem e não deve possuir construções que se contradizem estruturalmente. Considerando um diagrama EER sintaticamente correto, existem trabalhos que definem validações estruturais para os tipos básicos de relacionamentos (i.e., unários, binários e ternários), mas que não abordam construções avançadas (e.g., relacionamento identificador, herança e atributo discriminador). Neste contexto, tendo como base os trabalhos relacionados, a contribuição original desta dissertação é a definição de um catálogo de regras para validação estrutural de construções avançadas da linguagem de modelagem EER. A sistemática para definição deste catálogo consiste em realizar todas as combinações, sintaticamente válidas, entre os principais construtores da EER e avaliar quais destas têm problemas estruturais. Por fim, são propostas definições matemáticas das regras e a implementação destas em uma ferramenta do tipo Computer-Aided Software Engineering (CASE). / A EER diagram to be valid must be in accordance with the syntactic rules of their modeling language and must not have buildings that structurally contradict. Considering a syntactically correct EER diagram, there are works that define structural validations for the basic types of relationships (i.e., unary, binary and ternary), but do not address advanced buildings (e.g., identifier relationship, inheritance and discriminator attribute). In this context, based on the related works, the original contribution of this work is the definition of Catalog of Rules for Structural Validation of advanced buildings of the EER modeling language. The systematic for definition this catalog consists to realize all combinations, syntactically valid, among the main builders of EER and evaluate which of these are structural problems. Finally, the work proposes mathematical definitions of rules and implementation of these in one Computer-Aided Software Engineering (CASE) tool.
26

Simulation Modeling of Constrained Resource Allocation Using the Activity Based Conceptual Modeling Methodology

Mejicano Quintana, Miguel Antonio January 2018 (has links)
This thesis considers a common healthcare challenge of planning capacity for a system of care where patients receive multiple treatments sessions from multiple resources. As a case study of this more general problem, we considered the particular context of a capacity planning model for the Mood and Anxiety Program at The Ottawa Royal Health Centre (referenced as The Royal for simplicity) where a new service system known as CAPA (www.capa.co.uk) is being implemented to enhance the mental care provided to its patients. In order to develop the capacity planning model, we have created a simulation model using the Arena simulation software. We have also used the ABCMod Framework as the modeling methodology. The ABCMod is an activity based conceptual modelling framework that provides a set of guidelines as to how to build a conceptual model including its structural and behavioural aspects as well as a collection of constructs which include inputs, outputs and parameters among others. The ABCMod framework tools are expected to facilitate the model validation with project stakeholders. A series of scenarios relevant to The Royal were modeled and analyzed in order to determine how best to manage capacity so certain performance goals within the CAPA system implementation are met. These scenarios determine the service level The Royal can provide with its current capacity and also the amount and distribution of resources that is required to achieve its goals under the CAPA system. As a result of our simulation runs, we defined the policy implications for The Royal in order to achieve its targets and successfully implement CAPA. Additionally, through the application of the ABCMod framework and standard process mapping tools, we were able to reach a consensus and validate our modeling approach with the project stakeholders at The Royal. Our model could be adapted to other settings in which multiple resources provide a series of sequential interventions to clients.
27

SILE: A Method for the Efficient Management of Smart Genomic Information

León Palacio, Ana 25 November 2019 (has links)
[ES] A lo largo de las últimas dos décadas, los datos generados por las tecnologías de secuenciación de nueva generación han revolucionado nuestro entendimiento de la biología humana. Es más, nos han permitido desarrollar y mejorar nuestro conocimiento sobre cómo los cambios (variaciones) en el ADN pueden estar relacionados con el riesgo de sufrir determinadas enfermedades. Actualmente, hay una gran cantidad de datos genómicos disponibles de forma pública, que son consultados con frecuencia por la comunidad científica para extraer conclusiones significativas sobre las asociaciones entre los genes de riesgo y los mecanismos que producen las enfermedades. Sin embargo, el manejo de esta cantidad de datos que crece de forma exponencial se ha convertido en un reto. Los investigadores se ven obligados a sumergirse en un lago de datos muy complejos que están dispersos en más de mil repositorios heterogéneos, representados en múltiples formatos y con diferentes niveles de calidad. Además, cuando se trata de resolver una tarea en concreto sólo una pequeña parte de la gran cantidad de datos disponibles es realmente significativa. Estos son los que nosotros denominamos datos "inteligentes". El principal objetivo de esta tesis es proponer un enfoque sistemático para el manejo eficiente de datos genómicos inteligentes mediante el uso de técnicas de modelado conceptual y evaluación de calidad de los datos. Este enfoque está dirigido a poblar un sistema de información con datos que sean lo suficientemente accesibles, informativos y útiles para la extracción de conocimiento de valor. / [CA] Al llarg de les últimes dues dècades, les dades generades per les tecnologies de secuenciació de nova generació han revolucionat el nostre coneixement sobre la biologia humana. És mes, ens han permès desenvolupar i millorar el nostre coneixement sobre com els canvis (variacions) en l'ADN poden estar relacionats amb el risc de patir determinades malalties. Actualment, hi ha una gran quantitat de dades genòmiques disponibles de forma pública i que són consultats amb freqüència per la comunitat científica per a extraure conclusions significatives sobre les associacions entre gens de risc i els mecanismes que produeixen les malalties. No obstant això, el maneig d'aquesta quantitat de dades que creix de forma exponencial s'ha convertit en un repte i els investigadors es veuen obligats a submergir-se en un llac de dades molt complexes que estan dispersos en mes de mil repositoris heterogenis, representats en múltiples formats i amb diferents nivells de qualitat. A m\és, quan es tracta de resoldre una tasca en concret només una petita part de la gran quantitat de dades disponibles és realment significativa. Aquests són els que nosaltres anomenem dades "intel·ligents". El principal objectiu d'aquesta tesi és proposar un enfocament sistemàtic per al maneig eficient de dades genòmiques intel·ligents mitjançant l'ús de tècniques de modelatge conceptual i avaluació de la qualitat de les dades. Aquest enfocament està dirigit a poblar un sistema d'informació amb dades que siguen accessibles, informatius i útils per a l'extracció de coneixement de valor. / [EN] In the last two decades, the data generated by the Next Generation Sequencing Technologies have revolutionized our understanding about the human biology. Furthermore, they have allowed us to develop and improve our knowledge about how changes (variants) in the DNA can be related to the risk of developing certain diseases. Currently, a large amount of genomic data is publicly available and frequently used by the research community, in order to extract meaningful and reliable associations among risk genes and the mechanisms of disease. However, the management of this exponential growth of data has become a challenge and the researchers are forced to delve into a lake of complex data spread in over thousand heterogeneous repositories, represented in multiple formats and with different levels of quality. Nevertheless, when these data are used to solve a concrete problem only a small part of them is really significant. This is what we call "smart" data. The main goal of this thesis is to provide a systematic approach to efficiently manage smart genomic data, by using conceptual modeling techniques and the principles of data quality assessment. The aim of this approach is to populate an Information System with data that are accessible, informative and actionable enough to extract valuable knowledge. / This thesis was supported by the Research and Development Aid Program (PAID-01-16) under the FPI grant 2137. / León Palacio, A. (2019). SILE: A Method for the Efficient Management of Smart Genomic Information [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/131698 / TESIS / Premios Extraordinarios de tesis doctorales
28

The Necessity and Challenges of Automatic Causal Map Processing: A Network Science Perspective

Freund, Alexander J. 28 April 2021 (has links)
No description available.
29

The Design of Vague Spatial Data Warehouses

Lopes Siqueira, Thiago Luis 07 December 2015 (has links) (PDF)
Spatial data warehouses (SDW) and spatial online analytical processing (SOLAP) enhance decision making by enabling spatial analysis combined with multidimensional analytical queries. A SDW is an integrated and voluminous multidimensional database containing both conventional and spatial data. SOLAP allows querying SDWs with multidimensional queries that select spatial data that satisfy a given topological relationship and that aggregate spatial data. Existing SDW and SOLAP applications mostly consider phenomena represented by spatial data having exact locations and sharp boundaries. They neglect the fact that spatial data may be affected by imperfections, such as spatial vagueness, which prevents distinguishing an object from its neighborhood. A vague spatial object does not have a precisely defined boundary and/or interior. Thus, it may have a broad boundary and a blurred interior, and is composed of parts that certainly belong to it and parts that possibly belong to it. Although several real-world phenomena are characterized by spatial vagueness, no approach in the literature addresses both spatial vagueness and the design of SDWs nor provides multidimensional analysis over vague spatial data. These shortcomings motivated the elaboration of this doctoral thesis, which addresses both vague spatial data warehouses (vague SDWs) and vague spatial online analytical processing (vague SOLAP). A vague SDW is a SDW that comprises vague spatial data, while vague SOLAP allows querying vague SDWs. The major contributions of this doctoral thesis are: (i) the Vague Spatial Cube (VSCube) conceptual model, which enables the creation of conceptual schemata for vague SDWs using data cubes; (ii) the Vague Spatial MultiDim (VSMultiDim) conceptual model, which enables the creation of conceptual schemata for vague SDWs using diagrams; (iii) guidelines for designing relational schemata and integrity constraints for vague SDWs, and for extending the SQL language to enable vague SOLAP; (iv) the Vague Spatial Bitmap Index (VSB-index), which improves the performance to process queries against vague SDWs. The applicability of these contributions is demonstrated in two applications of the agricultural domain, by creating conceptual schemata for vague SDWs, transforming these conceptual schemata into logical schemata for vague SDWs, and efficiently processing queries over vague SDWs. / Les entrepôts de données spatiales (EDS) et l'analyse en ligne spatiale (ALS) améliorent la prise de décision en permettant l'analyse spatiale combinée avec des requêtes analytiques multidimensionnelles. Un EDS est une base de données multidimensionnelle intégrée et volumineuse qui contient des données classiques et des données spatiales. L'ALS permet l'interrogation des EDS avec des requêtes multidimensionnelles qui sélectionnent des données spatiales qui satisfont une relation topologique donnée et qui agrègent les données spatiales. Les EDS et l'ALS considèrent essentiellement des phénomènes représentés par des données spatiales ayant une localisation exacte et des frontières précises. Ils négligent que les données spatiales peuvent être affectées par des imperfections, comme l'imprécision spatiale, ce qui empêche de distinguer précisément un objet de son entourage. Un objet spatial vague n'a pas de frontière et/ou un intérieur précisément définis. Ainsi, il peut avoir une frontière large et un intérieur flou, et est composé de parties qui lui appartiennent certainement et des parties qui lui appartiennent éventuellement. Bien que plusieurs phénomènes du monde réel sont caractérisés par l'imprécision spatiale, il n'y a pas dans la littérature des approches qui adressent en même temps l'imprécision spatiale et la conception d'EDS ni qui fournissent une analyse multidimensionnelle des données spatiales vagues. Ces lacunes ont motivé l'élaboration de cette thèse de doctorat, qui adresse à la fois les entrepôts de données spatiales vagues (EDS vagues) et l'analyse en ligne spatiale vague (ALS vague). Un EDS vague est un EDS qui comprend des données spatiales vagues, tandis que l'ALS vague permet d'interroger des EDS vagues. Les contributions majeures de cette thèse de doctorat sont: (i) le modèle conceptuel Vague Spatial Cube (VSCube), qui permet la création de schémas conceptuels pour des EDS vagues à l'aide de cubes de données; (ii) le modèle conceptuel Vague Spatial MultiDim (VSMultiDim), qui permet la création de schémas conceptuels pour des EDS vagues à l'aide de diagrammes; (iii) des directives pour la conception de schémas relationnels et des contraintes d'intégrité pour des EDS vagues, et pour l'extension du langage SQL pour permettre l'ALS vague; (iv) l'indice Vague Spatial Bitmap (VSB-index) qui améliore la performance pour traiter les requêtes adressées à des EDS vagues. L'applicabilité de ces contributions est démontrée dans deux applications dans le domaine agricole, en créant des schémas conceptuels des EDS vagues, la transformation de ces schémas conceptuels en schémas logiques pour des EDS vagues, et le traitement efficace des requêtes sur des EDS vagues. / O data warehouse espacial (DWE) é um banco de dados multidimensional integrado e volumoso que armazena dados espaciais e dados convencionais. Já o processamento analítico-espacial online (SOLAP) permite consultar o DWE, tanto pela seleção de dados espaciais que satisfazem um relacionamento topológico, quanto pela agregação dos dados espaciais. Deste modo, DWE e SOLAP beneficiam o suporte a tomada de decisão. As aplicações de DWE e SOLAP abordam majoritarimente fenômenos representados por dados espaciais exatos, ou seja, que assumem localizações e fronteiras bem definidas. Contudo, tais aplicações negligenciam dados espaciais afetados por imperfeições, tais como a vagueza espacial, a qual interfere na identificação precisa de um objeto e de seus vizinhos. Um objeto espacial vago não tem sua fronteira ou seu interior precisamente definidos. Além disso, é composto por partes que certamente pertencem a ele e partes que possivelmente pertencem a ele. Apesar de inúmeros fenômenos do mundo real serem caracterizados pela vagueza espacial, na literatura consultada não se identificaram trabalhos que considerassem a vagueza espacial no projeto de DWE e nem para consultar o DWE. Tal limitação motivou a elaboração desta tese de doutorado, a qual introduz os conceitos de DWE vago e de SOLAP vago. Um DWE vago é um DWE que armazena dados espaciais vagos, enquanto que SOLAP vago provê os meios para consultar o DWE vago. Nesta tese, o projeto de DWE vago é abordado e as principais contribuições providas são: (i) o modelo conceitual VSCube que viabiliza a criação de um cubos de dados multidimensional para representar o esquema conceitual de um DWE vago; (ii) o modelo conceitual VSMultiDim que permite criar um diagrama para representar o esquema conceitual de um DWE vago; (iii) diretrizes para o projeto lógico do DWE vago e de suas restrições de integridade, e para estender a linguagem SQL visando processar as consultas de SOLAP vago no DWE vago; e (iv) o índice VSB-index que aprimora o desempenho do processamento de consultas no DWE vago. A aplicabilidade dessas contribuições é demonstrada em dois estudos de caso no domínio da agricultura, por meio da criação de esquemas conceituais de DWE vago, da transformação dos esquemas conceituais em esquemas lógicos de DWE vago, e do processamento de consultas envolvendo as regiões vagas do DWE vago. / Doctorat en Sciences de l'ingénieur et technologie / Location of the public defense: Universidade Federal de São Carlos, São Carlos, SP, Brazil. / info:eu-repo/semantics/nonPublished
30

[en] A CONCEPTUAL MODEL FOR MOLECULAR BIOLOGY / [pt] UM MODELO CONCEITUAL PARA BIOLOGIA MOLECULAR

JOSE ANTONIO FERNANDES DE MACEDO 17 March 2006 (has links)
[pt] Projetos de genômica e biológica molecular estão gerando dados cujos volumes e complexidades jamais foram observados nesta área. Além disso, fontes de dados e de conhecimento são produzidas e utilizadas por grupos de pesquisa os quais utilizam terminologias diferentes (sinônimos, apelido e fórmulas), sintaxes diferentes (estrutura de arquivos e separadores) e semânticas diferentes (intra e interdisciplinares homônimos). O sucesso da pesquisa em biologia dependerá da correta representação e manipulação dos dados biológicos permitindo os cientistas criarem, gerenciarem, manipularem, integrarem e analisarem os dados de forma a gerar informação e conhecimento. Neste trabalho, estudamos os problemas para representação de dados biológicos apresentados nas principais linguagens de modelagem tradicionais. Em seguida, levantamos os requisitos para um novo modelo de dados conceitual para biologia molecular. Finalmente, propomos um novo modelo conceitual contendo construtores específicos para solucionar alguns dos problemas estudados. Além disso, formalizamos o modelo proposto usando lógica de primeira ordem e utilizamos esta descrição lógica para realizar inferências que auxiliem o trabalho do projetista de banco de dados durante a criação de um esquema de banco de dados. / [en] Genomic and molecular biology projects are generating knowledge data whose volume and complexity are unparalleled in this research area. In addition, data and knoweledge sources produced and used by research groups have terminological differences (synonyms, aliases and formulae), syntactic differences (file structure, separators and spelling) and semantic differences (intra- and interdisciplinary homonyms). In this context, data management techniques play a fundamental role for biological applications development because it offers adequate abstractions to desing, implement, access and manage data, in order to generate knowledge. In this work, we study the representation problems presentd in traditional languages. Following, we raise the main requiremants for a new conceptual data model specially conceived for molecular biology. Finally, we propose a new conceptual data model with special types of constructor tryng to solve some of the representation problems discurssed before. In addition, we formalize our proposed model using first-order logic and we use this logical description to infer some properties that may help database designer during the elaboration of database schema.

Page generated in 0.0518 seconds