• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
411

Aprimoramento de ferramentas para compilação de dados: Tabela Brasileira de Composição de Alimentos (TBCA-USP) / Tools improvement for data compilation: Brazilian Food Composition Table (TBCA-USP)

Alexandra Tavares de Melo 08 June 2010 (has links)
Dados confiáveis de composição de alimentos são de fundamental importância em diversas áreas do conhecimento. A Rede Brasileira de Dados de Composição de Alimentos (BRASILFOODS) centraliza informações nacionais sobre composição de alimentos, com o apoio da Food and Agriculture Organization of the United Nations (FAO) e International Network of Food Data Systems (INFOODS), e tem como principal objetivo implementar a Tabela Brasileira de Composição de Alimentos (TBCA-USP). Para aprimorar ferramentas para inserção de dados na TBCA-USP o Formulário para Compilação de Dados de Composição de Alimentos e respectivo manual foram atualizados buscando adequação aos padrões internacionais e visando o intercâmbio de informações com outros bancos de dados. Também foi criado um Banco de Dados Eletrônico de Referências Bibliográficas em Composição de Alimentos Brasileiros (BDRB) com 1270 artigos, cujas informações foram arquivadas no software Microsoft Office Access®. Estas ferramentas foram utilizadas na compilação de dados de composição centesimal, visando testar sua adequação e aplicabilidade. Para inclusão de dados na TBCA-USP, foram selecionados apenas artigos com informações detalhadas, com descrição e referência das metodologias utilizadas e informações completas dos valores analíticos, desde que obtidos pela aplicação de métodos analíticos validados e amplamente utilizados pela comunidade científica. Dos 100 artigos compilados, 12 foram descartados e outros 9 tiveram parte de seus dados não aproveitados.Os principais problemas encontrados durante a compilação foram: uso de métodos inadequados para determinação de fibra alimentar; falta de informações como umidade, cinzas ou lipídios; descrição inadequada da metodologia empregada; dados de alimentos experimentais ou para ração animal; e/ou inconsistência nos resultados apresentados. O BDRB criado é uma ferramenta que proporciona adequado arquivamento e utilização dos artigos com dados de composição de alimentos. Formulário e manual constituem uma ferramenta adequada para compilação de dados nacionais de composição centesimal, carboidratos, ácidos graxos e colesterol e foram traduzidos para o espanhol, tornando-se referência na compilação de dados de alimentos em toda a América Latina. Os dados compilados foram organizados para inclusão no banco de dados da TBCA-USP: 263 dados de composição centesimal, 60 de carboidratos, 75 de ácidos graxos e 33 de colesterol. / Reliable food composition data are primarily important in several areas of knowledge. The Brazilian Network of Food Data Systems (BRASILFOODS) centralizes local information about national food composition, as supported by the Food and Agriculture Organization of the United Nations (FAO) and International Network of Food Data Systems (INFOODS), and its main objective is to implement the Brazilian Food Composition Table (TBCA-USP). In order to improve tools to feed data into TBCA-USP, the Form for Compilation of Food Composition Data and its manual were updated according to the international standards and for interchange of information with other databases. Furthermore, an Electronic Bibliographical Reference Database in Brazilian Food Composition (BDRB) was created, containing 1,270 articles. Its data were stored in Microsoft Office Access® software. These tools were utilized in compiling proximal composition data for testing its suitability and applicability. For data inclusion in the TBCA-USP, only articles with detailed information were selected, including a description of and reference to the methods applied and full details of the analytical values, provided such values were obtained by applying analytical methods validated and widely used by the scientific community. Out of 100 compiled articles, 12 were refused and 9 were partly profited. The main problems identified during the compilation were: inappropriate methods for dietary fiber determination, lack of information, such as moisture, ash and lipids, inadequate methodology description, experimental food or animal feed data, and/or inconsistencies in results presented. The BDRB created is a tool that provides appropriate archiving and use of articles that comprise food composition data. The form and the manual are appropriate tools to compile national food data of proximal composition, carbohydrates, fatty acids and cholesterol and they were translated into Spanish, became reference to food data compilation throughout Latin America. The food data compiled were organized for inclusion in the TBCA-USP database: 263 data of proximal composition, 60 of carbohydrates, 75 of fatty acids and 33 of cholesterol.
412

Filodinâmica e evolução molecular dos sorotipos de vírus da dengue / Filodinâmica and molecular evolution of dengue virus serotypes.

Costa, Raquel Lopes 01 June 2010 (has links)
Made available in DSpace on 2015-03-04T18:50:34Z (GMT). No. of bitstreams: 1 dissertacao_RaquelLopesCosta.pdf: 18200395 bytes, checksum: 43feaef8d856d7407f2c1362a1e32956 (MD5) Previous issue date: 2010-06-01 / Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior / Viruses evolve at a fast rate, allowing them to accumulate genetic variation in a range of time accessible to epidemyological studies. Among RNA viruses, the dengue virus Flavivirus is the agent of the most widespread viral disease transmited by a insect borne vector of the Aedes genus and affects tropical and subtropical zones. The MCMC Bayesian inference was used in this study assessed the patterns of the viral distribution and molecular evolution of four serotypes of dengue virus (DENV-I, II, III and IV). In total, 603 samples of the envelope from 71 countries that have been isolated for 64 years (1944-2008) were evaluated. Our results show similarities for the average rate of evolution of each serotype (about 7.5 x 10^-4 subst/site/year), with a considerable 95% superposition of HPD. When samples are taken together, the analysis coalescence suggests that the first divergence among serotypes happened at about 330 AD. Extinctions, expansions and the emergence of new lineages are responsible by the intra-serotypical diversity currently observed. Analysis of population show high rate of epidemic increase related to the introduction of new serotypes in Central and South America. Geographic distribution pattern show strong spatial and temporal subdivision, mainly in America and South Asia. / Os vírus, possuem uma rápida taxa evolutiva, acumulando variação genética em um intervalo de tempo acessível aos estudos epidemiológicos. Entre os vírus de RNA, o vírus da dengue Flavivirus é o agente da mais ampla doença viral transmitida por um inseto vetor do gênero Aedes que afeta países das regiões tropicais e subtropicais. Através de técnicas de inferência bayesianas por cadeia de Markov Monte Carlo, este estudo avaliou padrões de distribuição viral e evolução molecular dos quatro sorotipos de vírus da Dengue (DENV-I, II, III e IV) em 603 amostras da região do envelope distribuídas em 71 países e isolados por um período de 64 anos (1944 a 2008). Os resultados mostraram semelhanças nas taxas médias de evolução dos sorotipos (em torno de 7.5 x 10^-4 substituições/por sítio/por ano) com uma considerável sobreposição de 95% de probabilidade posterior. A coalescência das amostras conjuntas sugere que a primeira divergência entre os sorotipos aconteceu por volta de 330 d.C com processos de extinção, aparecimento e expansão de novas linhagens responsáveis pela diversidade intrasorotípica atualmente observada. As análises populacionais revelaram altas taxas de crescimento epidêmico relacionadas com introduções de sorotipos ocorridos principalmente nas Américas Central e do Sul. Padrões de distribuição geográfica mostraram forte estrutura espaço-temporal, principalmente no sudeste asiático e nas Américas.
413

Biota-Rio: Um banco de dados para a biodiversidade do Estado do Rio de Janeiro / BIOTA-RIO: A Database of Biodiversity in the State of Rio de Janeiro

Nunes, Vinicius Schmitz Pereira 27 May 2008 (has links)
Made available in DSpace on 2015-03-04T18:51:04Z (GMT). No. of bitstreams: 1 dissertacao_versaofinal.pdf: 4193769 bytes, checksum: 028e41923811f71a2de3f1099d402a29 (MD5) Previous issue date: 2008-05-27 / Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior / The use of information technology in biodiversity related databases is increasing due to the open access to a large sum of data. Access to this information may be regarded as crucial to different areas of knowledge. The present work aims at the development of a open access computational system on biodiversity of the State of Rio de Janeiro. The Biota-Rio system focuses on the animal species, vertebrates and invertebrates, which were originally described for the State of Rio de Janeiro. In this sense, key information such as original descriptions, type localities, habitats and other are directly available on the system. Biota-Rio is a system in which the user may freely access the information via web that was implemented using the PERL language. The MySQL was the selected DBMS in the implementation of the database in which the informations are deposited. To date, surveys have been made of references to thirty-six species of mammals using the Zoological Record database. / O uso da tecnologia da informação na implementação de bases de dados com informações sobre a biodiversidade, vem ganhando uma grande importância. Isso se deve a grande necessidade de se promover um acesso livre a dados e informações sobre as espécies. O acesso a essas informações é considerado como fundamental para o desenvolvimento de diferentes áreas do conhecimento. A presente dissertação teve como objetivo o desenvolvimento de um sistema computacional para acesso a informações sobre a biodiversidade do Estado do Rio de Janeiro. O sistema Biota-Rio deverá conter informações sobre as espécies de animais, vertebrados e invertebrados, que foram descritas para o Estado do Rio de Janeiro. Informações como descrições originais, localidades-tipo, ambiente e outras informações estarão disponíveis no sistema. Biota-Rio é um sistema de acesso livre via web, que foi implementado utilizando a linguagem de programação PERL. O MySQL foi o SGBD utilizado na implementação do banco de dados onde estarão depositadas as informações sobre as espécies. Até o momento, foram feitos levantamentos das referências para trinta e seis espécies de mamíferos utilizando a base de dados Zoological Record.
414

SimDB: :simulações numéricas em modelo de dados de matrizes multidimensionais / SimDB: numerical simulation in multidimensional array data model

Costa, Ramon Gomes 21 July 2014 (has links)
Made available in DSpace on 2015-03-04T18:58:02Z (GMT). No. of bitstreams: 1 tese-RamonGomesCosta.pdf: 7300075 bytes, checksum: 798b5b705351c27584fa52cd559b8588 (MD5) Previous issue date: 2014-07-21 / SimDB: Numerical Simulation in Multidimensional Array Data Model Computational Modelling is a science wherein scientists conceive mathematical models that strive to reproduce the behavior of a studied phenomenon. By means of simulations, predicting variables are computed, usually, through a multidimensional space-time frame. State of the art simulations use a class of software named Solvers to solve equations and compute the values of predicting variables. Moreover, to guide the computation in the physical domain space, polygonal meshes pinpoint the spots where values get computed and the time dimension brings the system dynamics by indicating successive values for the same mesh spot. Finally, in order to test the model with different parameter sets, the scientist may run thousands of simulations. Despite the huge amount of data produced by such simulations, the process is basically not supported by an efficient data management solution. Typical implementation stores parameters and simulated data in standard files organized with a sort of directory structure with no support for high level query language and distribution query processing. In this context, this paper investigates the adoption of the Multidimensional Array Data Model over the SciDB DBMS to manage multidimensional numerical simulation data. We model the 3D spatio-temporal dimensions and the simulation as indexes in the Multidimensional Array Data Model and the predicted variables as values in cells. We present a new strategy to map unstructured 3D spatial meshes into arrays. An orchestrated set of spatial transformations map the original spatial model into a dense multidimensional array, radically reducing the number of sparse chunks produced by a naive mapping. Our strategy is particularly interesting for large queries that would retrieve a huge number of sparsely loaded data chunks. We have run a series of experiments over a real case scenario for the simulation of the cardio-vascular system, developed at LNCC. We show that in some queries we present an improvement in query elapsed-time of approximately 25 times, compared to the standard SciDB implementation. / Modelagem Computacional e uma area na qual cientistas concebem modelos matematicos para reproduzir o comportamento de um fenomeno estudado. Por meio de simulacoes computacionais, variaveis dependentes do modelo sao calculadas, ao longo de uma amostra multidimensional espaco-temporal. O estado da arte em simulacoes numericas adota um tipo de softwares, chamado Resolvedor numerico (Solver), de forma a resolver equacoes matematicas e calcular os valores das variaveis dependentes. Para orientar o calculo no espaco do dominio fsico, malhas poligonais identicam os pontos onde os valores devem ser computados, enquanto que a dimensao temporal introduz a dinamica do sistema, indicando valores sucessivos para o mesmo ponto da malha. Finalmente, a m de testar o modelo com diferentes conjuntos de parametros, cientistas podem executar uma serie de simulacoes. Apesar da enorme quantidade de dados produzidos por tais simulacoes, o processo nao tem apoio de solucoes ecientes para o gerenciamento dos dados. Uma implementacao tipica armazena parametros e dados simulados em arquivos de texto simples, organizados em uma estrutura de diretorios, sem o interesse de permitir o uso de linguagem de consulta de alto nivel e o processamento distribuido de consultas. Neste contexto, esta tese investiga a adocao do Modelo de dados de Matrizes Multidimensionais e sua implementacao atraves do Sistema Gerenciador de Bancos de Dados SciDB, para gerenciar os dados de simulacao numerica. Modelamos as dimensoes espaco-temporais e a simulacao como indices da matriz em um Modelo de Dados de Matrizes Multidimensionais e suas variaveis dependentes como atributos de celulas. Apresentamos uma nova estrategia para mapear a representacao de pontos em malhas nao ortogonais para estruturas em array. Um conjunto orquestrado de transformacoes espaciais fazem o mapeamento do modelo espacial original em um array multidimensional denso, reduzindo radicalmente o numero de particoes (chunks) esparsas produzidas por um mapeamento simples. Nossa estrategia e particularmente interessante para consultas realizadas sobre um fragmento grande do array. Realizamos uma serie de experimentos sobre um cenario real, provido por simulacoes do sistema cardiovascular humano, desenvolvido no LNCC. Mostramos que em algumas consultas, obtem-se um desempenho 25 vezes melhor no tempo de resposta realizado sobre consultas de usuario, em comparaçao com a implementacao padrao usando o SciDB.
415

Uma arquitetura para processamento de grande volumes de dados integrando sistemas de workflow científicos e o paradigma mapreduce

Zorrilla Coz, Rocío Milagros 13 September 2012 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2017-08-10T17:48:51Z No. of bitstreams: 1 RocioZorrilla_Dissertacao.pdf: 3954121 bytes, checksum: f22054a617a91e44c59cba07b1d97fbb (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2017-08-10T17:49:05Z (GMT) No. of bitstreams: 1 RocioZorrilla_Dissertacao.pdf: 3954121 bytes, checksum: f22054a617a91e44c59cba07b1d97fbb (MD5) / Made available in DSpace on 2017-08-10T17:49:17Z (GMT). No. of bitstreams: 1 RocioZorrilla_Dissertacao.pdf: 3954121 bytes, checksum: f22054a617a91e44c59cba07b1d97fbb (MD5) Previous issue date: 2012-09-13 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / With the exponential growth of computational power and generated data from scientific experiments and simulations, it is possible to find today simulations that generate terabytes of data and scientific experiments that gather petabytes of data. The type of processing required for this data is currently known as data-intensive computing. The MapReduce paradigm, which is included in the Hadoop framework, is an alternative parallelization technique for the execution of distributed applications that is being increasingly used. This framework is responsible for scheduling the execution of jobs in clusters, provides fault tolerance and manages all necessary communication between machines. For many types of complex applications, the Scientific Workflow Systems offer advanced functionalities that can be leveraged for the development, execution and evaluation of scientific experiments under different computational environments. In the Query Evaluation Framework (QEF), workflow activities are represented as algebrical operators, and specific application data types are encapsulated in a common tuple structure. QEF aims for the automatization of computational processes and data management, supporting scientists so that they can concentrate on the scientific problem. Nowadays, there are several Scientific Workflow Systems that provide components and task parallelization strategies on a distributed environment. However, scientific experiments tend to generate large sizes of information, which may limit the execution scalability in relation to data locality. For instance, there could be delays in data transfer for process execution or a fault at result consolidation. In this work, I present a proposal for the integration of QEF with Hadoop. The main objective is to manage the execution of a workflow with an orientation towards data locality. In this proposal, Hadoop is responsible for the scheduling of tasks in a distributed environment, while the workflow activities and data sources are managed by QEF. The proposed environment is evaluated using a scientific workflow from the astronomy field as a case study. Then, I describe in detail the deployment of the application in a virtualized environment. Finally, experiments that evaluate the impact of the proposed environment on the perceived performance of the application are presented, and future work discussed. / Com o crescimento exponencial do poder computacional e das fontes de geração de dados em experimentos e simulações científicas, é possível encontrar simulações que usualmente geram terabytes de dados e experimentos científicos que coletam petabytes de dados. O processamento requerido nesses casos é atualmente conhecido como computação de dados intensivos. Uma alternativa para a execução de aplicações distribuídas que atualmente é bastante usada é a técnica de paralelismo baseada no paradigma MapReduce, a qual é incluída no framework Hadoop. Esse framework se encarrega do escalonamento da execução em um conjunto de computadores (cluster), do tratamento de falhas, e do gerenciamento da comunicação necessária entre máquinas. Para diversos tipos de aplicações complexas, os Sistemas de Gerência de Workflows Científicos (SGWf) oferecem funcionalidades avançadas que auxiliam no desenvolvimento, execução e avaliação de experimentos científicos sobre diversos tipos de ambientes computacionais. No Query Evaluation Framework (QEF), as atividades de um workflow são representadas como operadores algébricos e os tipos de dados específicos da aplicação são encapsulados em uma tupla com estrutura comum. O QEF aponta para a automatização de processos computacionais e gerenciamento de dados, ajudando os cientistas a se concentrarem no problema científico. Atualmente, existem vários sistemas de gerência de workflows científicos que fornecem componentes e estratégias de paralelização de tarefas em um ambiente distribuído. No entanto, os experimentos científicos apresentam uma tendência a gerar quantidades de informação que podem representar uma limitação na escalabilidade de execução em relação à localidade dos dados. Por exemplo, é possível que exista um atraso na transferência de dados no processo de execução de determinada tarefa ou uma falha no momento de consolidar os resultados. Neste trabalho, é apresentada uma proposta de integração do QEF com o Hadoop. O objetivo dessa proposta é realizar a execução de um workflow científico orientada a localidade dos dados. Na proposta apresentada, o Hadoop é responsável pelo escalonamento de tarefas em um ambiente distribuído, enquanto que o gerenciamento das atividades e fontes de dados do workflow é realizada pelo QEF. O ambiente proposto é avaliado utilizando um workflow científico da astronomia como estudo de caso. Logo, a disponibilização da aplicação no ambiente virtualizado é descrita em detalhe. Por fim, são realizados experimentos para avaliar o impacto do ambiente proposto no desempenho percebido da aplicação, e discutidos trabalhos futuros.
416

OMT-G temporal: uma técnica de extensão do modelo OMT-G para representar os aspectos temporais de dados geográficos.

Giovani Volnei Meinerz 11 August 2005 (has links)
A utilização de modelos conceituais para o processo de desenvolvimento de aplicações em geral é de fundamental importância. Aplicações geográficas precisam gerenciar objetos espaciais, juntamente com não-espaciais, bem como objetos temporais. Este fator vem exigindo considerável esforço no desenvolvimento de aplicações geográficas. A complexidade na manipulação dessas informações temporais vem demandando esforços ainda maiores na modelagem conceitual, para que estas realmente permitam a representação dos fenômenos naturais e suas variações no tempo. Modelos de dados geográficos, incluindo o modelo de dados para aplicações geográficas OMT-G, propõem algumas primitivas para a criação de esquemas estáticos, dinâmicos e de apresentação utilizados para modelagem de aplicações geográficas. Apesar da sua expressividade, este modelo ainda não tem recursos para representação de aspectos temporais de dados geográficos. Este trabalho propõe e exemplifica um conjunto de primitivas temporais, projetadas para complementar e estender o OMT-G. O trabalho também inclui o desenvolvimento de uma ferramenta de modelagem, chamada Geo-Temporal, que oferece suporte ao desenvolvimento de aplicações espaço-temporais usando a extensão temporal criada para o OMT-G.
417

Modelo conceitual para desenvolvimento de arquitetura de negócios utilizando BSC.

Raquel Sueli de Oliveira Miguel Guedes 27 November 2006 (has links)
O alinhamento entre Tecnologia da Informação ou TI e os objetivos e estratégias do Negócio tem sido apontado como fator primordial para que as organizações obtenham sucesso na priorização de projetos de TI. Algumas pesquisas têm demonstrado que as organizações que adotam a Arquitetura Empresarial desenvolvem um plano tecnológico para direcionar as decisões e investimentos em TI de acordo com os requisitos do negócio e tendências do mercado. A proposta desta dissertação é apresentar um modelo conceitual para desenvolvimento de um dos quatro domínios que compõem a Arquitetura Empresarial, a Arquitetura de Negócios. O modelo faz o levantamento de informações que são consideradas essenciais para descrever o estado atual da organização em termos de produtos e serviços e analisa através de medidas determinadas pelo Balanced Scorecard quais processos necessitam de melhorias. Esta análise dá subsídios para a elaboração de um plano estratégico de TI que alinhe projetos futuros às reais necessidades e objetivos da organização. A aplicação desse modelo é ilustrada através de um estudo de caso implementado na Pró-Reitoria de Pós-Graduação e Pesquisa do ITA - Instituto Tecnológico de Aeronáutica - uma instituição federal de educação e pesquisa científica e tecnológica.
418

Cargas para análise de resistência estática e condições de vôo estáticas aplicadas a um treinador avançado.

Tiago Rabello Spinelli 30 March 2004 (has links)
O presente trabalho tem por objetivo determinar os envelopes de cargas e de vôo para uma aeronave treinador avançado. Para a execução dos envelopes de cargas foram elaborados bancos de dados, em destaque o aerodinâmico que apresenta metodologia aplicável em nível de Anteprojeto. Levantados os bancos de dados necessários, as condições de vôo foram simuladas para obtenção dos envelopes. Posteriormente ée apresentada uma comparação com outra aeronave treinador de comportamento semelhante. Os resultados são apresentados em forma gráfica através dos diagramas h-V, V-n e envelopes limites de cargas isolados e comparativos. São apresentados também os bancos de dados e time-history das manobras simuladas.
419

VEDALOGIC - um método para a verificação de dados climatológicos.

Henrique Gonçalves Salvador 15 December 2008 (has links)
Esta pesquisa aborda o desenvolvimento de um Método para a Verificação de Dados Climatológicos -- VEDALOGIC, que se utiliza de modelos criados com algoritmos de Mineração de Dados. Este método utiliza modelos de clustering para a determinação de grupos homogêneos em um Banco de Dados Climatológicos (BDC). A partir desses grupos pode-se detectar dados suspeitos. Após a detecção de um dado suspeito, este será predito, baseado em um modelo de árvore de decisão gerado a partir de uma série histórica de dados. Em seguida, compara-se o valor predito com o valor do dado suspeito e caso haja uma diferença superior a 4%, o dado suspeito é considerado como um ruído. Uma vez detectado um ruído, uma mensagem é gerada contendo: o campo com o dado ruidoso; o intervalo de valores esperados; e uma sugestão para o ajuste com um valor pontual. A partir de alguns experimentos realizados, constatou-se que os ajustes baseados nas informações fornecidas pelo VEDALOGIC, contribuirão para o aumento da qualidade e da confiabilidade dos dados contidos no BDC. Para a construção dos modelos utilizados no VEDALOGIC, utilizou-se os algoritmos EM e K-means para gerar os modelos de clustering e os algoritmos M5P e REPTree para gerar os modelos de árvore de decisão. Para a verificação do método proposto, inseriu-se ruídos no BDC. Após aplicar o VEDALOGIC o resultado mais significativo foi a detecção de todos os ruídos inseridos e que os valores sugeridos para correção atingiram uma média de precisão acima de 97%.
420

Estudo da viabilidade da aplicação de banco de dados orientado a objetos em sistemas de comando e controle.

Tiago Cavalheiro de Melo 09 April 2008 (has links)
Os sistemas de comando e controle podem ser definidos como sistemas integrados de doutrinas, procedimentos, estruturas organizacionais, pessoal, equipamentos, instalações e comunicações projetadas para apoiar os comandantes no comando e controle nas operações e atividades militares. Sistemas de comando e controle apresentam funcionalidades que permitem aos seus operadores obterem eficácia das forças de segurança sob o seu comando, reduzindo a quantidade de material e pessoal necessária para realizar as tarefas e aumentando a probabilidade de êxito nas missões sob sua coordenação. A representação e atualização dinâmica do cenário situacional numa janela cartográfica e a sua implementação do modelo conceitual constituem instrumentos relevantes para o desenvolvimento de funcionalidades dos comandantes no comando das operações militares. Os dados armazenados devem possibilitar a sua análise por agentes de forma a construir uma visão integrada do cenário para os usuários. Com relação às metodologias de modelagem e às linguagens de programação, têm-se que os sistemas evoluíram e passaram a aplicar conceitos de modelagem e de programação orientadas a objetos. Por outro lado, os sistemas consolidados no mercado de banco de dados ainda aplicam modelagem orientada a entidades relacionais. Os sistemas de comando e controle convivem com esta diferença de conceitos quando sistemas concebidos, modelados e programados seguindo os paradigmas das metodologias orientadas a objetos têm de acessar banco de dados relacionais. O objetivo deste trabalho é construir um protótipo capaz de verificar e validar a implementação de banco de dados orientado a objetos a partir de um modelo conceitual de dados orientado a objetos em sistemas de comando e controle. A validação inclui a análise qualitativa desta implementação, sendo verificados aspectos como facilidade de uso, facilidade de acesso aos dados, desempenho e homogeneidade na arquitetura do sistema considerando a consistência da modelagem orientada a objetos com a implementação do banco de dados orientado a objetos. Esta dissertação descreve o desenvolvimento de tal protótipo.

Page generated in 0.3848 seconds