• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Um projeto de banco de dados para o sistema de treinamento

Alice Aiko Tanaka 01 August 1991 (has links)
O objetivo deste trabalho é apresentar um projeto de Banco de Dados para o sistema de treinamento PBDTRE, aqui proposto, que poderá vir a se uma ferramenta de trabalho para os profissionais de treinamento das empresas, na realização das atividades de planejamento e de execução do treinamento do pessoal. Juntamente com o PBDTRE propõe se uma sistematização dessas atividades de treinamento, que inclui a abordagem "top-down" dos problemas e a forma iterativa para alcançar o resultado desejado. Todas as atividades realizadas pela equipe de treinamento podem se definidos com base em três classes de informações, denominadas neste trabalho de visão dos objetivos da empresa e visão de treinamento. Todo o treinamento deve ser realizado de acordo com um planejamento prévio, conforme as metas e a realidade das empresas, procurando se dessa forma, obter para ela o máximo de retorno. Finalmente, o trabalho mostra também como as técnicas de engenharia de software forem utilizadas para o desenvolvimento do PBDTRE.
422

Uma abordagem para a publicação de dados abertos ligados obtidos a partir de bases de dados relacionais

Clayton Martins Pereira 18 December 2012 (has links)
Este trabalho tem como objetivo apresentar uma proposta de abordagem para facilitar e automatizar a publicação, na Web Semântica, de dados abertos ligados obtidos a partir de bases de dados relacionais (BDR), por meio da integração entre as diversas ferramentas de software aplicadas neste processo. Oferece ainda uma nova ferramenta que possibilita a customização, de forma semi-automática, do arquivo de mapeamento gerado, a fim de incorporar a este uma ontologia de domínio fornecida pelo usuário. A abordagem proposta, chamada de RDB2LOD, apresenta como diferencial a automatização, implementada por meio de um aplicativo (interface gráfica), das ferramentas para a geração e customização do mapeamento entre a BDR e o modelo de dados RDF, e para a visualização e consulta dos dados abertos ligados obtidos a partir deste mapeamento. Dois estudos de caso foram aplicados a essa abordagem visando comprovar seu desempenho e eficácia. É apresentado ainda um estudo comparativo entre consultas formuladas em linguagem SQL e consultas equivalentes formuladas em linguagem SPARQL. Este estudo mostra que as consultas em linguagem SPARQL se apresentam como uma alternativa às consultas em linguagem SQL para a visualização dos dados de uma BDR por meio da Web.
423

Reconhecimento de faces via técnicas de autovetores.

Valderado Rodrigues Palma 00 December 1998 (has links)
Este trabalho investiga o problema de reconhecimento de faces utilizando Sistemas de Reconhecimento Facial (SRFs) baseados na extração de características via técnicas de autovetores, objetivando propor combinações dessas técnicas, comparar o desempenho em situações de interesse e analisar o comportamento de redes neurais como classificador. Para extração de características são utilizadas as técnicas Linear Discrimiant Analysis (LDA) e Principal Component Analysis (PCA). Inicialmente, de modo a explicar o problema de reconhecimento de faces, é apresentada uma breve revisão sobra a literatura relativa ao tema, destacando-se os trabalhos Goudail et alii (1996) e Neto (1997) que são fundamentais para as propostas desenvolvidas na presente dissertação. Na seqüência, de modo a analisar detalhadamente as técnicas utilizadas nestes trabalhos, os sistemas de reconhecimento facial são divididos em três etapas, a saber, descrição da face, extração de características e classificação. A seguir, é formado o banco de dados ITA, contendo 400 imagens faciais de pessoas da Divisão de Engenharia Eletrônica do Instituto Tecnológico de Aeronáutica (ITA), e o sistema de aquisição de imagens utilizado na sua construção são apresentados. Este banco de dados ORL (Samaria, 1994) são utilizados nas avaliações de desempenho com o objetivo de testar os métodos e o comportamento destes a variações nas disposições das faces presentes em cada base de dados. Na seqüência, o SRF baseado em LDA (SRF-LDA) é implementado. Os resultados da avaliação dos bancos de dados mostram um desempenho satisfatório. Com o objetivo de comparação, o mesmo procedimento é realizado para o SRF baseado em PCA (SRF-PCA), concluindo-se que melhor desempenho é obtido no SRF-LDA. Em seguida propõe-se um SRF que utiliza uma combinação das técnicas LDA e PCA (SRF+PCA+LDA). Esta combinação utiliza extração de características com descrição da face através de vetores de intensidade de pixel, realiza um mapeamento que otimiza a relação de distâncias interclasse e intraclasse, diminui o número de coeficientes necessários para se representar uma face e melhora o desempenho de processo de reconhecimento. Finalmente, uma vez que rede neural é classicamente utilizada como classificador, propõe-se sua utilização tanto no SRF-PCA, quanto para o SRF-PCA+LDA. O classificador baseado em redes neurais melhora o desempenho do reconhecimento em ambos os casos.
424

Uma análise comparativa das tecnologias de banco de dados relacional e de banco de dados nativamente orientado a objetos.

Anderson Evandro Simeão da Silva 00 December 2003 (has links)
O aumento constante de informações manipuladas nos diversos setores administrativos da sociedade moderna nos últimos anos tem provocado buscas constantes por inovações tecnológicas e aperfeiçoamento das atividades dos desenvolvedores de sistemas computadorizados. No caso específico dos setores públicos federais, estaduais e municipais, os desenvolvedores de sistemas de software têm buscado diferentes formas de inovação e aperfeiçoamento, por meio do uso de novas tecnologias. Dentre as principais tecnologias emergentes que podem ser aplicadas nos diversos setores públicos encontra-se a tecnologia dos Sistemas Gerenciadores de Banco de Dados Nativamente Orientados a Objetos (SGBDOO). Com a finalidade de contribuir com o estudo dessas novas tecnologias, este trabalho de pesquisa descreve a experiência da comparação do funcionamento de um Sistema de Informação cuja implementação se deu utilizando-se dois modelos diferentes de Bancos de Dados - os Relacionais e os Orientados a Objetos. Para propiciar verificação e validação da análise comparativa da aplicação das duas tecnologias, de Bancos de Dados Relacionais e Nativamente Orientados a Objetos, durante a realização deste trabalho de pesquisa, foi desenvolvido um Protótipo do Sistema Fazendário - SIFAN, aplicando metodologias já existentes. O protótipo foi utilizado para comparar as diversas características inerentes aos Sistemas Gerenciadores de Bancos de Dados (SGBDs) de modelos diferentes, analisar e comentar o resultado destas comparações. Com a realização deste trabalho de pesquisa, o autor pôde reunir argumentos suficientes para concluir, com sucesso, que a nova tecnologia dos Bancos de Dados Nativamente Orientados a Objetos será, dentro de um curto prazo, a melhor alternativa tecnológica para utilização de bancos de dados para sistemas de informação, não somente nos setores públicos, mas também em outros setores.
425

Metodologia para coleta de dados para atualização cadastral e elaboração de cartas de aeródromo e cartas de estacionamento de aeronaves

Eimar Alves de Melo 30 January 2014 (has links)
Com o crescimento do tráfego aéreo, tanto na esfera global como nacional, surgiu a necessidade de se lidar seguramente com mais tráfego no mesmo espaço aéreo, ao mesmo tempo. Com isso, houve a necessidade de desenvolvimento de novas ferramentas e técnicas baseadas em informações cada vez mais precisas, disponíveis no tempo e no lugar corretos. Portanto, uma melhor Informação Aeronáutica é essencial para um sistema de Gerenciamento de Tráfego Aéreo integrado e interoperável. Este estudo objetiva apresentar uma metodologia para coleta de dados para Atualização Cadastral de Aeródromos e Cartas de Aeródromo e de Estacionamento de Aeronaves, a ser utilizada no âmbito da Infraero, ressaltando a importância de que os órgãos que terão a responsabilidade de captação, processamento e disponibilização de dados estejam cientes das aplicações dessas informações e determinem requisitos de qualidades desses dados. A execução do trabalho, que resultou na estruturação de um Sistema de Informações Geográficas do Aeroporto de Natal, seguiu a seguinte sequência de eventos: definição dos critérios para a seleção da área da imagem a ser adquirida, descrição de requisitos através de uma especificação técnica para as imagens de satélite, os requisitos para o levantamento planialtimétrico e inserção de informações temáticas utilizadas para a elaboração de produtos cartográficos.
426

MIDC - um método de inferência difusa para classificação em banco de dados

Strauss Cunha Carvalho 24 June 2014 (has links)
Este trabalho propõe um Método de Inferência Difusa para Classificação em Banco de Dados, denominado MIDC, visando aumentar a eficiência no tratamento de incertezas e imprecisões nas recuperações e classificações de informações a fim de tratá-las, qualitativamente, de modo semelhante ao raciocínio humano. Deste modo, propicia-se aos sistemas de Banco de Dados, por meio da utilização de termos qualitativos (linguísticos), as capacidades de recuperar, classificar e manipular informações, representando-as além das fronteiras da Lógica Clássica. O método proposto utiliza-se de um Sistema de Inferência Difusa (SID), composto de uma base de regras e um mecanismo de inferência, aplicável, também, na tarefa de Classificação da etapa de Mineração de Dados (Data Mining - DM) do Processo de Descoberta de Conhecimento em Banco de Dados (Knowledge Discovery in Databases - KDD). O m ?todo proposto foi verificado em um estudo de caso que propiciou realizar experimentos com grandes volume de dados, a fim compará-lo com um método tradicional de consulta e classificação em Bancos de Dados. Deste modo, propiciou-se uma comparação entre a recuperação e classificação de informações, utilizando-se Lógica Difusa e Lógica Clássica.
427

Data Warehouse utilizando processamento paralelo em ambiente distribuído. / Data Warehouse using parallel programming in an environment distributed.

Ruggiero Júnior, Waldemar 02 July 2007 (has links)
Esse trabalho propõe uma solução de um Data Warehouse distribuído para implementação de um sistema de CRM, Customer Relationship Management, com o objetivo de uso no ambiente bancário possibilitando que ações de relacionamento com clientes sejam planejadas e implementadas. É proposta uma arquitetura para implementação de um Data Warehouse em ambiente distribuído, utilizando programação paralela. Com o aumento no volume de dados armazenados nos Data Warehouse, as arquiteturas tradicionais exigem processadores e sistemas de entrada e saída cada vez mais robustos em termos de desempenho. Isso fica mais bem caracterizado quando são executadas procuras complexas (Ad hoc). A utilização de ambientes distribuídos em conjunto com programação paralela é uma alternativa para redução de custo e aumento de desempenho. É apresentada, aqui, uma proposta de arquitetura de Data Warehouse distribuído, integrado ao uso de programação paralela. / This lecture proposes a solution for Data Warehouse in an distributed environment for implementation of a CRM, Customer Relationship Management in a banking system. It\'s possible to create, plan and implement relationship actions with clients. Architecture is proposed for implementation of a Data Warehouse in a distributed environment, using parallel programming. With the increase of volume of data stored in Data Warehouse, the traditional architectures needs high performance in terms of processors and input and output systems. This kind of problem is well characterized when high complex queries (Ad hoc) is performed. Using distributed environment, together with parallel programming is a good choice to increase the performance and reduce cost. It\'s presented, here, a proposal for architecture of distributed Data Warehouse, integrated with the use of parallel programming.
428

Modelagem de processo de extração de conhecimento em banco de dados para sistemas de suporte à decisão. / Modeling of knowledge discovery in databases for decision systems.

Shiba, Sonia Kaoru 26 June 2008 (has links)
Este trabalho apresenta a modelagem de um processo de extração de conhecimento, onde a aquisição de informações para a análise de dados têm como origem os bancos de dados transacionais e data warehouse. A mineração de dados focou-se na geração de modelos descritivos a partir de técnicas de classificação baseada no Teorema de Bayes e no método direto de extração de regras de classificação, definindo uma metodologia para a geração de modelos de aprendizagem. Foi implementado um processo de extração de conhecimento para a geração de modelos de aprendizagem para suporte à decisão, aplicando técnicas de mineração de dados para modelos descritivos e geração de regras de classificação. Explorou-se a possibilidade de transformar os modelos de aprendizagem em bases de conhecimento utilizando um banco de dados relacional, disponível para acesso via sistema especialista, para a realização de novas classificações de registros, ou então possibilitar a visualização dos resultados a partir de planilhas eletrônicas. No cenário descrito neste trabalho, a organização dos procedimentos da etapa de pré-processamento permitiu que a extração de atributos adicionais ou transformação de dados fosse realizada de forma iterativa, sem a necessidade de implementação de novos programas de extração de dados. Desta forma, foram definidas todas as atividades essenciais do pré-processamento e a seqüência em que estas devem ser realizadas, além de possibilitar a repetição dos procedimentos sem perdas das unidades codificadas para o processo de extração de dados. Um modelo de processo de extração de conhecimento iterativo e quantificável, em termos das etapas e procedimentos, foi configurado vislumbrando um produto final com o projeto da base de conhecimento para ações de retenção de clientes e regras para ações específicas com segmentos de clientes. / This work presents a model of knowledge discovery in databases, where the information for data analysis comes from a repository of transactional information systems and data-warehouse. The data mining focused on the generation of descriptive models by means of classification techniques based on the Bayes\' theorem and a extraction method of classification rules, defining a methodology to propose new learning models. The process of knowledge extraction was implemented for the generation of learning models for support the make decision, applying data mining for descriptive models and generation of classification rules. This work explored the possibility of transforming the learning models in knowledge database using a relational database, to be accessible by a specialist system, to classify new records or to allow the visualization of the results through electronic tables. The organization of the procedures in the pre-processing allowed to extract additional attributes or to transform information in an interactive process, with no need of new programs to extract the information. This way, all the essential activities of the pre-processing were defined and the sequence in which these should be developed. Additionally, this allowed the repetition of the procedures with no loss of units for the process of information extraction. A model of process for the interactive and quantifiable extraction of knowledge, in terms of the stages and procedures, was idealized in order to develop a product with the project of the knowledge databases for actions of retention of clients and rules for specific actions within clients\' segments.
429

"Tabela Brasileira de Composição de Alimentos - USP: banco de dados de alimentos industrializados" / Brazilian Food Database - USP: Industrialized foods database.

Ito, Maria Stella Bonin 17 February 2003 (has links)
Informações sobre composição de alimentos são de grande importância em qualquer estudo sobre nutrição humana. A Rede Brasileira de Dados de Composição de Alimentos (BRASILFOODS) coordena as atividades nacionais sobre composição de alimentos e está ligada a Rede Latino-Americana de Dados de Composição de Alimentos (LATINFOODS), responsável pela elaboração da Tabela de Composição da América Latina. A Tabela Brasileira de Composição de Alimentos – Universidade de São Paulo (TBCA–USP) foi desenvolvida pelo BRASILFOODS e está disponível na Internet (http://www.fcf.usp.br/tabela), contendo dados sobre composição centesimal, fibra alimentar, vitamina A e carotenóides, ácidos graxos e colesterol e amido resistente. Com a finalidade de ampliar as informações contidas no Web site, este trabalho teve por objetivo compilar e avaliar informações sobre a composição de alimentos industrializados. De acordo com as pesquisas de orçamentos familiares do Instituto Brasileiro de Geografia e Estatística (IBGE) e da Fundação Instituto de Pesquisas Econômicas (FIPE) foi observada a inclusão de novos produtos industrializados nos hábitos de consumo da população da Grande São Paulo, demonstrando, assim, a necessidade de informações detalhadas sobre a composição química destes alimentos. Para a obtenção destas informações foi possível contar com a colaboração de empresas do setor alimentício e laboratórios oficiais que forneceram laudos analíticos, bem como informações analíticas detalhadas. Os dados obtidos foram criteriosamente avaliados, considerando as diversas etapas envolvidas neste processo, desde o plano de amostragem até o controle de qualidade analítico. Após a compilação e avaliação, a composição centesimal de 747 alimentos industrializados foram introduzidas no Web site e as informações obtidas estão distribuídas de acordo com os seguintes grupos de alimentos: cereais e derivados (157); vegetais e derivados (21); gorduras e óleos (26); carnes e derivados (137); leites e derivados (85); açúcares e doces (42); e outros produtos (279). Com a ampliação de informações da TBCA – USP, os profissionais têm acesso a dados atualizados, criteriosamente avaliados e mais próximos do perfil de consumo da população. / Data about food composition are very important to any study of human nutrition. The Brazilian Network of Food Data Systems (BRASILFOODS) has been coordinating the national activities about food composition and is linked to the Latin American Network of Food Data Systems (LATINFOODS) which is responsible for the elaboration of the Latin America database. The Brazilian Food Composition Database was developed by BRASILFOODS and is available the Internet (http://www.fcf.usp.br/tabela). It contains data on proximal composition, dietary fiber, vitamin A and carotenoids, fatty acids and cholesterol and also resistant starch. The main objective of the present work is to compile and evaluate data about composition of industrialized foods in order to increase data on the Web site. According to the Familiar Budget Research developed by Instituto Brasileiro de Geografia e Estatística (IBGE) and Fundação Instituto de Pesquisas Econômicas (FIPE), new products have been included in the consumption habits of the population of Sao Paulo and its region, what shows a need of further information about those foods chemical composition. In this respect, analytical results and detailed analytical information were provided by companies as well as official laboratories. The data were criteriously evaluated, considering the several steps involved in the process, from the sample plan to the analytical quality control. The proximal composition of 747 industrialized foods were included in the Web site and these data are divided according to the following food groups: cereals and derivates (157); vegetables and derivates (21); fats and oils (26); meat and derivates (137); milk and derivates (85); sugar and sweets (42); and other products (279). Due to such expansion of the Brazilian Food Composition Database, professionals have access to updated data which have been carefully evaluated and are now closer to the population consumption profile.
430

Método de sistematização e levantamento de dados para o estudo da relação de acidentes com o alinhamento em planta e perfil de uma rodovia / A data collection and systematization method to study the relation of accidents with horizontal and vertical alignment of the road

Lotti, Cynthia Perpétua 28 June 2002 (has links)
Neste trabalho é proposto um método de levantamento e sistematização de dados que são relevantes para a investigação da relação de acidentes em uma rodovia com algumas características físicas básicas como raio das curvas horizontais e verticais, declividade e comprimento de rampas. Para restituição da geometria é proposta a utilização do sistema GPS no modo cinemático, modo este que apresenta uma série de vantagens sobre os instrumentos clássicos de topografia. Com objetivo de definir os locais de início e fim das retas, rampas e curvas, tanto horizontais como verticais, foi elaborado um método baseado na derivada dos dados levantados com o GPS. O processo de separação proposto foi testado com dados coletados ao longo de 32 km de uma rodovia. Da mesma forma, o método foi validado com dados teóricos de exemplos simulados, dados do projeto executivo da mesma rodovia e com dados coletados com uma Estação Total em um trecho de 3 km. Todas as validações mostraram uma boa aderência do método com relação aos dados originais. Aos dados da geometria foram incorporados os dados de acidentes em um SIG utilizando software TRANSCAD 1 . Os dados de acidentes foram armazenados através de um programa em ACCESS desenvolvido por alunos de graduação da EESC. Com todas as informações disponíveis foi possível verificar que existe uma forte relação entre a geometria da rodovia e os acidentes envolvendo veículos de carga em trechos de baixa velocidade, onde colisão traseira e abalroamento lateral ocorrem quando o condutor não avalia corretamente a velocidade do veículo à sua frente devido a grande diferença de velocidades. / In this work, a surveying and systematization method of relevant data to investigate the relation between highway accidents and basic geometric characteristics of the road like horizontal and vertical curve radius, length and slope of ramps is proposed. For the geometric restitution, the kinematic GPS method is proposed as it shows several advantages over classical topography instruments. In order to define the beginning and end of tangents, ramps and both horizontal and vertical curves, a method based on the derivates of GPS data was developed. The proposed separation process was tested with data collected along a 32 km road section. Futhermore, the method was validated with theoretical simulation examples, data from an construction plans of this same highway section and data collected with a Total Station at a 3 km section. All validations showed good adherence of the method representing the original data. Accident data were incorporated to the geometry data in a GIS. In this process the software, TRANSCAD was chosen. The accident data were stored in an ACCESS database developed by EESC undergraduated students. With the data available, it was possible to verify that there is a strong relation of vertical geometry of the road and accident involving trucks at low speed sections, where rear end and lateral collision of overtaken trucks occur because the driver of the approaching vehicle evaluates the speed of the leading or overtaken vehicle incorrectly due to the large difference of speeds.

Page generated in 0.0188 seconds