• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5456
  • 710
  • 315
  • 94
  • 36
  • 13
  • 9
  • 9
  • 9
  • 9
  • 7
  • 7
  • 6
  • 4
  • 3
  • Tagged with
  • 6676
  • 3915
  • 856
  • 696
  • 415
  • 392
  • 392
  • 390
  • 377
  • 360
  • 359
  • 354
  • 354
  • 330
  • 319
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Avaliação da acurácia vertical do modelo SRTM para o Brasil

Orlandi, Alex Gois 12 December 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Humanas, Departamento de Geografia, Programa de Pós-Graduação em Geografia, 2016. / Submitted by Camila Duarte (camiladias@bce.unb.br) on 2017-01-27T16:05:35Z No. of bitstreams: 1 2016_AlexGoisOrlandi.pdf: 5562413 bytes, checksum: 7492f51d69ee31272cd2c8892a56288d (MD5) / Approved for entry into archive by Ruthléa Nascimento(ruthleanascimento@bce.unb.br) on 2017-03-06T16:52:37Z (GMT) No. of bitstreams: 1 2016_AlexGoisOrlandi.pdf: 5562413 bytes, checksum: 7492f51d69ee31272cd2c8892a56288d (MD5) / Made available in DSpace on 2017-03-06T16:52:37Z (GMT). No. of bitstreams: 1 2016_AlexGoisOrlandi.pdf: 5562413 bytes, checksum: 7492f51d69ee31272cd2c8892a56288d (MD5) / Esse trabalho tem como objetivo determinar a acurácia vertical do Modelo Digital de Elevação (MDE) interferométrico obtido a partir das várias versões provenientes do Shuttle Radar Topographic Mission (SRTM) em todo o Brasil, comparando-os com 1.087 pontos medidos diretamente em campo, obtidos com rastreadores Global Navigation satellite System (GNSS) ou métodos de topografia. Esses pontos foram utilizados para o apoio básico às restituições aerofotogramétricas utilizadas nos estudos de inventários hidrelétricos ou projetos básicos de usinas hidrelétricas em território brasileiro. Neste trabalho, são comparados os seguintes MDEs: a) modelo disponibilizado pela EMBRAPA, b) modelo Hydrological data and maps based on Shuttle Elevation Derivatives at multiple Scales (HydroSHEDS), fornecido pelo United States Geological Survey (USGS) c) Consultative Group for International Agricultural Research- Consortium for Spatial Information (CGIAR_CSI), e d) Jhonatan Ferranti. Neste estudo, o Brasil foi divido em faixas com 4º de latitude, visando à distribuição mais homogênea possível dos dados de campo e minimizando a possibilidade de ocorrência de grandes áreas sem medições. Os resultados demonstraram que a acurácia vertical do Modelo fornecido pelo SRTM varia ao longo do território brasileiro, apresentando para os 1.087 pontos distribuídos no Brasil: erro médio de 8,96m e desvio-padrão de 11,20m para os modelos da EMBRAPA; erro médio de 0,24m e desviopadrão de 12,70m para o HydroSHEDS; erro médio de 9,78m e desvio-padrão de 8,16m para CGIAR-CSI; erro médio de 6,33m e desvio-padrão de 7,22m para Jhonatan Ferranti. Além disso, no conjunto dos 1.087 pontos, todos os Modelos podem ser classificados no Padrão de Exatidão Cartográfica como “A” para a escala de 1:100.000, mas podem apresentar resultados melhores em termos locais. Também foram evidenciadas as influências direta da declividade e da vegetação na acurácia altimétrica dos pontos. Tais conclusões reforçam a ideia de que o usuário deve ter a exata noção da acurácia esperada do Modelo e que sua acurácia altimétrica também varia em razão da fonte em que o modelo é obtido, apesar de possuir a mesma resolução espacial. Assim, tais fatores são importantes, mas não diminuem o valor agregado por esse Modelo gratuito para muitos estudos que sejam compatíveis com a escala indicada para sua utilização. / This work aims at determine the vertical accuracy of the Interferometric Digital Elevation Model (DEM) obtained from the various versions of the Shuttle Radar Topographic Mission (SRTM) throughout Brazil, comparing them with 1,087 points measured directly in the field, which were obtained With Global Navigation Satellite System (GNSS) trackers or topography methods. These points were used for the basic support to aerophotogrammetric restitutions used in the studies of hydroelectric inventories or basic projects of hydroelectric plants in Brazilian territory. In this work, the following DEMs are compared: a) model provided by EMBRAPA, b) Hydrological data model and maps based on Shuttle Elevation Derivatives at multiple Scales (HydroSHEDS), provided by the United States Geological Survey (USGS) c) Consultative Group for International Agricultural Research-Consortium for Spatial Information (CGIAR_CSI), and d) Jhonatan Ferranti. In this study, Brazil was divided into 4º latitude bands, aiming at the most homogeneous distribution of field data and minimizing the possibility of large areas without measurements. The results showed that the vertical accuracy of the Model provided by the SRTM varies throughout the Brazilian territory, presenting for the 1,087 points distributed in Brazil: Mean error of 8.96m and standard deviation of 11.20m for EMBRAPA models; Mean error of 0.24m and standard deviation of 12.70m for the HydroSHEDS; Mean error of 9.78 m and standard deviation of 8.16 m for CGIAR-CSI; Mean error of 6.33m and standard deviation of 7.22m for Jhonatan Ferranti. In addition, for all 1,087 points, all Models can be classified as Cartographic Accuracy Standard as "A" for the 1: 100,000 scale but may present better results locally. The direct influences of slope and vegetation on the altimetric accuracy of the points were also evidenced. These conclusions reinforce the idea that the user must have the exact notion of the expected accuracy of the Model and that its altimetric accuracy also varies due to the source in which the model is obtained, despite having the same spatial resolution. Thus, these factors are important but do not diminish the value added by this free model for many studies that are compatible with the scale indicated for their use.
302

Sensoriamento de espectro em sistema de rádio cognitivo com desvanecimento composto

Silva, Wanessa de Alvarenga 10 August 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2015. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-01-04T16:32:12Z No. of bitstreams: 1 2015_WanessadeAlvarengaSilva.pdf: 4783306 bytes, checksum: 4bba54eb177b0026d674cbcea99df29e (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-02-15T20:11:37Z (GMT) No. of bitstreams: 1 2015_WanessadeAlvarengaSilva.pdf: 4783306 bytes, checksum: 4bba54eb177b0026d674cbcea99df29e (MD5) / Made available in DSpace on 2016-02-15T20:11:37Z (GMT). No. of bitstreams: 1 2015_WanessadeAlvarengaSilva.pdf: 4783306 bytes, checksum: 4bba54eb177b0026d674cbcea99df29e (MD5) / O desejo pela evolução dos sistemas de telecomunicações e as questões relativas à escassez es- pectral impulsionam o desenvolvimento de tecnologias de comunicação sem fio mais eficientes e mais inteligentes. Pautado neste paradigma tecnológico, este trabalho apresenta e investiga a análise de sistemas de rádios cognitivos com ênfase em sensoriamento espectral baseado em detecção de energia, operando em canais modelados pelas distribuições compostas Nakagami- m/Gamma e κ-μ sombreada. Investigam-se as probabilidades de detecção, de alarme falso e de perda de detecção em cenários de sensoriamento simples e cooperativo. Medidas de campo são utilizadas para investigar a utilidade prática dos modelos compostos Nakagami-m/Gamma e κ-μ sombreado, ilustrando o excelente ajuste destas distribuições a dados obtidos em ambien- tes reais. Comparando os modelos de desvanecimento tradicionais com os modelos compostos, observa-se a vantagem em se modelar canais com distribuições compostas, uma vez que estas caracterizam os canais de modo mais realístico. A fim de ampliar a análise de modelos de des- vanecimento compostos, esta dissertação propõe e realiza uma investigação prática da função de densidade de probabilidade (PDF) e da função de densidade acumulativa (CDF) da distribuição composta α-μ/α-μ que é um resultado recente na literatura. A distribuição composta α-μ/α-μ, que descreve mutuamente os efeitos dos desvanecimentos de pequena e de larga escala, pode ser considerada uma importante ferramenta matemática para modelar uma ampla variedade de canais de comunicação. A presente investigação inclui comparações entre PDFs e CDFs teóri- cas e práticas. A análise foi realizada para sistemas de comunicação operando em 700 MHz, 1800 MHz e 2500 MHz, em ambientes urbanos típicos. Os resultados comprovam a utilidade, a eficiência e a flexibilidade do modelo α-μ/α-μ e a investigação abordada proporciona uma base informativa para uma posterior análise em sistemas de rádios cognitivos. _______________________________________________________________________________________________ ABSTRACT / The desire for the telecommunications systems evolution and the issues relating to spectral shortages drive the development of more efficient and smarter wireless communication techno- logies. Guided in this technological paradigm, this paper presents and investigates the analysis of cognitive radio systems with emphasis in spectrum sensing based on energy detection, under Nakagami-m/Gamma and κ-μ shadowed channels. The detection probability, false alarm pro- bability and the missing probability in single and cooperative sensing scenarios are investigated. Field measurements are used to investigate the practical use of the Nakagami-m/Gamma and κ-μ shadowed composite models. It can be observed that excellent fit of these distributions to data in real environments. There is the advantage in shaping channels with composite distri- butions, comparing the traditional fading models against composite fading models, since these characterize the channels more realistically. In order to expand the analysis of composite fading models, this paper proposes and carries out the practical research of the α-μ/α-μ probability density function (PDF) and cumulative density function (CDF) which are a recent result in the literature. The composite distribution α-μ/α-μ, describes the effects of fast and slow fading, it can be considered as an important mathematical tool for modeling a wide variety of commu- nication channels. This research includes comparisons between theoretical and practical PDFs and CDFs. The analysis was performed for radio channels operating at 700 MHz, 1800 MHz and 2500 MHz in typical urban environments. The results show the usefulness, efficiency and flexibility of the α-μ/α-μ model and the presented investigation provides information for pos- terior analysis based on cognitive radio systems.
303

Um modelo para aferir o nível de maturidade na adoção de SOA / A model to assess the maturity level in SOA adoption

Mazzarolo, Claynor Fernando 01 1900 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2015. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2016-02-18T15:35:49Z No. of bitstreams: 1 2015_ClaynorFernandoMazzarolo.pdf: 27658106 bytes, checksum: a845c062176dcbbfcd55e3b05d1e0985 (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2016-07-30T11:38:50Z (GMT) No. of bitstreams: 1 2015_ClaynorFernandoMazzarolo.pdf: 27658106 bytes, checksum: a845c062176dcbbfcd55e3b05d1e0985 (MD5) / Made available in DSpace on 2016-07-30T11:38:50Z (GMT). No. of bitstreams: 1 2015_ClaynorFernandoMazzarolo.pdf: 27658106 bytes, checksum: a845c062176dcbbfcd55e3b05d1e0985 (MD5) / Esta tese propõe um modelo para aferir e acompanhar a evolução do nível de maturidade na adoção de arquitetura orientada a serviços (SOA) nas organizações. O modelo é concebido por parametrização de base de conhecimento de melhores práticas, visando suportar a avaliação, o planejamento e o acompanhamento da evolução da maturidade organizacional. Sua concepção estende significativamente o modelo The Open Group Service Integration Maturity Model (OSIMM), de modo a permitir o monitoramento direto dos objetivos estratégicos de SOA (agilidade, redução de custos, interoperabilidade, padronização e alinhamento entre negócio e tecnologia) e de suas práticas fundamentais (ciclo de vida de serviços e aplicação dos princípios de projeto). O modelo proposto está dividido em sete domínios (negócio, organização e governança, métodos e práticas, aplicações e arquitetura, informação, tecnologia e infraestrutura, operação e gerenciamento). A avaliação é realizada de modo qualitativo e quantitativo, com aplicação dos conceitos de avaliação de maturidade definidos pelo Capability Maturity Model Integration (CMMI), com classificação, por domínio, em cinco níveis (inicial, gerenciado, definido, gerenciado e otimizado). O modelo proposto se distingue do CMMI por focar práticas e especificidades de orientação a serviços e, também, a representação da maturidade foi concebida para diferenciar seu nível se em evolução ou estabilização. A aplicação do modelo foi suportada por uma solução de software que disponibiliza os questionários eletrônicos da base de conhecimento e realiza classificação de maturidade através de um método heurístico próprio. O modelo apresentado foi empregado em estudo de caso em uma organização no Brasil, de modo a demonstrar a sua aplicabilidade prática. / This thesis presents a model for maturity assessment using Service Oriented Architecture (SOA). The model is designed through the parameterization of best practices knowledge base in order to support the continued evaluation, planning and monitoring of the organizational maturity’s evolution. Its concept significantly extends The Open Group Service Integration Maturity Model (OSIMM), allowing direct monitoring of SOA’s strategic goals (agility, cost reduction, interoperability, standardization and alignment between business and technology) and its fundamental practices (services lifecycle and design principles). The proposed model is divided into seven domains (business, organization and governance, methods and practices, applications and architecture, information technology and infrastructure, operation and management). The evaluation is carried out qualitatively and quantitatively, applying maturity assessment concepts defined by the Capability Maturity Model Integration (CMMI) which are classified, per domain, in five levels (initial, managed, defined, managed and optimizing). The proposed model distinguishes itself from CMMI by focusing on service orientation’s practices and specificities, and also on the maturity’s representation – which was conceived in order to differentiate its level, whether in evolution or stabilization. The application of the model is supported by a software system that provides the knowledge base’s electronic questionnaires and performs classification of maturity through its own heuristic method. In order to demonstrate its practical applicability, the presented model was employed in a case study within a Brazilian organization.
304

Ligação de entidades : uma nova abordagem para ligação de conceitos concretos com entidades Wiki utilizando modelos de espaço vetorial

Monteiro, Lucas Borges 20 August 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2015. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-03-01T15:11:50Z No. of bitstreams: 1 2015_LucasBorgesMonteiro.pdf: 2501324 bytes, checksum: 822b62f3519f2fdb78690b004ea37537 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-04-07T18:50:42Z (GMT) No. of bitstreams: 1 2015_LucasBorgesMonteiro.pdf: 2501324 bytes, checksum: 822b62f3519f2fdb78690b004ea37537 (MD5) / Made available in DSpace on 2016-04-07T18:50:42Z (GMT). No. of bitstreams: 1 2015_LucasBorgesMonteiro.pdf: 2501324 bytes, checksum: 822b62f3519f2fdb78690b004ea37537 (MD5) / Ligação de Entidades (LE) é um importante tópico de pesquisa com diversas aplicações web. Apesar do crescente interesse o foco ainda tem sido a identificação de nomes próprios, isto é, pessoas, organizações, lugares, unidades de medida, etc. O principal desafio aqui é encontrar conceitos concretos (sentenças sem classe de entidade pré-definida) em textos da web conectando-os às respectivas páginas da Wikipédia. Este trabalho apresenta uma nova abordagem para ligar conceitos concretos obtidos de textos em Inglês com entidades Wiki, neste trabalho representadas por páginas da Wikipédia, utilizando classificação gramatical (part-of-speech) para detectar conceitos concretos e Modelos de Espaço Vetorial (MEV) para realizar a desambiguação das entidades Wiki selecionadas da base. A solução, denominada UnBWiki VSM, foi implementada em Java, por meio da IDE Eclipse, com banco de dados MySQL onde a base de entidades foi armazenada. O framework proposto foi ajustado para trabalhar com uma base de Wikilinks, referências para páginas da Wikipédia extraídas de diferentes páginas da web, contendo por volta de 2,8 milhões de entidades e 18 milhões de palavras, e obteve recall 34,2% superior ao obtido pela metodologia existente que utilizou os mesmos dados/entidades. Como estudo de caso, textos sobre a História da Família Real Britânica extraídos da web foram analisados manualmente, e o recall de 73,5% obtido pela ferramenta UnBWiki VSM foi ainda maior do que o verificado na comparação com o estado da arte. _______________________________________________________________________________________________ ABSTRACT / Entity Linking (EL) is an important research topic with several web applications. Despite the growing interest the focus also has been on the identification of proper names, i.e, people, organizations, places, units of measure, and others. The main challenge here is to find concrete concepts (sentences without predefined entity class) on web texts by linking them to their respective pages of Wikipedia. This paper presents a new approach to connect concrete concepts taken from texts in English with Wiki entities, in this work represented by the Wikipedia pages, using classification part-of-speech to detect concrete concepts and Vector Space Models (VSM) to perform the disambiguation of entities selected from Wiki base. The solution, called UnBWiki VSM, was implemented in Java using the Eclipse IDE with MySQL database where the base of entities was stored. The proposed framework was adjusted to work with a Wikilinks database, references to Wikipedia pages drawn from different web pages, containing approximately 2.8 million entities and 18 million words, and obtained recall 34.2% higher than the existing methodology that used the same data/entities. As a case study, Royal Family History texts extracted from the web were analyzed manually, and the recall of 73.5% obtained by UnBWiki VSM tool was greater than that observed in comparison with the state of the art.
305

Matéria escura e o modelo do dubleto inerte /

Luiz, Vivian Ventura Ferreira. January 2017 (has links)
Orientador: Eduardo Pontón Bayona / Banca: Enrico Bertuzzo / Banca: Ricardo D'Elia Matheus / Resumo: O problema da matéria escura é uma das questões abertas da cosmologia e da física de partículas. Inúmeras observações, em diferentes escalas astronômicas, sustentam que a quantidade de matéria luminosa presente não é capaz de explicar o comportamento observado. A solução para esta inconsistência foi obtida através da introdução de uma nova forma de matéria que, não interagindo com a luz, foi intitulada por matéria escura. O Modelo Padrão da Cosmologia indica que esta componente contribui com mais de 80% da densidade de matéria no Universo, deve ser estável, não relativística e sua densidade relíquia deve combinar com as medidas obtidas pelas flutuações da CMB. Apesar disso, a natureza da matéria escura ainda é um mistério. Entre as partículas candidatas à matéria escura os mais populares são os chamados WIMPs. Esta espécie é considerada uma relíquia térmica e podem fornecer uma abundância compatível com a observada. Nesta direção, o presente trabalho então, trata uma extensão do Modelo Padrão da Física de Partículas, uma vez que este modelo não fornece nenhuma partícula apropriada à matéria escura, chamada Modelo do Dubleto Inerte, que é obtido adicionando um novo dubleto escalar por meio de uma simetria Z_2 que desenvolve uma configuração de vácuo trivial. Dentro do novo espectro de partículas estudamos aquela que parece propor um candidato viável à matéria escura. / Abstract: Abstract: The problem of dark matter is one of the open questions of cosmology and particle physics. Several observations, at di erent astronomical scales, maintain that the amount of light matter present is not able to explain the observed behavior. The solution to this inconsistency was obtained by introducing a new form of matter which, not interacting with light, was titled as dark matter. The Standard Model of Cosmology indicates that this component contributes with more than 80% of the matter density in the Universe, must be stable, non relativistic and its relic density should match with the measurements obtained by the uctuations of the CMB. Despite this, the nature of dark matter is still a mystery. Among the candidate particles for dark matter the most popular are the so-called WIMPs. This species is considered a thermal relic and can provide an abundance compatible with that observed. In this direction, the present work then deals with an extension of the Standard Model of Particle Physics, since this model does not provide any particle appropriate to dark matter, called Inert Doublet Model, which is obtained by adding a new scalar doublet through a Z2 symmetry that develops a trivial vacuum con guration. Inside this new spectrum of particles we study the one that seems to propose a viable candidate to the dark matter / Mestre
306

Impacto del proceso de tronadura en una mina subterránea sobre el desempeño de una planta de Chancado - molienda unitaria

Leyton Arancibia, Felipe Adrián January 2017 (has links)
Ingeniero Civil de Minas / Hoy en día, el negocio minero se sitúa en un escenario bastante negativo, producto de una prolongada tendencia a la baja en el precio de los metales. Frente a esto, es de vital importancia potenciar los sectores productivos, en particular la pequeña y mediana minería, donde esta última mantiene un aporte anual a la producción de cobre de aproximadamente el 5.3% del total nacional, lo que se traduce en cerca de 300 kt/año de cobre. Frente a este escenario, se propone la incorporación de una metodología enmarcada en la noción del Mine to Mill, concepto que ha presentado una muy positiva aplicación en los procesos de gran minería en superficie. Para llevar a cabo esta metodología, se trabajó inicialmente con una base de datos con información histórica de tronadura de una mediana mina subterránea operada por medio del método de Sub-Level Stoping. En la base de datos se destacan 7 sectores productivos, que cuentan con información de la operación de tronadura, caracterización de la roca y parámetros del modelo de distribución granulométrica resultante (Gaudin-Schuhmann). A partir de la información de tronadura, se desarrolló un modelo predictivo de granulometría, orientado a la determinación de los tamaños característicos P80 y P100. Dichos modelos, fueron validados por medio de la metodología de Montecarlo para asegurar la aleatoriedad requerida del proceso, siendo aceptados ambos modelos con correlaciones mayores al 99%, error relativo de ajuste del orden del 5% y errores relativos de validación cercanos al 17% y 11% para el modelo de P80 y P100, respectivamente. En base a los modelos desarrollados, se han generado 3 casos de estudio correspondientes a distintas distribuciones de granulometría: fina, intermedia y gruesa. Estos casos fueron combinados a su vez con tres tipos de minerales, clasificados con diversos niveles de durezas. De esta manera, se generaron 9 escenarios de simulación en estado estacionario para una planta con circuito de conminución típico en mediana minería, obteniéndose diferencias en el consumo energético de 18% para minerales duros y -21% con el caso blando con respecto al caso base. Una vez determinadas las variables de operación de mina y planta de cada uno de los escenarios, estos fueron englobados en un contexto de mercado y estructuras de costos de un caso particular de faena de mediana minería, con el objetivo de realizar una evaluación económica, la cual indicó que para el caso de estudio, los casos de granulometría ROM gruesa obtienen mayor beneficio, cerca del 12% por sobre los casos finos, comparándose con el caso base de cada tipo de mineral. Sin embargo, existen casos en que se puede aprovechar el aumento de aproximadamente el 25% de la capacidad de acopio de gruesos con mantenciones a los equipos aguas abajo. De esta manera, se concluye que la metodología planteada y aplicada al caso de estudio, no genera valor económico utilizando el concepto de Mine to Mill, pero se observa la posibilidad de generar flexibilidad operacional y aprovechar las tasas de acopio, en las diferencias de rendimiento, en mejores limpiezas, mantenciones, u otras alternativas que aumenten la confiabilidad de los procesos. Por otro lado, la implementación en alguna otra faena es factible si se conoce la información requerida para realizar la evaluación económica indicada en el presente estudio.
307

As tecnologias da Web Semântica no domínio bibliográfico /

Silva, Renata Eleutério da. January 2013 (has links)
Orientador: Plácida Leopoldina Ventura Amorim da Costa Santos / Banca: Maria Elisabete Catarino / Banca: Ricardo César Gonçalves Sant'Ana / Resumo: A proposta de uma Web Semântica surgiu como uma alternativa que possibilitaria a interpretação das informações por máquinas, permitindo assim maior qualidade nas buscas e resultados mais relevantes aos usuários. A Web Semântica pode ser utilizada atualmente apenas em domínios restritos, como em sites de comércio eletrônico, devido à dificuldade de representar ontologicamente toda a Web. Objetiva-se verificar como os conceitos, tecnologias, arquiteturas de metadados utilizados pela Web Semântica podem contribuir à construção, modelagem e arquitetura de metadados de catálogos bibliográficos, tomando por base os conceitos definidos no modelo conceitual desenvolvido para a representação do universo bibliográfico denominado Functional Requirements for Bibliographic Records (FRBR), além de explanar sobre a utilização do modelo conceitual como recurso ontológico. A proposta se pauta no estudo de arquiteturas de metadados semânticas, de modo a identificar suas características, funções e estruturas, além de estudar o modelo BIBFRAME (Bibliographic Framework), que se configura como a iniciativa mais recente acerca da implementação de tecnologias da Web à área da Biblioteconomia e Ciência da Informação. Esta pesquisa caracteriza-se por seu caráter teórico-exploratório e foi desenvolvida mediante análise e revisão de literatura sobre seus temas. Os resultados apresentam as principais arquiteturas de metadados utilizadas no contexto da Web Semântica e uma abordagem sobre ontologias, interoperabilidade em sistemas de informação, modelagem de catálogos online, além da apresentação do modelo BIBFRAME, com base em sua importância para a catalogação / Abstract: The proposal of a Semantic Web has emerged as an alternative that would allow the interpretation of information by machines, allowing higher quality in the searches and more relevant results to users. Currently, the Semantic Web can only be used in restricted domains, such as e-commerce sites, due to the difficulty of representing the entire Web ontologically. The objective is to see how the concepts, technologies, architectures, and metadata used by the Semantic Web can contribute to build, model and metadata architecture of bibliographic catalogs, based on the concepts defined in the conceptual model developed for the representation of the bibliographic universe called Functional Requirements for Bibliographic Records (FRBR), and explain about the use of the conceptual model and ontological resource. The proposal is guided in the study of semantic metadata architectures, in order to identify its characteristics, functions and structures, in addition to study the model BIBFRAME (Bibliographic Framework), which constitutes the most recent initiative on implementing Web technologies to the Library and Information Science field. This research is characterized by its theoretical and exploratory character was developed through analysis and review of literature on their subjects. The results show the main architectures used in the metadata context of the Semantic Web and an approach to ontology, interoperability in information systems, modeling catalogs online, besides the presentation of the model BIBFRAME, based on their importance to the Cataloging / Mestre
308

Dinâmica alocativa das áreas produtivas (lavoura e pecuária) da mesorregião de araçatuba: uma análise Shift-Share para o período 2006-2014 / Dynamic allocative of productive areas (crop and livestock ) of mesoregion Araçatuba : a Shift -Share analysis for the period 2006-2014

Menegassi, Rodrigo Ferreira [UNESP] 02 September 2016 (has links)
Submitted by Rodrigo Ferreira Menegassi null (rodrigo81065@aluno.feis.unesp.br) on 2016-11-01T18:23:16Z No. of bitstreams: 1 Menegassi Rodrigo Ferreira.pdf: 1271376 bytes, checksum: 9f75b9ab349d8a308b3582450ee8e786 (MD5) / Approved for entry into archive by Juliano Benedito Ferreira (julianoferreira@reitoria.unesp.br) on 2016-11-10T11:30:50Z (GMT) No. of bitstreams: 1 menegassi_rf_me_ilha.pdf: 1271376 bytes, checksum: 9f75b9ab349d8a308b3582450ee8e786 (MD5) / Made available in DSpace on 2016-11-10T11:30:50Z (GMT). No. of bitstreams: 1 menegassi_rf_me_ilha.pdf: 1271376 bytes, checksum: 9f75b9ab349d8a308b3582450ee8e786 (MD5) Previous issue date: 2016-09-02 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / O Brasil destaca-se mundialmente na produção de carne bovina um dos maiores rebanhos comerciais do mundo, o país se especializou na produção e criação de gado de corte. São Paulo representa um dos Estados que contribui positivamente para o desempenho do complexo agroindustrial da carne bovina, concentrando proporção significativa da produção e abate. Dentre as regiões produtivas, a região extremo oeste do Estado de São Paulo constituiu a última porção territorial do Estado a ser incorporada no processo de especialização produtiva em cana de açúcar. A reconfiguração produtiva regional ocorreu a partir de meados da primeira década dos anos 2000, enquanto outras regiões, como a região central e sul este processo se iniciou nas décadas dos anos 70 e 80. A crise do setor sucroenergético que se instalou após o segundo quinquênio dos anos 2000 forneceu elementos para uma suposta retomada de dinamismo da pecuária bovina. Este trabalho avaliou indicadores da produção e área ocupada pela pecuária bovina nas microrregiões de Andradina, Birigui e de Araçatuba que juntas compõem a mesorregião de Araçatuba, no período 2006-2014 tomando-se por referência os subperíodos, 2006-2008; 2009-2011 e 2012-2014, para tanto fez-se uso do modelo “shift-share” para os efeitos área, rendimento e redistribuição regional. Os resultados evidenciam continuidade da tendência observada a algum tempo de perda de área de pastagens com um potencial aumento da sua produtividade. Estes dados mostraram que a pecuária vem se especializando para se tornar cada vez mais competitiva e o modelo empregado constitui importante ferramenta para se quantificar essas mudanças.
309

Dinâmica alocativa das áreas produtivas (lavoura e pecuária) da mesorregião de araçatuba : uma análise Shift-Share para o período 2006-2014 /

Menegassi, Rodrigo Ferreira. January 2016 (has links)
Orientador: Silvia Maria Almeida Lima Costa / Resumo: O Brasil destaca-se mundialmente na produção de carne bovina um dos maiores rebanhos comerciais do mundo, o país se especializou na produção e criação de gado de corte. São Paulo representa um dos Estados que contribui positivamente para o desempenho do complexo agroindustrial da carne bovina, concentrando proporção significativa da produção e abate. Dentre as regiões produtivas, a região extremo oeste do Estado de São Paulo constituiu a última porção territorial do Estado a ser incorporada no processo de especialização produtiva em cana de açúcar. A reconfiguração produtiva regional ocorreu a partir de meados da primeira década dos anos 2000, enquanto outras regiões, como a região central e sul este processo se iniciou nas décadas dos anos 70 e 80. A crise do setor sucroenergético que se instalou após o segundo quinquênio dos anos 2000 forneceu elementos para uma suposta retomada de dinamismo da pecuária bovina. Este trabalho avaliou indicadores da produção e área ocupada pela pecuária bovina nas microrregiões de Andradina, Birigui e de Araçatuba que juntas compõem a mesorregião de Araçatuba, no período 2006-2014 tomando-se por referência os subperíodos, 2006-2008; 2009-2011 e 2012-2014, para tanto fez-se uso do modelo “shift-share” para os efeitos área, rendimento e redistribuição regional. Os resultados evidenciam continuidade da tendência observada a algum tempo de perda de área de pastagens com um potencial aumento da sua produtividade. Estes dados mostraram que a pecuá... (Resumo completo, clicar acesso eletrônico abaixo) / Mestre
310

Modelos matematicos para a tomada de decisoes financeiras

Zielgelmann, Julio Carlos January 1991 (has links)
Existe um descompasso entre a prática da administração financeira e os conceitos modernos da teoria financeira. Este fato se deve a abordagem utilizada na maioria dos livros textos e cursos de finanças. Este trabalho discute este problema, apresenta uma revisão da teoria das decisões financeiras e alguns comentários sobre o impacto da recente evolução informática sobre a administração financeira. Um modelo corporativo decisões financeiras é desenvolvido, para a otimização através de técnicas das de simulação, de programação matemática e de conceitos de probabilidade. / There is a gap between the practice of financial managernent and the modern concepts of financial theory. This occurs due to the approach used in most of the text books and courses in finance. This paper discusses this problem, presents a review of the theory of financial dec isions and some comments about the impact of the recent evoJution of capability on financial management. A corporate model for the optimization of financial decisions is developed, through simulation techniques, mathematical programming and probability concepts.

Page generated in 0.0408 seconds