• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 490
  • 18
  • 5
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 523
  • 330
  • 267
  • 224
  • 120
  • 97
  • 86
  • 79
  • 74
  • 71
  • 69
  • 64
  • 60
  • 56
  • 50
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Aplicação de técnicas de descobrimento de conhecimento em bases de dados e de inteligência artificial em avaliação de imóveis

Gonzalez, Marco Aurelio Stumpf January 2002 (has links)
A comparação de dados de mercado é o método mais empregado em avaliação de imóveis. Este método fundamenta-se na coleta, análise e modelagem de dados do mercado imobiliário. Porém os dados freqüentemente contêm erros e imprecisões, além das dificuldades de seleção de casos e atributos relevantes, problemas que em geral são solucionados subjetivamente. Os modelos hedônicos de preços têm sido empregados, associados com a análise de regressão múltipla, mas existem alguns problemas que afetam a precisão das estimativas. Esta Tese investigou a utilização de técnicas alternativas para desenvolver as funções de preparação dos dados e desenvolvimento de modelos preditivos, explorando as áreas de descobrimento de conhecimento e inteligência artificial. Foi proposta uma nova abordagem para as avaliações, consistindo da formação de uma base de dados, ampla e previamente preparada, com a aplicação de um conjunto de técnicas para seleção de casos e para geração de modelos preditivos. Na fase de preparação dos dados foram utilizados as técnicas de regressão e redes neurais para a seleção de informação relevante, e o algoritmo de vizinhança próxima para estimação de valores para dados com erros ou omissões. O desenvolvimento de modelos preditivos incluiu as técnicas de regressão com superficies de resposta, modelos aditivos generalizados ajustados com algoritmos genéticos, regras extraídas de redes neurais usando lógica difusa e sistemas de regras difusas obtidos com algoritmos genéticos, os quais foram comparados com a abordagem tradicional de regressão múltipla Esta abordagem foi testada através do desenvolvimento de um estudo empírico, utilizando dados fornecidos pela Prefeitura Municipal de Porto Alegre. Foram desenvolvidos três formatos de avaliação, com modelos para análise de mercado, avaliação em massa e avaliação individual. Os resultados indicaram o aperfeiçoamento da base de dados na fase de preparação e o equilíbrio das técnicas preditivas, com um pequeno incremento de precisão, em relação à regressão múltipla.Os modelos foram similares, em termos de formato e precisão, com o melhor desempenho sendo atingido com os sistemas de regras difusas.
52

Espaços e atratores: estratégias de categorização na emergência de interferências sobre a conceitualização de violência / Spaces and attractors: categorization strategies in emergency interference on the conceptualization of violence

Almeida Júnior, Antenor Teixeira January 2013 (has links)
ALMEIDA JÚNIOR, Antenor Teixeira. Espaços e atratores: estratégias de categorização na emergência de interferências sobre a conceitualização de violência. 2013. 184f. – Tese (Doutorado) – Universidade Federal do Ceará, Departamento de Letras Vernáculas, Programa de Pós-graduação em Linguística, Fortaleza (CE), 2013. / Submitted by Márcia Araújo (marcia_m_bezerra@yahoo.com.br) on 2016-01-19T18:35:33Z No. of bitstreams: 1 2013_tese_atajunior.pdf: 2885641 bytes, checksum: 4f0fc10c7ba0f795d9a6a874f8c74b94 (MD5) / Approved for entry into archive by Márcia Araújo(marcia_m_bezerra@yahoo.com.br) on 2016-01-20T10:53:28Z (GMT) No. of bitstreams: 1 2013_tese_atajunior.pdf: 2885641 bytes, checksum: 4f0fc10c7ba0f795d9a6a874f8c74b94 (MD5) / Made available in DSpace on 2016-01-20T10:53:28Z (GMT). No. of bitstreams: 1 2013_tese_atajunior.pdf: 2885641 bytes, checksum: 4f0fc10c7ba0f795d9a6a874f8c74b94 (MD5) Previous issue date: 2013 / In this research, I analyzed the characteristics and mechanisms that make categorization, as a cognitive process, a Complex Adaptive System and the strategies of categorization that work in the emergency of inferences for the conceptualization of the category VIOLENCE and subcategory URBAN VIOLENCE. The theoretical support for the investigation of the research aims are the assumptions of the paradigm of chaos, complexity and complex systems, as outlined by Bertalanffy (1977), Morin (2005), Holland (1995, 1998) and Larsen-Freeman and Cameron ( 2008; 2012), who propose the concepts of systems, complexity, attractors, phase space and characteristics and mechanisms of a Complex Adaptive System. In the case of inferential process, I sought theoretical support in Relevance Theory, as proposed by Sperber and Wilson (1995, 2001), Feltes (1999, 2007), Alves and Gonçalves (2006) and Yus (2008, 2013). To get to the characterization of categorization as a Complex Adaptive System, I considered the properties presented by Holland (1995) and Larsen-Freeman and Cameron (2008), seeking to expand the concept and explain the instability of the categorical system based on the complexity theory (Morin, 1977). For this investigation, based on the complexity theory, it was also necessary to include the concept of system, phase space and attractors so relevant to the methodological approach used in this research. Such a procedure resulted in a typology of categorization strategies for the analysis and explanation of how the various feasible spaces for the conceptualizing of VIOLENCE are triggered. The category "VIOLENCE" was chosen for analysis in view of its update status in the last twenty years and the various researches on the subject carried out by Larsen-Freeman and Cameron, Macedo and Feltes, scholars whose studies served as basis for the methodological proposal of this thesis. In order to verify the research hypotheses, a methodological design which involved intensive direct observation of 33 categorizers was used. The participants answered questionnaires about the categorization of VIOLENCE and participated of verbal protocols to verify the inference mechanisms involved in the process. The analyses result allow for the following conclusions: VIOLENCE categorization has the properties and mechanisms of Complex Adaptive Systems because the systems present, in whole and in parts, variation within a stable range. The categorizers use the inferential process to trigger the attractors that lead to the phase space in which diverse knowledge about violence is available for its conceptualization in a strategic way. / Nesta pesquisa, analisamos as características e mecanismos que tornam a categorização, como processo cognitivo, um Sistema Adaptativo Complexo e as estratégias de categorização que atuam na emergência de inferências para a conceitualização da categoria VIOLÊNCIA e a subcategoria VIOLÊNCIA URBANA. Nosso suporte teórico para a investigação dos nossos objetivos são os pressupostos do paradigma do caos, da complexidade e dos sistemas complexos, conforme delineados por Bertalanffy (1977), Morin (2005), Holland (1995; 1998) e Larsen- Freeman e Cameron (2008; 2012), que propõem os conceitos de sistemas, complexidade, atratores, espaço fase e características e mecanismos de um Sistema Adaptativo Complexo. No caso do processo inferencial, buscamos amparo teórico na Teoria da Relevância, conforme proposta por Sperber e Wilson (1995; 2001), Feltes (1999; 2007), Alves e Gonçalves (2006) e Yus (2008; 2013). Para chegarmos à caracterização da categorização como Sistema Adaptativo Complexo, levamos em consideração as propriedades apresentadas por Holland (1995) e Larsen- Freeman e Cameron (2008), buscando ampliar o conceito e explicar a instabilidade do sistema categorizacional à luz da complexidade (MORIN, 1977). Para essa investigação com base na complexidade foi necessário ainda incluir o conceito de sistema, espaço fase e atratores tão caros à abordagem metodológica utilizada. Esse procedimento resultou em uma tipologia de estratégias de categorização para análise e explicitação de como se aciona os diversos espaços possíveis para conceitualização de VIOLÊNCIA. Escolhemos a categoria VIOLÊNCIA para investigar nosso objetivo tendo em vista a atualização do assunto nos últimos vinte anos e pelos trabalhos com essa categoria realizados por Larsen-Freeman e Cameron, Macedo e Feltes, cujos estudos serviram de base para nossa proposta metodológica. Para verificarmos nossas hipóteses, utilizamos como desenho metodológico uma pesquisa com observação direta e intensiva de 33 categorizadores que responderam a questionários sobre a categorização de VIOLÊNCIA e participaram de protocolos verbais para verificação dos mecanismos de inferenciação. Os resultados das análises permitem as seguintes conclusões: a categorização de VIOLÊNCIA possui propriedades e mecanismos dos Sistemas Adaptativos Complexos, pois os sistemas apresentam no todo e nas partes, variedade dentro de uma estabilidade. Os categorizadores utilizam o processo inferencial para acionar os atratores que levam ao espaço fase em que se encontram diversos conhecimentos sobre violência para sua conceitualização de forma estratégica.
53

Choice-Based Conjoint Analysis: um enfoque bayesiano / Choice-Based Conjoint Analysis: a bayesian approach

Barbosa, Eduardo Campana 25 February 2015 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2016-01-20T10:10:28Z No. of bitstreams: 1 texto completo.pdf: 868133 bytes, checksum: fc299d68c5ac708f6318353d62153283 (MD5) / Made available in DSpace on 2016-01-20T10:10:28Z (GMT). No. of bitstreams: 1 texto completo.pdf: 868133 bytes, checksum: fc299d68c5ac708f6318353d62153283 (MD5) Previous issue date: 2015-02-25 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A presente dissertação teve como objetivo principal demonstrar um enfoque Bayesiano para a metodologia Choice-Based Conjoint Analysis (CBCA). Apresenta-se no texto uma ampla revisão sobre a CBCA (Capítulo 1), sobre o modelo Logit Multinomial [desenvolvimento do modelo, procedimentos de estimação de parâmetros, probabilidades e razões de escolha (Capítulo 2)] e sobre o enfoque de estimação Bayesiano [distribuição a priori utilizada, aproximação de Laplace para a função de verossimilhança, distribuições a posteriori e detalhes sobre o algoritmo MCMC empregado (Capítulo 3)]. No Capítulo 4 apresenta-se um exemplo hipotético, no intuito de demonstrar os resultados e inferências que podem ser obtidos por meio desta recente abordagem (Bayesiana), sendo também apresentados os resultados do enfoque Frequentista. O tratamento em estudo foi um tipo de refrigerante e avaliou-se o efeito de três fatores (A, B e C) na intenção de compra de 96 consumidores, por meio de dados simulados. As análises estatísticas foram conduzidas no software livre R, cujos scripts encontram-se disponibilizados nos apêndices desta dissertação. Concluiu-se que a abordagem Bayesiana para CBCA apresentou resultados interessantes e satisfatórios, com estimativas similares às Frequentistas e mostrando-se uma alternativa metodológica viável para os estudos de CBCA. Adicionalmente, a abordagem proposta possibilitou ainda ao pesquisador construir intervalos de credibilidade (percentis das distribuições a posteriori) para as probabilidades e razões de escolha, no intuito de comparar estas quantidades ou testar hipóteses sobre estas. Quanto aos resultados práticos, a maior probabilidade de escolha estava associada ao tratamento 4, composto pelo nível do fator A, nível do fator B e nível do fator C. / This dissertation main goal is to demonstrate the Bayesian approach to Choice-Based Conjoint Analysis (CBCA). We present a comprehensive review of the CBCA methodology (Chapter 1), on the Multinomial Logit model [model development, parameter estimation procedures, probabilities of choice ratios (Chapter 2)] and on the Bayesian estimation approach [prior distribution, Laplace approach to the likelihood function, posterior distributions and details about the MCMC algorithm we applied (Chapter 3)]. In Chapter 4 we present a hypothetical example, in order to demonstrate the results and inferences that can be obtained through this recent approach (Bayesian), and we also present the results of the frequentist approach. The treatment for the study was a type of refrigerant (soda or soft drink) and we evaluated the effect of three factors (volume, type and color) on purchase intention of 96 consumers, using simulated data. Statistical analyzes were conducted with the free software R, whose scripts are provided in the appendices of this dissertation. It was concluded that the Bayesian approach to CBCA presented interesting and satisfactory results, with estimates similar to the frequentist ones, therefore proved to be a viable alternative methodology for CBCA studies. Additionally, the proposed approach also allows the researcher to build credibile intervals (percentiles of the posterior distributions) for the probabilities and choice ratios, in order to compare these quantities or test hypotheses about them. In terms of practical or applied results, the highest estimated probability of choice was obtained for treatment 4, with a1 level of factor A, b2 level of factor B and C1 level of factor C.
54

Modelo de regressão com erros normais assimétricos: uma abordagem bayesiana

Freitas, Luiz Antonio de 13 December 2005 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1 840.pdf: 637562 bytes, checksum: 655616584fbe63191ef8eeeb51966d31 (MD5) Previous issue date: 2005-12-13 / Financiadora de Estudos e Projetos / The statistical analysis of the continuous data set has been developed in most cases for normal models, specially, in the linear and nom linear models context. In the simple linear regression models, even accepting as reasonable the normal error assumption, usually it can take misleading inferences for the parameter of interest. In the classical literature is supposed that the errors follow the normal distribution with zero mean and unknown variance. In this work, we intend to make the normality as-sumption flexible using a new class of asymmetric distributions. The first class considered was studied by Azzalini [3], which includes the normal distributions as a particular case. The second flexible class was introduced by Ma & Genton [22] and the third one is the extended normal distributions proposed by Arellano-Valle [2]. These two last ones had been enclosed as alternative proposals to the model of Azzalini [3]. With this purpose, inferences procedures based on Bayesian approaches, will be developed to estimate the parameters involved in the simple linear regression models with asymmetrical errors. / A análise estatística para o estudo de dados contínuos tem sido desenvolvida em grande parte combase nomodelo normal, que se destaca sobretudo no contexto de modelos lineares e não lineares. No estudo da regressão linear univariada, mesmo aceitando como razoável a suposição de simetria para os erros, em muitas situações práticas essa suposição de normalidade pode nos levar a inferências pouco apropriadas sobre os parâmetros de interesse. Na literatura clássica é suposto que os erros seguem uma distribuição normal com mé- dia zero e variância desconhecida. Neste trabalho, pretendemos flexibilizar essa suposição de normalidade, dispondo de novas classes de distribuições assimétricas. A primeira classe considerada é a proposta por Azzalini [3], que inclui a distribuição normal como um caso particular. A segunda é a dos modelos flexíveis de Ma & Genton [22] e a terceira é a classe de distribuições normais assimétricas estendidas, proposta por Arellano-Valle & Azzalini [2]. Estas duas últimas foram incluídas como propostas alternativas ao modelo de Az-zalini [3]. Com esse objetivo, métodos de inferência baseados na abordagem bayesiana, serão desenvolvidos para estimar os parâmetros envolvidos no modelo de regressão linear simples com erros assimétricos.
55

Modelos lineares mistos : uma abordagem bayesiana

Rocha, Alex Luiz Martins Matheus da 04 December 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2018-04-11T17:25:53Z No. of bitstreams: 1 2017_AlexLuizMartinsMatheusdaRocha.pdf: 620797 bytes, checksum: 102a7d62b41cea145fc3ea2987658596 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-04-20T19:39:37Z (GMT) No. of bitstreams: 1 2017_AlexLuizMartinsMatheusdaRocha.pdf: 620797 bytes, checksum: 102a7d62b41cea145fc3ea2987658596 (MD5) / Made available in DSpace on 2018-04-20T19:39:37Z (GMT). No. of bitstreams: 1 2017_AlexLuizMartinsMatheusdaRocha.pdf: 620797 bytes, checksum: 102a7d62b41cea145fc3ea2987658596 (MD5) Previous issue date: 2018-04-20 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES). / Estudos em que a população de interesse possui estrutura hierárquica ou mul tinível são cada vez mais frequentes nas áreas de educação e saúde, onde, por exemplo, tem-se o desejo de avaliar determinada característica de alunos dentro de escolas ou pacientes dentro de hospitais. Nessa situação, modelos hierárquicos são mais adequados do que modelos que não levam em consideração a hierarquia. Esses modelos incorporam a estrutura de dependência dos dados, tornando as estimativas mais realistas e não viesadas. Esses modelos fazem parte da classe de modelos mistos, que possui efeitos fixos e mais de um efeito aleatório em sua composição. Este trabalho apresenta aplicações do modelo de regressão linear hierárquica, utilizando a abordagem bayesiana para estimação dos parâmetros. Concluiu-se que esses modelos apresentam ganhos expressivos nas estimativas intervalares dos parâmetros, sem desrespeitar os pressupostos teóricos de um modelo mais simples, proporcionando estimativas não viesadas. / Studies in which the population of interest has a multilevel or hierarchical structure are increasingly frequent in the areas of education and health, when one has the desire to evaluate a certain characteristic of students clustered within schools or patients clustered within hospitals. In this situation, hierarchical models are more appropriate than models that do not take hierarchy into account. These models incorporate data dependency structure, making estimates more realistic and unbiased. These models are also called mixed models, containing both fixed effects and more than one random effect in its composition. This work presents applications of the linear hierarchical regression model, using bayesian methods of estimation. It was concluded that these models present expressive gains in the interval estimates of the parameters, without disrespecting the assumptions of a simpler model, providing unbiased estimates.
56

Aplicação de técnicas de descobrimento de conhecimento em bases de dados e de inteligência artificial em avaliação de imóveis

Gonzalez, Marco Aurelio Stumpf January 2002 (has links)
A comparação de dados de mercado é o método mais empregado em avaliação de imóveis. Este método fundamenta-se na coleta, análise e modelagem de dados do mercado imobiliário. Porém os dados freqüentemente contêm erros e imprecisões, além das dificuldades de seleção de casos e atributos relevantes, problemas que em geral são solucionados subjetivamente. Os modelos hedônicos de preços têm sido empregados, associados com a análise de regressão múltipla, mas existem alguns problemas que afetam a precisão das estimativas. Esta Tese investigou a utilização de técnicas alternativas para desenvolver as funções de preparação dos dados e desenvolvimento de modelos preditivos, explorando as áreas de descobrimento de conhecimento e inteligência artificial. Foi proposta uma nova abordagem para as avaliações, consistindo da formação de uma base de dados, ampla e previamente preparada, com a aplicação de um conjunto de técnicas para seleção de casos e para geração de modelos preditivos. Na fase de preparação dos dados foram utilizados as técnicas de regressão e redes neurais para a seleção de informação relevante, e o algoritmo de vizinhança próxima para estimação de valores para dados com erros ou omissões. O desenvolvimento de modelos preditivos incluiu as técnicas de regressão com superficies de resposta, modelos aditivos generalizados ajustados com algoritmos genéticos, regras extraídas de redes neurais usando lógica difusa e sistemas de regras difusas obtidos com algoritmos genéticos, os quais foram comparados com a abordagem tradicional de regressão múltipla Esta abordagem foi testada através do desenvolvimento de um estudo empírico, utilizando dados fornecidos pela Prefeitura Municipal de Porto Alegre. Foram desenvolvidos três formatos de avaliação, com modelos para análise de mercado, avaliação em massa e avaliação individual. Os resultados indicaram o aperfeiçoamento da base de dados na fase de preparação e o equilíbrio das técnicas preditivas, com um pequeno incremento de precisão, em relação à regressão múltipla.Os modelos foram similares, em termos de formato e precisão, com o melhor desempenho sendo atingido com os sistemas de regras difusas.
57

Estudo de matrizes vítreas dopadas com íons de terras raras e/ou pontos quânticos de sais de chumbo

Silva, Valdeir Antonio da 12 April 2017 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Física, Programa de Pós-Graduação em Física, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-08-10T16:47:56Z No. of bitstreams: 1 2017_ValdeirAntoniodaSilva.pdf: 10112031 bytes, checksum: 0cfe3a30aa04fa0b1b14b285c6d728a0 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-09-22T18:11:17Z (GMT) No. of bitstreams: 1 2017_ValdeirAntoniodaSilva.pdf: 10112031 bytes, checksum: 0cfe3a30aa04fa0b1b14b285c6d728a0 (MD5) / Made available in DSpace on 2017-09-22T18:11:17Z (GMT). No. of bitstreams: 1 2017_ValdeirAntoniodaSilva.pdf: 10112031 bytes, checksum: 0cfe3a30aa04fa0b1b14b285c6d728a0 (MD5) Previous issue date: 2017-09-22 / Nesse estudo matrizes vítreas baseadas em óxidos, dopadas com íons de terras raras e/ou pontos quânticos de sais de chumbo, foram sintetizadas pelo tradicional método de fusão e investigadas por medidas experimentais. A matriz vítrea LBA foi sintetizada e dopada com íons de Nd3+. Os parâmetros espectroscópicos correspondentes foram obtidos pela teoria de Judd-Ofelt (JO) utilizando o método dos mínimos quadrados. Além disso, essa mesma matriz com 2% de Nd2O3 (concentração fixa) foi co-dopada com diferentes concentrações de TiO2, sendo esse um agente de variação do campo cristalino. Os parâmetros espectroscópicos foram investigados utilizando Inferência Bayesiana. Uma abordagem inovadora que não é apresentada na literatura. A matriz SNABP foi sintetizada com dopagem de íons de Yb3+ e/ou pontos quânticos de sais de chumbo e investigada. Essas amostras foram avaliadas quanto à possibilidade de desenvolvimento de dispositivos refrigeradores ópticos de estado sólido. Sendo essa a segunda inovação apresentada nessa tese. As amostras foram caracterizadas experimentalmente por medidas de densidade, índice de refração, absorção óptica, fotoluminescência, análise térmica diferencial e micro espectroscopia Raman. Os parâmetros de intensidade de JO, Ωλ, para amostras dopadas com Nd3+ e/ou co-dopadas com TiO2, se mostraram sensíveis às variações do campo cristalino, sugerindo que íons de TR podem atuar como sondas estruturais. As amostras dopadas com Yb3+ apresentaram cauda de refrigeração significativa, em torno de 1007 nm, revelando-se promissoras para aplicação em refrigeração óptica. Nanocristais de PbS foram sintetizados com sucesso e apresentaram propriedades de confinamento quântico, com o deslocamento da emissão para maiores comprimentos de onda em função do aumento do tamanho. Foi observado deslocamento Stokes relativamente grande (~140 nm), que pode comprometer a refrigeração óptica em PQs de PbS em específico. Contudo, a co-dopagem (PQs + Yb3+), mostrou-se interessante, uma vez que essas amostras apresentaram processo de transferência de energia (PQs→Yb3+) podendo potencializar a refrigeração óptica com íons de Yb3+ como centros refrigeradores. / In this study, oxide-based vitreous matrices were synthesized and investigated by the traditional fusion method and investigated by experimental measures, doped with rare earth ions (TR) and/or quantum dots (PQs) of lead salts. The LBA vitreous matrix was synthesized and doped with Nd3+ ions. The spectroscopic parameters were obtained by Judd-Ofelt (JO) theory using the least squares method. The LBA matrix doped with 2% Nd2O3 (fixed concentration) was co-doped with different TiO2 content, which is a variant of the crystalline field. The spectroscopic parameters were investigated using Bayesian inference as a new approach. An innovative approach that is not presented in the literature. The SNABP glass matrix was synthesized with Yb3+ ion and/or quantum dots of lead salts doping and investigated. These samples were evaluated for exploring the development of solid state optical refrigeration devices. This is another innovation presented in this thesis. The samples were experimentally characterized by mass density, refractive index, optical absorption, photoluminescence, differential thermal analysis and micro Raman spectroscopy measurements. The JO intensity parameters, Ωλ, for samples doped with Nd3+ and/or co-doped with TiO2, were sensitive to variations of the crystalline field, suggesting that TR ions could act as structural probes. Samples doped with Yb3+ showed significant refrigeration tail, around 1007 nm, suggesting promising application in optical refrigeration. Nanocrystals of PbS were successfully synthesized and presented quantum confinement properties as the emission shift for longer wavelengths as the size increases. A relatively large Stokes shift (~140 nm) was observed that could compromise optical cooling in PQs of PbS. However, the co-doping, QDs + Yb3+, proved to be of interest, once these samples showed energy transfer process (QDs→Yb3+) which could enhance optical refrigeration with Yb3+ ions as cooling centers.
58

Uma estatística scan espacial bayesiana para dados com excesso de zeros

Fernandes, Lucas Barbosa 28 May 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2015. / Submitted by Patrícia Nunes da Silva (patricia@bce.unb.br) on 2015-10-27T18:42:49Z No. of bitstreams: 1 2015_LucasBarbosaFernandes_parcial.pdf: 1190939 bytes, checksum: aa155f545cc8a1e5ab63d052e169e2a9 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2015-10-29T13:34:03Z (GMT) No. of bitstreams: 1 2015_LucasBarbosaFernandes_parcial.pdf: 1190939 bytes, checksum: aa155f545cc8a1e5ab63d052e169e2a9 (MD5) / Made available in DSpace on 2015-10-29T13:34:03Z (GMT). No. of bitstreams: 1 2015_LucasBarbosaFernandes_parcial.pdf: 1190939 bytes, checksum: aa155f545cc8a1e5ab63d052e169e2a9 (MD5) / A análise e detecção de conglomerados (ou clusters) espaciais se mostra de grande utilidade para subsidiar decisões em áreas de saúde e segurança, por exemplo. O método Scan Circular de Kulldorff, um dos mais difundidos para detecção de conglomerados espaciais, recebeu extensões que permitem um melhor desempenho na presença de um grande número de zeros, além de uma abordagem Bayesiana, que possui vantagens computacionais e em termos de incorporação de informações à priori. Este trabalho apresenta adaptações dos trabalhos de Kulldorff (1997), Cançado et al. (2014) e Neill et al. (2006), com as estatísticas Scan Binomial, Scan ZIB, Scan ZIB-EM e Scan Beta-Binomial, e propõe as estatísticas Scan ZIBB e Scan ZIBB-Gibbs, que utilizam a abordagem bayesiana em dados com excesso de zeros. Os métodos são comparados com dados simulados e aplicados ao estudo de casos de Febre Hemorrágica do Dengue (FHD) no estado do Rio de Janeiro (2011). São obtidos resultados positivos para os métodos propostos. / The analysis and detection of spacial cluster are useful for support decisions on many areas, like health and public security. Kulldorff’s Circular Scan method, one of the most known and used, received extensions for better performance on prob- lems that include a great presence of zeros and a bayesian approach, which presents computational advantages and allows the incorporation of prior information. This work presents a review and an adaptation of the works of Kulldorff (1997), Cançado et al. (2014) and Neill et al. (2006) (Scan Binomial, Scan ZIB, Scan ZIB-EM and Scan Beta-Binomial statistics) and proposes the Scan ZIBB and Scan ZIBB-Gibbs statistics, using the Bayesian approach for zero-inflated data. The methods are com- pared with simulated data and applied to the study of cases of Dengue Hemorrhagic Fever (FHD) in the state of Rio de Janeiro (2011). The proposed methods exhibit good results.
59

Classificação da curvatura de vertentes em perfil via Thin Plate Spline e Inferência Fuzzy

Anjos, Daniela Souza dos [UNESP] 29 July 2008 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:22:25Z (GMT). No. of bitstreams: 0 Previous issue date: 2008-07-29Bitstream added on 2014-06-13T19:27:43Z : No. of bitstreams: 1 anjos_ds_me_prud.pdf: 1639941 bytes, checksum: 0860c4a946325bd5e941068ec7106d5e (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A representação do relevo ou terreno é uma componente fundamental no processo cartográfico e dentre essas representações as que têm por objetivo analisar as diferentes curvaturas de uma vertente, ou seja, classificar as vertentes de um determinado terreno em retilíneas, côncavas ou convexas tem apresentado grande aplicabilidade em áreas como a agricultura, a construção civil, o estudo de microbacias entre outros. Assim, o desenvolvimento de algoritmos que classifiquem essas formas do relevo pode contribuir muito para a produção de informações relevantes à tomada de decisões em diversas áreas do conhecimento. Alguns algoritmos com esse intuito foram anteriormente desenvolvidos, porém apresentam claras necessidades de melhoria por classificarem apenas áreas pré-estabelecidas, não podendo ser utilizados para outras regiões. Visando sanar a necessidade de implementações mais completas este trabalho apresenta a metodologia utilizada na elaboração de um algoritmo para classificação de vertentes através de ferramentas matemáticas até então pouco utilizadas nas Ciências Cartográficas: a Thin Plate Spline (TPS) que será utilizada para adensar os dados de vertentes do município de Presidente Prudente, gerando Modelos Numérico de Terreno (MNTs) sob os quais a curvatura é calculada, e a Inferência Fuzzy que é uma ferramenta utilizada para discriminar classes que por diversas razões não possuem limites rígidos entre si, como é o caso das vertentes a serem analisadas, e, portanto, estará integrada a um produto final que será parte do estudo, isto é, um sistema que forneça modelos de classificação das vertentes em: retilíneas, côncavas e convexas e que possa ser comparada ao mapa geomorfólogico existente. / The relief or terrain representation is an essential component in the cartographic process. Representations which aim at classifying relief profiles of a certain terrain as rectilinear, concave and convex have reached great applicability in areas such as agriculture, civil construction, watershed studies, among others. Therefore, algorithms that classify these forms of relief can much contribute to the production of relevant information to the decision make in several areas of knowledge. The simplest algorithm, based on curvature value only is clearly not sufficient, but the literature brings fairly little in relation to a more adequate methodology. Attempting to contribute in the sense to aggregate more information and intelligence into this kind of classification so to achieve a more complete implementation, this work presents a methodology using two mathematical tools of little use so far in the Cartographic Science: 1) Thin Plate Spline (TPS) used to densify the existing data, for the Numerical Terrain Models on which the curvature shall be calculated and, 2) Fuzzy Inference used to discriminate classes that for several reasons do not possesses well defined boundaries, as is the curvature profile case. The validation used known and previously chosen data from Presidente Prudente so that a comparison with existing morphological map was possible.
60

Prêmios realizados e esperados no Brasil / Realized and expected premium in Brazil

Michael Tulio Ramos de França 27 November 2015 (has links)
Dado que o investimento no mercado acionário envolve incerteza, devíamos esperar que seu retorno médio fosse relativamente superior a uma aplicação livre de risco para compensar o investidor pelo risco adicional que ele incorre quando aplica seus recursos em ações. Entretanto, não encontramos tal evidência quando analisamos o comportamento do mercado acionário brasileiro. Isto porque, considerando os retornos realizados médio dos últimos vinte anos, o prêmio histórico foi relativamente baixo. Assim, naturalmente surge à questão se tal estimativa corresponde a um valor razoável para inferirmos o futuro comportamento do mercado acionário. Para responder a esta questão, nossa metodologia constituiu em três etapas. Na primeira, revisamos a literatura em busca de técnicas de estimação do prêmio e selecionamos as abordagens baseado em artigos recentes, citações e disponibilidade de dados. Além disso, também realizamos algumas propostas de estimação. Em seguida, apresentamos os resultados das metodologias selecionadas para os anos recentes e observamos que as estimativas apresentaram certo grau de heterogeneidade. Na segunda etapa, testamos o desempenho dos modelos empíricos estimados usando testes de previsão fora da amostra. Os resultados apontaram que alguns modelos foram superiores ao prêmio histórico. Desta forma, encontramos evidências de que o prêmio histórico representa apenas mais uma fonte de informação para inferir o prêmio esperado e, se tomado sozinho, não constitui um procedimento de inferência razoável. Visto que cada modelo apresenta uma estratégia empírica para inferir o prêmio, todos deveriam representar uma fonte informacional sobre o prêmio futuro. Consequentemente, uma corrente da literatura recente destaca que a estratégia ótima pode ser agregar informações dos modelos individuais. Com este intuito, o último passo da metodologia foi combinar informações dos modelos que apresentaram melhor desempenho em relação ao prêmio histórico e verificar se tal procedimento aumentou a performance do poder preditivo dos modelos. Como resultado, verificamos que tal abordagem melhora e estabiliza a previsão do prêmio. / Given that investment in the stock market involves uncertainty, we should expect that the average return was relatively higher than a risk-free investment in order to compensate investors for the additional risk they incur. However, we find no such evidence when we analyze the Brazilian stock market behavior. This is because, considering the realized average returns of the past twenty years, the historic equity risk premium was relatively low. So, naturally, the question of whether such an estimate corresponds to a reasonable value to infer the future behavior of the stock market arises. To answer this question, our methodology consists of three stages. At first, we review the literature on risk premium estimation techniques and select the different approaches based on recent articles, quotes and availability of data. We also made some estimation proposals. We then proceed and present the results of the methodologies selected for the recent years and find that the estimates presented some degree of heterogeneity. On the second step, we test the performance of our estimates using out-of-sample predictive tests. The results showed that some models performed better than the historical premium. Thus, we find evidence that the historical premium is just another source of information to infer the expected award and, if taken alone, does not constitute a reasonable inference procedure. Since each model presents an empirical strategy to infer the premium, every one of them should represent an information source on the future premium. Consequently, a recent literature points out that the current optimal strategy may be to aggregate information from individual models. To this end, the last step of the methodology was to combine information of the models that performed better against the historical premium and verify that this procedure increased the power of the predictive performance of the models. As a result, we find that this approach improves and stabilizes the premium forecast.

Page generated in 0.1417 seconds