• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 50
  • 2
  • Tagged with
  • 53
  • 53
  • 33
  • 30
  • 26
  • 10
  • 8
  • 8
  • 8
  • 8
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimação de incertezas no delineamento de clusters espaciais com dados pontuais

Silva, Wesley de Jesus 29 June 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2012-09-27T13:34:04Z No. of bitstreams: 1 2012_WesleydeJesusSilva.pdf: 2641549 bytes, checksum: 9bc7c6085188cfd9bba4deb8d8d4d807 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2012-10-04T12:16:16Z (GMT) No. of bitstreams: 1 2012_WesleydeJesusSilva.pdf: 2641549 bytes, checksum: 9bc7c6085188cfd9bba4deb8d8d4d807 (MD5) / Made available in DSpace on 2012-10-04T12:16:16Z (GMT). No. of bitstreams: 1 2012_WesleydeJesusSilva.pdf: 2641549 bytes, checksum: 9bc7c6085188cfd9bba4deb8d8d4d807 (MD5) / A preocupação em detectar anomalias em um espaço bidimensional é bastante antiga, e sua importância surgiu a partir de questões de saúde pública envolvendo a detecção de excessos de ocorrência local de enfermidades ou indícios de concentração de casos de doenças. Técnicas voltadas _a identificação de clusters prováveis foram amplamente empregadas, e grandes avanços foram obtidos com o uso da Estatística Scan de Kulldorff, permitindo ao mesmo tempo a detecção e o teste de significância associado ao cluster mais provável. Bem recentemente, outro grande passo foi dado ao se propor medidas de intensidade. As medidas de intensidade estão relacionadas com a importância de cada área como parte da anomalida detectada, além de captar regiões de infuência do cluster mais verossímil. Em suma, tais medidas permitem delinear incertezas inerentes ao processo de detecção de conglomerados espaciais. Essa metodologia estava restrita, até agora, apenas ao caso de dados agregados em regiões delimitadas. O ganho de informação que se tem com dados em referência local, entretanto, não pode ser desprezado, nem tampouco a possibilidade de visualização das incertezas envolvidas em observações pontuais do tipo caso-controle. Essa é a motivação de um esforço ainda não realizado: a implementação de medidas de intensidade associadas a cada ponto em um mapa. A solução proposta baseia-se na consideração de vizinhanças em torno de cada ocorrência: regiões circulares centradas nos casos cujas áreas foram delimitadas com auxílio de uma Árvore Geradora Mínima (MST). _______________________________________________________________________________________ ABSTRACT / The concern on detecting anomalies in a two-dimensional space is quite old, and its importance arose from public health issues involving the observation of local excess of disease ocurrence, or signs of disease cases concentration. Techniques aiming the identification of likely clusters have been widely employed, and great advances have been obtained through Kulldorff's Spatial Scan Statistic, allowing at the same time the detection and the significance test associated with the most likely cluster. Recently, another big step was taken through the proposition of the intensity function. The intensity function is related to the importance of each area as part of the detected anomaly, and defines a influence region of the most likely cluster. In short, such measures allow the outline of uncertainty bounds inherent to the detection process. This method was restricted, until now, only to aggregated data case. However, the gain of information that arises from local reference data can not be discarded, neither the possibility of viewing uncertainties involved in case-control point observations. This is the motivation of a not performed effort: the application of the intensity function to each point in a map. The proposed solution is based on neighborhoods around each case: circular regions centered in the cases, whose areas was defined by edges of a Minimum Spanning Tree (MST).
2

Implementação, análise e aplicação de algoritmos de agrupamento de dados superdimensionados, longitudinais e com amostras pequenas

Silva, Alex Pena Tosta da 15 June 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2012. / Submitted by Tania Milca Carvalho Malheiros (tania@bce.unb.br) on 2012-10-16T15:34:17Z No. of bitstreams: 1 2012_AlexPenaTostadaSilva_Parcial.pdf: 8206408 bytes, checksum: 41e1f3a8ed81fa29af9e201ca8cf4d3c (MD5) / Rejected by Leandro Silva Borges(leandroborges@bce.unb.br), reason: rejeitado on 2012-10-17T20:49:35Z (GMT) / Submitted by Tania Milca Carvalho Malheiros (tania@bce.unb.br) on 2012-10-22T12:31:31Z No. of bitstreams: 1 2012_AlexPenaTostadaSilva_Parcial.pdf: 8206408 bytes, checksum: 41e1f3a8ed81fa29af9e201ca8cf4d3c (MD5) / Approved for entry into archive by Jaqueline Ferreira de Souza(jaquefs.braz@gmail.com) on 2012-10-30T09:44:05Z (GMT) No. of bitstreams: 1 2012_AlexPenaTostadaSilva_Parcial.pdf: 8206408 bytes, checksum: 41e1f3a8ed81fa29af9e201ca8cf4d3c (MD5) / Made available in DSpace on 2012-10-30T09:44:05Z (GMT). No. of bitstreams: 1 2012_AlexPenaTostadaSilva_Parcial.pdf: 8206408 bytes, checksum: 41e1f3a8ed81fa29af9e201ca8cf4d3c (MD5) / Este trabalho analisa uma série de algoritmos destinados a agrupar variáveis em uma estrutura de dadossuperdimensionada, longitudinal e com amostras pequenas (do inglês, High Dimensional Longitudinal Low Sample Size - HDLLSS). Esses algoritmos utilizam como medida de similaridade o p-valor resultante de um teste de ausência de efeito simples de grupo em um delineamento fatorial com medidas repetidas no tempo. Os testes não-paramétricos presentes em cada algoritmo serão estudados extensivamente por meio de simulações do erro do tipo I e curvas de poder do teste. Pesquisa bibliográfica dos métodos de agrupamento de dados HDLLSS mostra que a estimação da matriz de covariância é um grande problema em vários algoritmos. Neste trabalho, todas as simulações consideraram três formas distintas de estimação dessa matriz: [símbolo matemático de soma, sigma]i, [símbolo matemático de soma, sigma] e [símbolo matemático de soma, sigma]G. Enquanto [símbolo matemático de soma, sigma]i utiliza as informações da i-ésima variável para estimar as matrizes, [símbolo matemático de soma, sigma] utiliza todas as variáveis para a estimação de uma única matriz de covariâncias. O terceiro método considerado, [símbolo matemático de soma, sigma]G, estima uma matriz de covariâncias para cada grupo. Esse método apresentou melhores resultados por conseguir detectar a variabilidade entre os grupos com informação suficiente para uma boa qualidade de estimação. Aplicações em dados de microarranjo e em sinais de eletroencefalograma (EEG) apresentam resultados promissores. Os estudos de simulação sugerem que os algoritmos de agrupamento propostos superam os métodos existentes na literatura destinados a detectar grupos em dados HDLLSS. Além disso, esses algoritmos possuem propriedades desejáveis como invariância a transformações monótonas nos dados e detecção automática do número de grupos amostrais. ______________________________________________________________________________ ABSTRACT / This dissertation analyses a set of algorithms to cluster variables in high dimensional longitudinal low sample size (HDLLSS) data.These algorithms are based on the use of a pvalue from a non parametric test of no simple effect of group as a similarity measure for the clustering procedure. The non parametric-tests in each algorithm were studied extensively by means of simulations of type I error and power curves. Investigation of recente literatura in HDLLSS clustering algorithms shows that the covariance matrix estimation is a major problem. In this work, all simulations used three different ways of covariance matrix estimation: Σi,ΣandΣG. While Σi uses information from the ith variable to estimate covariance matrices, Σ uses all variables for estimating a single covariance matrix for the data.The third method considered, ΣG,estimates one covariance matrix for each group. This estimation methods hows better results because it can detect the variability between the groups with sufficient information for ago odquality estimation of time covariance structure. Applications on micro array data and electroencephalogram(EEG) signals show promising results.The simulation studies reveal that the proposed clustering algorithms out performs existing methods in the literature applied for detecting groups of HDLLSS data exhibiting high clustering accuracy and stability. Furthermore, these algorithms have desirable properties as invariance under monotone transformations and automatic detection of the number of sample groups.
3

Análise de técnicas baseadas em metaheurísticas e dominação de grafos para clustering em redes ad hoc / Metaheuristics and graph domination techniques analisys for clustering in wireless mobile AD HOC networks

Garcia, Helton Fabiano 18 August 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2006. / Submitted by Jaqueline Ferreira de Souza (jaquefs.braz@gmail.com) on 2010-05-12T14:48:31Z No. of bitstreams: 1 2006_HeltonFabianoGarcia.pdf: 2933521 bytes, checksum: 4db50a5ab873f60b925f201613bbef68 (MD5) / Approved for entry into archive by Lucila Saraiva(lucilasaraiva1@gmail.com) on 2010-05-13T02:28:34Z (GMT) No. of bitstreams: 1 2006_HeltonFabianoGarcia.pdf: 2933521 bytes, checksum: 4db50a5ab873f60b925f201613bbef68 (MD5) / Made available in DSpace on 2010-05-13T02:28:34Z (GMT). No. of bitstreams: 1 2006_HeltonFabianoGarcia.pdf: 2933521 bytes, checksum: 4db50a5ab873f60b925f201613bbef68 (MD5) Previous issue date: 2006-08-18 / As redes ad hoc são caracterizadas pela ausência de infra-estrutura de comunicação. Uma forma de comunicação entre os nós, assim como a manutenção de mudanças de conexão podem utilizar uma estrutura hierárquica baseada em clusters [EPH87]. Um cluster agrupa dinamicamente um conjunto de nós em torno de um nó central, responsável pelo roteamento de dados, chamado de clusterhead [CHA00]. Os demais membros deste cluster são denominados clusternodes. O conjunto de clusterheads de uma rede é chamado de dominant set. Esta estrutura forma um backbone virtual [CHE02]. O problema do particionamento de uma rede em clusters é NP-completo [REE93], fazendo com que a busca por uma solução ótima para a organização em clusters de uma rede ad hoc com topologia móvel seja um desafio. Uma estratégia para a resolução deste problema é a aplicação de técnicas baseadas em metaheurísticas. Desta forma, obter uma "boa" solução, dentro de um cenário com domínio de busca limitado, mostra-se conveniente em boa parte dos casos [REE93]. Este trabalho usa técnicas baseadas em metaheurísticas, algoritmos genéticos [HOL75], simulated annealing [KIR83] e busca tabu [GLO89] na proposição de algoritmos para o particionamento em clusters, levando em consideração o grau de mobilidade da rede, reafiliações, transmissão de dados, disponibilidade, energia e ciclo de vida. Basicamente, os algoritmos buscam a minimização do fluxo de dados inter-clusters. Dados os clusters já formados, determinam-se os clusterheads. Apresentam-se, também, simulações comparando os algoritmos propostos entre si, assim como com outras técnicas de particionamento. _________________________________________________________________________________________ ABSTRACT / Wireless ad hoc networks are characterized for a lack of fixed communication structure. One of the strategies for communications between nodes and the maintenance of connection changes is to adopt a hierarchy structure based in clusters [EPH87]. A cluster dinamically gathers a set of nodes around a local coordinator of data transmission, called clusterhead. All other members of this cluster are called clusternodes or members. The set of clusterheads on a network is called dominant set [CHA00]. This structure forms a virtual backbone [CHE02]. The clustering partitioning in wireless ad hoc networks is a NP-complete problem [REE93], leading to research for an optimal solution for a mobile generic topology as a challenge. An approach to solve this problem is applying metaheuristics techniques. So, to obtain a "good" solution within a scenario with a limited search range proves convenient for several cases and the use of metaheuristics is a powerful instrument to do so [REE93]. This work presents a study about metaheuristics algorithms, such as genetic algorithms [HOL75], simulated annealing [KIR83], and tabu search [GLO89] to determinate cluster partitioning in a generic wireless mobile ad hoc network, taking in consideration mobility models, data transmission, availability, energy and life cycle of nodes. Basically, the proposed models are based on inter-clusters data flow minimization strategy. In a second phase, clusterheads are determined, once clusters has already formed. Simulation results are presented to compare these techniques and some existing models to prove results.
4

Cultura empreendedora :contribuição para o arranjo produtivo local de turismo sustentável da Nova Rússia, Blumenau, SC /

Schmidt, Carla Maria, Dreher, Marialva Tomio, Universidade Regional de Blumenau. Programa de Pós-Graduação em Administração. January 2006 (has links) (PDF)
Orientador: Marialva Tomio Dreher. / Dissertação (mestrado) - Universidade Regional de Blumenau, Centro de Ciências Sociais Aplicadas, Programa de Pós-Graduação em Administração.
5

Cidades menores apresentam mais benefícios ambientais do que as grandes? : uma análise exploratória para o estado de São Paulo

Santiago, Priscila Braga January 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Economia, Administração e Contabilidade, Departamento de Economia, 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2013-03-25T15:12:42Z No. of bitstreams: 1 2012_PriscilaBragaSantiago.pdf: 1467324 bytes, checksum: 5f23689116090fbbd7dbc8fc4b2e88e5 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-03-26T11:50:16Z (GMT) No. of bitstreams: 1 2012_PriscilaBragaSantiago.pdf: 1467324 bytes, checksum: 5f23689116090fbbd7dbc8fc4b2e88e5 (MD5) / Made available in DSpace on 2013-03-26T11:50:16Z (GMT). No. of bitstreams: 1 2012_PriscilaBragaSantiago.pdf: 1467324 bytes, checksum: 5f23689116090fbbd7dbc8fc4b2e88e5 (MD5) / O objetivo desta dissertação é explorar a relação entre aglomerados econômicos, tamanho das cidades e externalidades ambientais negativas. Portanto, contribui-se para esclarecer a controvérsia sobre o tamanho ótimo das cidades, a qual está concentrada na realidade das nações desenvolvidas. Enfatiza-se dimensões ambientais relacionadas a este debate, focando em aglomerações urbanas de países em desenvolvimento. Em ordem para fazer isto, testa-se a hipótese de que cidades pequenas apresentam indicadores de qualidade ambiental melhores do que grandes centros urbanos. A tentativa de rejeitar esta hipótese se baseia em dados de mais de 600 cidades do estado de São Paulo, Brasil, incluindo a capital do estado, São Paulo, uma das maiores cidades no mundo, com mais de 11 milhões de habitantes. Usa-se técnicas de análise multivariada de clusters e análise de fatores com diversos indicadores ambientais – para qualidade da água, eliminação e controle de resíduos sólidos – e um indicador de qualidade de vida agregado, similar ao Índice de Desenvolvimento Humano (IDH). O resultado do trabalho rejeita a hipótese de que cidades pequenas em uma realidade de país em desenvolvimento sejam mais ambientalmente sustentáveis do que cidades grandes. __________________________________________________________________________________ ABSTRACT / The objective of this essay is to explore the relationship between economics of agglomeration, city sizes and negative environmental externalities. Therefore, we contribute to illuminate the controversy on optimal city size, which has been much more concentrated on the reality of developed nations. We emphasize environmental dimensions related to this debate focusing on developing country urban agglomerations. In order to do so we test the hypothesis that smaller cities present better environmental quality indicators than bigger urban centres. Our tentative of rejecting this hypothesis was based upon data on more than 600 cities in the state of São Paulo, Brazil, including its capital city of São Paulo, one of the largest cities in the world with more than 11 million inhabitants. We used cluster and factorial techniques for a multivariable analysis with several environmental indicators - for water qualities and solid waste disposal and management – and an aggregated quality of life indicator very similar to the Human Development Indicator (HDI). Our results reject the hypothesis that smaller cities in a developing country reality are more environmentally sustainable than bigger cities.
6

Uso do teste de Scott-Knott e da análise de agrupamentos, na obtenção de grupos de locais para experimentos com cana-de-açúcar / Scott-Knott test and cluster analysis use in the obtainment of placement groups for sugar cane experiments

Silva, Cristiane Mariana Rodrigues da 15 February 2008 (has links)
O Centro de Tecnologia Canavieira (CTC), situado na cidade de Piracicaba, é uma associação civil de direito privado, criada em agosto de 2004, com o objetivo de realizar pesquisa e desenvolvimento em novas tecnologias para aplicação nas atividades agrícolas, logísticas e industriais dos setores canavieiro e sucroalcooleiro e desenvolver novas variedades de cana-de-açúcar. Há 30 anos, são feitos experimentos, principalmente no estado de São Paulo onde se concentra a maior parte dessas unidades produtoras associadas. No ano de 2004 foram instalados ensaios em 11 destas Unidades Experimentais dentro do estado de São Paulo, e há a necessidade de se saber se é possível a redução deste número, visando aos aspectos econômicos. Se se detectarem grupos de Unidades com dados muito similares, pode-se reduzir o número destas, reduzindo-se, conseqüentemente, o custo dessas pesquisas, e é através do teste estatístico de Scott-Knott e da Análise de Agrupamento, que essa similaridade será comprovada. Este trabalho tem por objetivo, aplicar as técnicas da Análise de Agrupamento (\"Cluster Analisys\") e o teste de Scott-Knott na identificação da existência de grupos de Unidades Industriais, visando à diminuição do número de experimentos do Centro de Tecnologia Canavieira (CTC) e, por conseguinte, visando ao menor custo operacional. Os métodos de comparação múltipla baseados em análise de agrupamento univariada, têm por objetivo separar as médias de tratamentos que, para esse estudo foram médias de locais, em grupos homogêneos, pela minimização da variação dentro, e maximização entre grupos e um desses procedimentos é o teste de Scott-Knott. A análise de agrupamento permite classificar indivíduos ou objetos em subgrupos excludentes, em que se pretende, de uma forma geral, maximizar a homogeneidade de objetos ou indivíduos dentro de grupos e maximizar a heterogeneidade entre os grupos, sendo que a representação desses grupos é feita num gráfico com uma estrutura de árvore denominado dendrograma. O teste de Scott- Knott, é um teste para Análise Univariada, portanto, mais indicado quando se tem apenas uma variável em estudo, sendo que a variável usada foi TPH5C, por se tratar de uma variável calculada a partir das variáveis POL, TCH e FIB. A Análise de Agrupamento, através do Método de Ligação das Médias, mostrou-se mais confiável, pois possuía-se, nesse estudo, três variáveis para análise, que foram: TCH (tonelada de cana por hectare), POL (porcentagem de açúcar), e FIB (porcentagem de fibra). Comparando-se o teste de Scott-Knott com a Análise de Agrupamentos, confirmam-se os agrupamentos entre os locais L020 e L076 e os locais L045 e L006. Conclui-se, portanto, que podem ser eliminadas dos experimentos duas unidades experimentais, optando por L020 (Ribeirão Preto) ou L076 (Assis), e L045 (Ribeirão Preto) ou L006 (Região de Jaú), ficando essa escolha, a critério do pesquisador, podendo assim, reduzir seu custo operacional. / The Centre of Sugar Cane Technology (CTC), placed at the city of Piracicaba, is a private right civilian association, created in August of 2004, aiming to research and develop new technologies with application in agricultural and logistic activities, as well as industrial activities related to sugar and alcohol sectors, such as the development of new sugar cane varieties. Experiments have been made for 30 years, mainly at the state of São Paulo, where most of the associated unities of production are located. At the year of 2004, experiments were installed in 11 of those Experimental Unities within the state of São Paulo, and there is the need to know if it is possible the reduction of this number, aiming at the economical aspects. If it were detected groups of Unities with very similar data, it would be possible to eliminate some of these Unities, diminishing, consequently, the researches cost, and it is through the Scott-Knott statistical test and the Cluster Analysis that this similarity may be corroborated. This work aims to apply the Cluster Analysis techniques and the Scott-Knott test to the identification of the existence of groups of Industrial Unities, aiming at the reduction of the CTC\'s experiments number and, consequently, aiming at the smaller operational cost. The methods of multiple comparison based on univariate cluster analysis aim to split the treatments means in homogenous groups, for this work were used the placement groups means, through the minimization of the variation within, and the maximization amongst groups; one of these methods is the Scott-Knott test. The cluster analysis allows the classification of individual or objects in excludent groups; again, the idea is to maximize the homogeneity of objects or individual within groups and to maximize the heterogeneity amongst groups, being that these groups are represented by a tree structured graphic by the name of dendogram. The Scott-Knott test is a Univariate Analysis test, therefore is appropriate for studies with only one variable of interest. The Cluster Analysis, through the Linkage of Means Method, proved to be more reliable, for, in this case, there were three variables of interest for analysis, and these were: TCH (weight, in tons, of sugar cane by hectare), POL (percentage of sugar) and FIB (percentage of fiber). By comparing the Scott-Knott test with the Cluster Analysis, two pairs of clustering are confirmed, these are: placements L020 and L076; and L045 and L006. Therefore it is concluded that two of the experimental unities may be removed, one can choose from L020 (Ribeirão Preto) or L076 (Assis), and L045 (Ribeirão Preto) or L006 (Região de Jaú), the choice lies with the researcher, and it can diminish the operational cost. Keywords: Cluster Analysis; Sugar Cane
7

Modelagem fuzzy para avaliação do desenvolvimento da cultura do rabanete irrigado com água tratada magneticamente sem estresse hídrico /

Choueri, Matheus January 2018 (has links)
Orientador: Luís Roberto Almeida Gabriel Filho / Coorientador: Fernando Ferrari Putti / Coorientadora: Camila Pires Cremasco Gabriel / Resumo: Normalmente a horticultura utiliza de irrigação artificial para suprir as demandas hídricas das plantas, mas os produtores, em geral, não são criteriosos na utilização das lâminas de reposição, o que acarreta desperdício de água e energia elétrica aumentando os custos de produção. Outro fato é a crescente quantidade de pesquisas sobre a utilização de água tratada magneticamente (ATM) empregada nas atividades agrícolas. Estas pesquisas têm mostrado aprimoramentos produtivos para diversas culturas. Este trabalho apresenta um Sistema Baseado em Regras Fuzzy (SBRF) para avaliação da cultura do rabanete para a lâmina de irrigação a 100% da evapotranspiração. Foram utilizados para o SBRF dados experimentais obtidos por experimento que avaliou a influência da água tratada magneticamente no desenvolvimento de rabanetes. O experimento foi realizado durante os meses de setembro a novembro de 2013, em uma casa de vegetação nas dependências do Departamento de Engenharia Rural da UNESP, Faculdade Ciências Agronômicas, Fazenda Experimental Lageado, localizada no município de Botucatu, São Paulo. Para a elaboração do SBRF, definiu-se um processador de entrada (fuzzificador), um conjunto de regras linguísticas, um método de inferência fuzzy e um processador de saída (defuzzificador), gerando um número real como saída. Este SBRF representa uma função F:X_1×X_2⊆R⟶R^10. O contradomínio R^10 representa as dez variáveis de saída avaliadas: Número de Folhas (NF), Comprimento da Raiz (CR), Diâmetro... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Normally the horticulture uses artificial irrigation to meet the water demands of the plants, but the producers, in General, are not careful in the use of replacement blades, which carries waste of water and electricity by increasing the production costs. Another fact is the growing amount of research on the use of magnetically treated water (MTW) employed in agricultural activities. These researches have shown production enhancements to diverse cultures. This paper presents a Fuzzy rule-based System (FRBS) for evaluation of the culture of radish in two production cycles for the blade of the 100% irrigation of evapotranspiration. Were used for the FRBS the experimental data obtained by experiment that evaluated the influence of magnetically treated water in the development of radishes. The experiment was conducted during the months of September to November 2013, in a greenhouse on the premises of the Department of Rural Engineering of UNESP, Agronomic Sciences College, the Experimental Farm Lageado, located in the city of Botucatu, São Paulo. For FRBS, defined an input processor (fuzzificator), a set of linguistic rules, a fuzzy inference method and an output processor (defuzzificator), generating a real number as output. This FRBS represents a function F: X × X ⊆ ℝ⟶ℝ . The codomain ℝ, represents the ten evaluated output variables: number of leaves (NF), length of root (CR), diameter of the bulb (DB), length of the bulb (CB), Green root Weight (PVR), Green Leaf Weight (... (Complete abstract click electronic access below) / Mestre
8

Trinta anos de homicídios em Pernambuco: tendência e distribuição espacial no período de 1981 a 2010 / Thirty years of homicides in Pernambuco: trend and spatial distribution in the 1981-2010 period

Oliveira Júnior, Fernando José Moreira de January 2013 (has links)
Made available in DSpace on 2015-05-15T13:29:12Z (GMT). No. of bitstreams: 1 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2013 / Fundação Oswaldo Cruz. Centro de Pesquisas Aggeu Magalhães. Recife, PE, Brasil / O objetivo do estudo foi analisar os aspectos temporais e padrões espaciais dos homicídios nas faixas etárias de 20 a 29 e 30 a 59 anos, segundo sexo, em Pernambuco, no período de 1981 a 2010. Para tanto, foi realizado um estudo ecológico com análise de tendência, sazonalidade e espalhamento espacial por município de ocorrência em Pernambuco. Os dados sobre óbitos foram retirados do SIM/MS; os dados populacionais dos censos de 1980, 1991, 2000 e 2010 além da contagem populacional de 1996 disponibilizada pelo IBGE. Para os anos intercensitários, foram utilizadas as estimativas populacionais disponibilizadas pelo DATASUS/MS. As populações mensais foram estimadas através de interpolação geométrica. No estudo de tendência, a razão de mortalidade por homicídio foi suavizada através de spline, e aplicada uma regressão linear. Para a sazonalidade foi calculado e comparado o índice sazonal. No estudo para identificar cluster foram utilizados o índice de Moran Global e o indicador local de associação espacial - LISA. Na confecção dos mapas temáticos foi utilizada a técnica de agrupamento por quebra natural e calculado o risco relativo de homicídios usando a razão de mortalidade por homicídio do Estado no ano de 1981 / Os principais achados foram: a presença de tendência de crescimento na faixa etária de 20 a 29 em ambos os sexos em todo período, porém na análise por década, na de 2000 só as mulheres de 20 a 29 anos não apresentaram tendência de decrescimento; aumento dos homicídios nos meses de dezembro e janeiro, com exceção para mulheres de 30 a 59 anos; na análise espacial, a formação de dois clusters de violência: um no Polígono da Maconha e outro na Região Metropolitana até a década de 90. Na década de 2000, apenas é observado o da Região Metropolitana. O estudo sugere que além dos determinantes sociais, o tráfico de drogas pode estar fortemente associado à ocorrência de homicídios. Sugere também que nos meses de dezembro e janeiro o risco de crimes letais é maior que nos demais
9

Uma estatística scan espacial bayesiana para dados com excesso de zeros

Fernandes, Lucas Barbosa 28 May 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2015. / Submitted by Patrícia Nunes da Silva (patricia@bce.unb.br) on 2015-10-27T18:42:49Z No. of bitstreams: 1 2015_LucasBarbosaFernandes_parcial.pdf: 1190939 bytes, checksum: aa155f545cc8a1e5ab63d052e169e2a9 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2015-10-29T13:34:03Z (GMT) No. of bitstreams: 1 2015_LucasBarbosaFernandes_parcial.pdf: 1190939 bytes, checksum: aa155f545cc8a1e5ab63d052e169e2a9 (MD5) / Made available in DSpace on 2015-10-29T13:34:03Z (GMT). No. of bitstreams: 1 2015_LucasBarbosaFernandes_parcial.pdf: 1190939 bytes, checksum: aa155f545cc8a1e5ab63d052e169e2a9 (MD5) / A análise e detecção de conglomerados (ou clusters) espaciais se mostra de grande utilidade para subsidiar decisões em áreas de saúde e segurança, por exemplo. O método Scan Circular de Kulldorff, um dos mais difundidos para detecção de conglomerados espaciais, recebeu extensões que permitem um melhor desempenho na presença de um grande número de zeros, além de uma abordagem Bayesiana, que possui vantagens computacionais e em termos de incorporação de informações à priori. Este trabalho apresenta adaptações dos trabalhos de Kulldorff (1997), Cançado et al. (2014) e Neill et al. (2006), com as estatísticas Scan Binomial, Scan ZIB, Scan ZIB-EM e Scan Beta-Binomial, e propõe as estatísticas Scan ZIBB e Scan ZIBB-Gibbs, que utilizam a abordagem bayesiana em dados com excesso de zeros. Os métodos são comparados com dados simulados e aplicados ao estudo de casos de Febre Hemorrágica do Dengue (FHD) no estado do Rio de Janeiro (2011). São obtidos resultados positivos para os métodos propostos. / The analysis and detection of spacial cluster are useful for support decisions on many areas, like health and public security. Kulldorff’s Circular Scan method, one of the most known and used, received extensions for better performance on prob- lems that include a great presence of zeros and a bayesian approach, which presents computational advantages and allows the incorporation of prior information. This work presents a review and an adaptation of the works of Kulldorff (1997), Cançado et al. (2014) and Neill et al. (2006) (Scan Binomial, Scan ZIB, Scan ZIB-EM and Scan Beta-Binomial statistics) and proposes the Scan ZIBB and Scan ZIBB-Gibbs statistics, using the Bayesian approach for zero-inflated data. The methods are com- pared with simulated data and applied to the study of cases of Dengue Hemorrhagic Fever (FHD) in the state of Rio de Janeiro (2011). The proposed methods exhibit good results.
10

Modelo para estimar performance de um Cluster Hadoop

Brito, José Benedito de Souza 09 July 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2014. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2014-12-02T12:56:55Z No. of bitstreams: 1 2014_JoseBeneditoSouzaBrito.pdf: 4169418 bytes, checksum: 0acba0fc24656f44b12166c01ba2dc3c (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2014-12-02T13:25:34Z (GMT) No. of bitstreams: 1 2014_JoseBeneditoSouzaBrito.pdf: 4169418 bytes, checksum: 0acba0fc24656f44b12166c01ba2dc3c (MD5) / Made available in DSpace on 2014-12-02T13:25:34Z (GMT). No. of bitstreams: 1 2014_JoseBeneditoSouzaBrito.pdf: 4169418 bytes, checksum: 0acba0fc24656f44b12166c01ba2dc3c (MD5) / O volume, a variedade e a velocidade dos dados apresenta um grande desa o para extrair informações úteis em tempo hábil, sem gerar grandes impactos nos demais processamentos existentes nas organizações, impulsionando a utilização de clusters para armazenamento e processamento, e a utilização de computação em nuvem. Este cenário é propício para o Hadoop, um framework open source escalável e e ciente, para a execução de cargas de trabalho sobre Big Data. Com o advento da computação em nuvem um cluster com o framework Hadoop pode ser alocado em minutos, todavia, garantir que o Hadoop tenha um desempenho satisfatório para realizar seus processamentos apresenta vários desa os, como as necessidades de ajustes das con gurações do Hadoop às cargas de trabalho, alocar um cluster apenas com os recursos necessários para realizar determinados processamentos e de nir os recursos necessários para realizar um processamento em um intervalo de tempo conhecido. Neste trabalho, foi proposta uma abordagem que busca otimizar o framework Hadoop para determinada carga de trabalho e estimar os recursos computacionais necessário para realizar um processamento em determinado intervalo de tempo. A abordagem proposta é baseada na coleta de informações, base de regras para ajustes de con gurações do Hadoop, de acordo com a carga de trabalho, e simulações. A simplicidade e leveza do modelo permite que a solução seja adotada como um facilitador para superar os desa os apresentados pelo Big Data, e facilitar a de nição inicial de um cluster para o Hadoop, mesmo por usuários com pouca experiência em TI. O modelo proposto trabalha com o MapReduce para de nir os principais parâmetros de con guração e determinar recursos computacionais dos hosts do cluster para atender aos requisitos desejados de tempo de execução para determinada carga de trabalho. _______________________________________________________________________________ ABSTRACT / The volume, variety and velocity of data presents a great challenge to extracting useful information in a timely manner, without causing impacts on other existing processes in organizations, promoting the use of clusters for storage and processing, and the use of cloud computing. This a good scenario for the Hadoop an open source framework scalable and e cient for running workloads on Big Data. With the advent of cloud computing one cluster with Hadoop framework can be allocated in minutes, however, ensure that the Hadoop has a good performance to accomplish their processing has several challenges, such as needs tweaking the settings of Hadoop for their workloads, allocate a cluster with the necessary resources to perform certain processes and de ne the resources required to perform processing in a known time interval. In this work, an approach that seeks to optimize the Hadoop for a given workload and estimate the computational resources required to realize a processing in a given time interval was proposed. The approach is based on collecting information, based rules for adjusting Hadoop settings for certain workload and simulations. The simplicity and lightness of the model allows the solution be adopted how a facilitator to overcome the challenges presented by Big Data, and facilitate the use of the Hadoop, even by users with little IT experience. The proposed model works with the MapReduce to de ne the main con guration parameters and determine the computational resources of nodes of cluster, to meet the desired runtime for a given workload requirements.

Page generated in 0.0966 seconds