• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 2
  • Tagged with
  • 26
  • 26
  • 26
  • 11
  • 11
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimação de incertezas no delineamento de clusters espaciais com dados pontuais

Silva, Wesley de Jesus 29 June 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2012-09-27T13:34:04Z No. of bitstreams: 1 2012_WesleydeJesusSilva.pdf: 2641549 bytes, checksum: 9bc7c6085188cfd9bba4deb8d8d4d807 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2012-10-04T12:16:16Z (GMT) No. of bitstreams: 1 2012_WesleydeJesusSilva.pdf: 2641549 bytes, checksum: 9bc7c6085188cfd9bba4deb8d8d4d807 (MD5) / Made available in DSpace on 2012-10-04T12:16:16Z (GMT). No. of bitstreams: 1 2012_WesleydeJesusSilva.pdf: 2641549 bytes, checksum: 9bc7c6085188cfd9bba4deb8d8d4d807 (MD5) / A preocupação em detectar anomalias em um espaço bidimensional é bastante antiga, e sua importância surgiu a partir de questões de saúde pública envolvendo a detecção de excessos de ocorrência local de enfermidades ou indícios de concentração de casos de doenças. Técnicas voltadas _a identificação de clusters prováveis foram amplamente empregadas, e grandes avanços foram obtidos com o uso da Estatística Scan de Kulldorff, permitindo ao mesmo tempo a detecção e o teste de significância associado ao cluster mais provável. Bem recentemente, outro grande passo foi dado ao se propor medidas de intensidade. As medidas de intensidade estão relacionadas com a importância de cada área como parte da anomalida detectada, além de captar regiões de infuência do cluster mais verossímil. Em suma, tais medidas permitem delinear incertezas inerentes ao processo de detecção de conglomerados espaciais. Essa metodologia estava restrita, até agora, apenas ao caso de dados agregados em regiões delimitadas. O ganho de informação que se tem com dados em referência local, entretanto, não pode ser desprezado, nem tampouco a possibilidade de visualização das incertezas envolvidas em observações pontuais do tipo caso-controle. Essa é a motivação de um esforço ainda não realizado: a implementação de medidas de intensidade associadas a cada ponto em um mapa. A solução proposta baseia-se na consideração de vizinhanças em torno de cada ocorrência: regiões circulares centradas nos casos cujas áreas foram delimitadas com auxílio de uma Árvore Geradora Mínima (MST). _______________________________________________________________________________________ ABSTRACT / The concern on detecting anomalies in a two-dimensional space is quite old, and its importance arose from public health issues involving the observation of local excess of disease ocurrence, or signs of disease cases concentration. Techniques aiming the identification of likely clusters have been widely employed, and great advances have been obtained through Kulldorff's Spatial Scan Statistic, allowing at the same time the detection and the significance test associated with the most likely cluster. Recently, another big step was taken through the proposition of the intensity function. The intensity function is related to the importance of each area as part of the detected anomaly, and defines a influence region of the most likely cluster. In short, such measures allow the outline of uncertainty bounds inherent to the detection process. This method was restricted, until now, only to aggregated data case. However, the gain of information that arises from local reference data can not be discarded, neither the possibility of viewing uncertainties involved in case-control point observations. This is the motivation of a not performed effort: the application of the intensity function to each point in a map. The proposed solution is based on neighborhoods around each case: circular regions centered in the cases, whose areas was defined by edges of a Minimum Spanning Tree (MST).
2

Implementação, análise e aplicação de algoritmos de agrupamento de dados superdimensionados, longitudinais e com amostras pequenas

Silva, Alex Pena Tosta da 15 June 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2012. / Submitted by Tania Milca Carvalho Malheiros (tania@bce.unb.br) on 2012-10-16T15:34:17Z No. of bitstreams: 1 2012_AlexPenaTostadaSilva_Parcial.pdf: 8206408 bytes, checksum: 41e1f3a8ed81fa29af9e201ca8cf4d3c (MD5) / Rejected by Leandro Silva Borges(leandroborges@bce.unb.br), reason: rejeitado on 2012-10-17T20:49:35Z (GMT) / Submitted by Tania Milca Carvalho Malheiros (tania@bce.unb.br) on 2012-10-22T12:31:31Z No. of bitstreams: 1 2012_AlexPenaTostadaSilva_Parcial.pdf: 8206408 bytes, checksum: 41e1f3a8ed81fa29af9e201ca8cf4d3c (MD5) / Approved for entry into archive by Jaqueline Ferreira de Souza(jaquefs.braz@gmail.com) on 2012-10-30T09:44:05Z (GMT) No. of bitstreams: 1 2012_AlexPenaTostadaSilva_Parcial.pdf: 8206408 bytes, checksum: 41e1f3a8ed81fa29af9e201ca8cf4d3c (MD5) / Made available in DSpace on 2012-10-30T09:44:05Z (GMT). No. of bitstreams: 1 2012_AlexPenaTostadaSilva_Parcial.pdf: 8206408 bytes, checksum: 41e1f3a8ed81fa29af9e201ca8cf4d3c (MD5) / Este trabalho analisa uma série de algoritmos destinados a agrupar variáveis em uma estrutura de dadossuperdimensionada, longitudinal e com amostras pequenas (do inglês, High Dimensional Longitudinal Low Sample Size - HDLLSS). Esses algoritmos utilizam como medida de similaridade o p-valor resultante de um teste de ausência de efeito simples de grupo em um delineamento fatorial com medidas repetidas no tempo. Os testes não-paramétricos presentes em cada algoritmo serão estudados extensivamente por meio de simulações do erro do tipo I e curvas de poder do teste. Pesquisa bibliográfica dos métodos de agrupamento de dados HDLLSS mostra que a estimação da matriz de covariância é um grande problema em vários algoritmos. Neste trabalho, todas as simulações consideraram três formas distintas de estimação dessa matriz: [símbolo matemático de soma, sigma]i, [símbolo matemático de soma, sigma] e [símbolo matemático de soma, sigma]G. Enquanto [símbolo matemático de soma, sigma]i utiliza as informações da i-ésima variável para estimar as matrizes, [símbolo matemático de soma, sigma] utiliza todas as variáveis para a estimação de uma única matriz de covariâncias. O terceiro método considerado, [símbolo matemático de soma, sigma]G, estima uma matriz de covariâncias para cada grupo. Esse método apresentou melhores resultados por conseguir detectar a variabilidade entre os grupos com informação suficiente para uma boa qualidade de estimação. Aplicações em dados de microarranjo e em sinais de eletroencefalograma (EEG) apresentam resultados promissores. Os estudos de simulação sugerem que os algoritmos de agrupamento propostos superam os métodos existentes na literatura destinados a detectar grupos em dados HDLLSS. Além disso, esses algoritmos possuem propriedades desejáveis como invariância a transformações monótonas nos dados e detecção automática do número de grupos amostrais. ______________________________________________________________________________ ABSTRACT / This dissertation analyses a set of algorithms to cluster variables in high dimensional longitudinal low sample size (HDLLSS) data.These algorithms are based on the use of a pvalue from a non parametric test of no simple effect of group as a similarity measure for the clustering procedure. The non parametric-tests in each algorithm were studied extensively by means of simulations of type I error and power curves. Investigation of recente literatura in HDLLSS clustering algorithms shows that the covariance matrix estimation is a major problem. In this work, all simulations used three different ways of covariance matrix estimation: Σi,ΣandΣG. While Σi uses information from the ith variable to estimate covariance matrices, Σ uses all variables for estimating a single covariance matrix for the data.The third method considered, ΣG,estimates one covariance matrix for each group. This estimation methods hows better results because it can detect the variability between the groups with sufficient information for ago odquality estimation of time covariance structure. Applications on micro array data and electroencephalogram(EEG) signals show promising results.The simulation studies reveal that the proposed clustering algorithms out performs existing methods in the literature applied for detecting groups of HDLLSS data exhibiting high clustering accuracy and stability. Furthermore, these algorithms have desirable properties as invariance under monotone transformations and automatic detection of the number of sample groups.
3

Análise de técnicas baseadas em metaheurísticas e dominação de grafos para clustering em redes ad hoc / Metaheuristics and graph domination techniques analisys for clustering in wireless mobile AD HOC networks

Garcia, Helton Fabiano 18 August 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2006. / Submitted by Jaqueline Ferreira de Souza (jaquefs.braz@gmail.com) on 2010-05-12T14:48:31Z No. of bitstreams: 1 2006_HeltonFabianoGarcia.pdf: 2933521 bytes, checksum: 4db50a5ab873f60b925f201613bbef68 (MD5) / Approved for entry into archive by Lucila Saraiva(lucilasaraiva1@gmail.com) on 2010-05-13T02:28:34Z (GMT) No. of bitstreams: 1 2006_HeltonFabianoGarcia.pdf: 2933521 bytes, checksum: 4db50a5ab873f60b925f201613bbef68 (MD5) / Made available in DSpace on 2010-05-13T02:28:34Z (GMT). No. of bitstreams: 1 2006_HeltonFabianoGarcia.pdf: 2933521 bytes, checksum: 4db50a5ab873f60b925f201613bbef68 (MD5) Previous issue date: 2006-08-18 / As redes ad hoc são caracterizadas pela ausência de infra-estrutura de comunicação. Uma forma de comunicação entre os nós, assim como a manutenção de mudanças de conexão podem utilizar uma estrutura hierárquica baseada em clusters [EPH87]. Um cluster agrupa dinamicamente um conjunto de nós em torno de um nó central, responsável pelo roteamento de dados, chamado de clusterhead [CHA00]. Os demais membros deste cluster são denominados clusternodes. O conjunto de clusterheads de uma rede é chamado de dominant set. Esta estrutura forma um backbone virtual [CHE02]. O problema do particionamento de uma rede em clusters é NP-completo [REE93], fazendo com que a busca por uma solução ótima para a organização em clusters de uma rede ad hoc com topologia móvel seja um desafio. Uma estratégia para a resolução deste problema é a aplicação de técnicas baseadas em metaheurísticas. Desta forma, obter uma "boa" solução, dentro de um cenário com domínio de busca limitado, mostra-se conveniente em boa parte dos casos [REE93]. Este trabalho usa técnicas baseadas em metaheurísticas, algoritmos genéticos [HOL75], simulated annealing [KIR83] e busca tabu [GLO89] na proposição de algoritmos para o particionamento em clusters, levando em consideração o grau de mobilidade da rede, reafiliações, transmissão de dados, disponibilidade, energia e ciclo de vida. Basicamente, os algoritmos buscam a minimização do fluxo de dados inter-clusters. Dados os clusters já formados, determinam-se os clusterheads. Apresentam-se, também, simulações comparando os algoritmos propostos entre si, assim como com outras técnicas de particionamento. _________________________________________________________________________________________ ABSTRACT / Wireless ad hoc networks are characterized for a lack of fixed communication structure. One of the strategies for communications between nodes and the maintenance of connection changes is to adopt a hierarchy structure based in clusters [EPH87]. A cluster dinamically gathers a set of nodes around a local coordinator of data transmission, called clusterhead. All other members of this cluster are called clusternodes or members. The set of clusterheads on a network is called dominant set [CHA00]. This structure forms a virtual backbone [CHE02]. The clustering partitioning in wireless ad hoc networks is a NP-complete problem [REE93], leading to research for an optimal solution for a mobile generic topology as a challenge. An approach to solve this problem is applying metaheuristics techniques. So, to obtain a "good" solution within a scenario with a limited search range proves convenient for several cases and the use of metaheuristics is a powerful instrument to do so [REE93]. This work presents a study about metaheuristics algorithms, such as genetic algorithms [HOL75], simulated annealing [KIR83], and tabu search [GLO89] to determinate cluster partitioning in a generic wireless mobile ad hoc network, taking in consideration mobility models, data transmission, availability, energy and life cycle of nodes. Basically, the proposed models are based on inter-clusters data flow minimization strategy. In a second phase, clusterheads are determined, once clusters has already formed. Simulation results are presented to compare these techniques and some existing models to prove results.
4

Cultura empreendedora :contribuição para o arranjo produtivo local de turismo sustentável da Nova Rússia, Blumenau, SC /

Schmidt, Carla Maria, Dreher, Marialva Tomio, Universidade Regional de Blumenau. Programa de Pós-Graduação em Administração. January 2006 (has links) (PDF)
Orientador: Marialva Tomio Dreher. / Dissertação (mestrado) - Universidade Regional de Blumenau, Centro de Ciências Sociais Aplicadas, Programa de Pós-Graduação em Administração.
5

Cidades menores apresentam mais benefícios ambientais do que as grandes? : uma análise exploratória para o estado de São Paulo

Santiago, Priscila Braga January 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Economia, Administração e Contabilidade, Departamento de Economia, 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2013-03-25T15:12:42Z No. of bitstreams: 1 2012_PriscilaBragaSantiago.pdf: 1467324 bytes, checksum: 5f23689116090fbbd7dbc8fc4b2e88e5 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-03-26T11:50:16Z (GMT) No. of bitstreams: 1 2012_PriscilaBragaSantiago.pdf: 1467324 bytes, checksum: 5f23689116090fbbd7dbc8fc4b2e88e5 (MD5) / Made available in DSpace on 2013-03-26T11:50:16Z (GMT). No. of bitstreams: 1 2012_PriscilaBragaSantiago.pdf: 1467324 bytes, checksum: 5f23689116090fbbd7dbc8fc4b2e88e5 (MD5) / O objetivo desta dissertação é explorar a relação entre aglomerados econômicos, tamanho das cidades e externalidades ambientais negativas. Portanto, contribui-se para esclarecer a controvérsia sobre o tamanho ótimo das cidades, a qual está concentrada na realidade das nações desenvolvidas. Enfatiza-se dimensões ambientais relacionadas a este debate, focando em aglomerações urbanas de países em desenvolvimento. Em ordem para fazer isto, testa-se a hipótese de que cidades pequenas apresentam indicadores de qualidade ambiental melhores do que grandes centros urbanos. A tentativa de rejeitar esta hipótese se baseia em dados de mais de 600 cidades do estado de São Paulo, Brasil, incluindo a capital do estado, São Paulo, uma das maiores cidades no mundo, com mais de 11 milhões de habitantes. Usa-se técnicas de análise multivariada de clusters e análise de fatores com diversos indicadores ambientais – para qualidade da água, eliminação e controle de resíduos sólidos – e um indicador de qualidade de vida agregado, similar ao Índice de Desenvolvimento Humano (IDH). O resultado do trabalho rejeita a hipótese de que cidades pequenas em uma realidade de país em desenvolvimento sejam mais ambientalmente sustentáveis do que cidades grandes. __________________________________________________________________________________ ABSTRACT / The objective of this essay is to explore the relationship between economics of agglomeration, city sizes and negative environmental externalities. Therefore, we contribute to illuminate the controversy on optimal city size, which has been much more concentrated on the reality of developed nations. We emphasize environmental dimensions related to this debate focusing on developing country urban agglomerations. In order to do so we test the hypothesis that smaller cities present better environmental quality indicators than bigger urban centres. Our tentative of rejecting this hypothesis was based upon data on more than 600 cities in the state of São Paulo, Brazil, including its capital city of São Paulo, one of the largest cities in the world with more than 11 million inhabitants. We used cluster and factorial techniques for a multivariable analysis with several environmental indicators - for water qualities and solid waste disposal and management – and an aggregated quality of life indicator very similar to the Human Development Indicator (HDI). Our results reject the hypothesis that smaller cities in a developing country reality are more environmentally sustainable than bigger cities.
6

Trinta anos de homicídios em Pernambuco: tendência e distribuição espacial no período de 1981 a 2010 / Thirty years of homicides in Pernambuco: trend and spatial distribution in the 1981-2010 period

Oliveira Júnior, Fernando José Moreira de January 2013 (has links)
Made available in DSpace on 2015-05-15T13:29:12Z (GMT). No. of bitstreams: 1 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2013 / Fundação Oswaldo Cruz. Centro de Pesquisas Aggeu Magalhães. Recife, PE, Brasil / O objetivo do estudo foi analisar os aspectos temporais e padrões espaciais dos homicídios nas faixas etárias de 20 a 29 e 30 a 59 anos, segundo sexo, em Pernambuco, no período de 1981 a 2010. Para tanto, foi realizado um estudo ecológico com análise de tendência, sazonalidade e espalhamento espacial por município de ocorrência em Pernambuco. Os dados sobre óbitos foram retirados do SIM/MS; os dados populacionais dos censos de 1980, 1991, 2000 e 2010 além da contagem populacional de 1996 disponibilizada pelo IBGE. Para os anos intercensitários, foram utilizadas as estimativas populacionais disponibilizadas pelo DATASUS/MS. As populações mensais foram estimadas através de interpolação geométrica. No estudo de tendência, a razão de mortalidade por homicídio foi suavizada através de spline, e aplicada uma regressão linear. Para a sazonalidade foi calculado e comparado o índice sazonal. No estudo para identificar cluster foram utilizados o índice de Moran Global e o indicador local de associação espacial - LISA. Na confecção dos mapas temáticos foi utilizada a técnica de agrupamento por quebra natural e calculado o risco relativo de homicídios usando a razão de mortalidade por homicídio do Estado no ano de 1981 / Os principais achados foram: a presença de tendência de crescimento na faixa etária de 20 a 29 em ambos os sexos em todo período, porém na análise por década, na de 2000 só as mulheres de 20 a 29 anos não apresentaram tendência de decrescimento; aumento dos homicídios nos meses de dezembro e janeiro, com exceção para mulheres de 30 a 59 anos; na análise espacial, a formação de dois clusters de violência: um no Polígono da Maconha e outro na Região Metropolitana até a década de 90. Na década de 2000, apenas é observado o da Região Metropolitana. O estudo sugere que além dos determinantes sociais, o tráfico de drogas pode estar fortemente associado à ocorrência de homicídios. Sugere também que nos meses de dezembro e janeiro o risco de crimes letais é maior que nos demais
7

Uma estatística scan espacial bayesiana para dados com excesso de zeros

Fernandes, Lucas Barbosa 28 May 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2015. / Submitted by Patrícia Nunes da Silva (patricia@bce.unb.br) on 2015-10-27T18:42:49Z No. of bitstreams: 1 2015_LucasBarbosaFernandes_parcial.pdf: 1190939 bytes, checksum: aa155f545cc8a1e5ab63d052e169e2a9 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2015-10-29T13:34:03Z (GMT) No. of bitstreams: 1 2015_LucasBarbosaFernandes_parcial.pdf: 1190939 bytes, checksum: aa155f545cc8a1e5ab63d052e169e2a9 (MD5) / Made available in DSpace on 2015-10-29T13:34:03Z (GMT). No. of bitstreams: 1 2015_LucasBarbosaFernandes_parcial.pdf: 1190939 bytes, checksum: aa155f545cc8a1e5ab63d052e169e2a9 (MD5) / A análise e detecção de conglomerados (ou clusters) espaciais se mostra de grande utilidade para subsidiar decisões em áreas de saúde e segurança, por exemplo. O método Scan Circular de Kulldorff, um dos mais difundidos para detecção de conglomerados espaciais, recebeu extensões que permitem um melhor desempenho na presença de um grande número de zeros, além de uma abordagem Bayesiana, que possui vantagens computacionais e em termos de incorporação de informações à priori. Este trabalho apresenta adaptações dos trabalhos de Kulldorff (1997), Cançado et al. (2014) e Neill et al. (2006), com as estatísticas Scan Binomial, Scan ZIB, Scan ZIB-EM e Scan Beta-Binomial, e propõe as estatísticas Scan ZIBB e Scan ZIBB-Gibbs, que utilizam a abordagem bayesiana em dados com excesso de zeros. Os métodos são comparados com dados simulados e aplicados ao estudo de casos de Febre Hemorrágica do Dengue (FHD) no estado do Rio de Janeiro (2011). São obtidos resultados positivos para os métodos propostos. / The analysis and detection of spacial cluster are useful for support decisions on many areas, like health and public security. Kulldorff’s Circular Scan method, one of the most known and used, received extensions for better performance on prob- lems that include a great presence of zeros and a bayesian approach, which presents computational advantages and allows the incorporation of prior information. This work presents a review and an adaptation of the works of Kulldorff (1997), Cançado et al. (2014) and Neill et al. (2006) (Scan Binomial, Scan ZIB, Scan ZIB-EM and Scan Beta-Binomial statistics) and proposes the Scan ZIBB and Scan ZIBB-Gibbs statistics, using the Bayesian approach for zero-inflated data. The methods are com- pared with simulated data and applied to the study of cases of Dengue Hemorrhagic Fever (FHD) in the state of Rio de Janeiro (2011). The proposed methods exhibit good results.
8

Modelo para estimar performance de um Cluster Hadoop

Brito, José Benedito de Souza 09 July 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2014. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2014-12-02T12:56:55Z No. of bitstreams: 1 2014_JoseBeneditoSouzaBrito.pdf: 4169418 bytes, checksum: 0acba0fc24656f44b12166c01ba2dc3c (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2014-12-02T13:25:34Z (GMT) No. of bitstreams: 1 2014_JoseBeneditoSouzaBrito.pdf: 4169418 bytes, checksum: 0acba0fc24656f44b12166c01ba2dc3c (MD5) / Made available in DSpace on 2014-12-02T13:25:34Z (GMT). No. of bitstreams: 1 2014_JoseBeneditoSouzaBrito.pdf: 4169418 bytes, checksum: 0acba0fc24656f44b12166c01ba2dc3c (MD5) / O volume, a variedade e a velocidade dos dados apresenta um grande desa o para extrair informações úteis em tempo hábil, sem gerar grandes impactos nos demais processamentos existentes nas organizações, impulsionando a utilização de clusters para armazenamento e processamento, e a utilização de computação em nuvem. Este cenário é propício para o Hadoop, um framework open source escalável e e ciente, para a execução de cargas de trabalho sobre Big Data. Com o advento da computação em nuvem um cluster com o framework Hadoop pode ser alocado em minutos, todavia, garantir que o Hadoop tenha um desempenho satisfatório para realizar seus processamentos apresenta vários desa os, como as necessidades de ajustes das con gurações do Hadoop às cargas de trabalho, alocar um cluster apenas com os recursos necessários para realizar determinados processamentos e de nir os recursos necessários para realizar um processamento em um intervalo de tempo conhecido. Neste trabalho, foi proposta uma abordagem que busca otimizar o framework Hadoop para determinada carga de trabalho e estimar os recursos computacionais necessário para realizar um processamento em determinado intervalo de tempo. A abordagem proposta é baseada na coleta de informações, base de regras para ajustes de con gurações do Hadoop, de acordo com a carga de trabalho, e simulações. A simplicidade e leveza do modelo permite que a solução seja adotada como um facilitador para superar os desa os apresentados pelo Big Data, e facilitar a de nição inicial de um cluster para o Hadoop, mesmo por usuários com pouca experiência em TI. O modelo proposto trabalha com o MapReduce para de nir os principais parâmetros de con guração e determinar recursos computacionais dos hosts do cluster para atender aos requisitos desejados de tempo de execução para determinada carga de trabalho. _______________________________________________________________________________ ABSTRACT / The volume, variety and velocity of data presents a great challenge to extracting useful information in a timely manner, without causing impacts on other existing processes in organizations, promoting the use of clusters for storage and processing, and the use of cloud computing. This a good scenario for the Hadoop an open source framework scalable and e cient for running workloads on Big Data. With the advent of cloud computing one cluster with Hadoop framework can be allocated in minutes, however, ensure that the Hadoop has a good performance to accomplish their processing has several challenges, such as needs tweaking the settings of Hadoop for their workloads, allocate a cluster with the necessary resources to perform certain processes and de ne the resources required to perform processing in a known time interval. In this work, an approach that seeks to optimize the Hadoop for a given workload and estimate the computational resources required to realize a processing in a given time interval was proposed. The approach is based on collecting information, based rules for adjusting Hadoop settings for certain workload and simulations. The simplicity and lightness of the model allows the solution be adopted how a facilitator to overcome the challenges presented by Big Data, and facilitate the use of the Hadoop, even by users with little IT experience. The proposed model works with the MapReduce to de ne the main con guration parameters and determine the computational resources of nodes of cluster, to meet the desired runtime for a given workload requirements.
9

Recursos, demandas e resultados do Sistema Único de Saúde: uma visão espacial / Resources, demands and results of the Unified Health System: a spatial view

Ferreira, Pedro Jacinto 21 October 2016 (has links)
A reforma sanitária, ocorrida após a constituição de 1988, criou o Sistema Único de Saúde (SUS), descentralizando a gestão em saúde pública no Brasil e delegando mais autonomia e responsabilidade aos municípios. Esta descentralização traz inúmeros benefícios, pois aproxima a gestão das realidades locais. Os municípios são peculiares e podem apresentar dificuldades em atingir os mesmos padrões de serviços de saúde dos demais entes federados e, eventualmente, incorrer na desigualdade em saúde. Para garantir a integralidade no atendimento, as Redes Regionais de Atenção à Saúde (RRAS) articulam o sistema de maneira a satisfazer os diferentes níveis de complexidade. Procurou-se nesta pesquisa encontrar padrões espaciais destoantes na distribuição de recursos de saúde no estado de São Paulo, de maneira a caracterizar eventuais desigualdades em saúde. Os dados foram analisados por RRAS e por aglomerados de munícipios de atributos similares. Os resultados indicam diferenças regionais nos vários aspectos pesquisados, sobretudo na cobertura por equipes de saúde da família, no acesso aos serviços de saúde e na oferta e ocupação de leitos. Estas diferenças variam conforme se dista da capital do estado e estão associadas à renda e à presença da saúde suplementar. / The health care reformulation, which started after the constitution of 1988, created the Unified Health Care System (SUS), decentralizing the management of public health care in Brazil and delegating more autonomy and responsibility to counties.This decentralization brings numerous benefits because it approaches the county management to local area realities. Counties have different features and may have difficulties achieving the same health care standards of other federative entities and possibly create health care inequalities. To ensure comprehensiveness in health care, the Regional Health Care Networks (RRAS) articulate the system in order to provide the different levels of complexity. It is aimed in this research to find dissonant spatial patterns in health care resources distribution in the state of São Paulo, in order to characterize any inequalities. The data was analyzed by the RRAS and clusters of counties of similar attributes. Results indicate regional differences in several aspects of the research, mostly in family health care teams coverage, access to health care services and availability and bed occupancy rate. These differences vary according to how distant from the state capital the county is and are associated with income and health insurance attendance.
10

Analytical analysis of consumption in Brazil

Butvilaite, Greta 29 January 2016 (has links)
Submitted by Greta Butvilaite (butvilaite.g@gmail.com) on 2016-03-06T16:40:31Z No. of bitstreams: 1 Master Thesis. version for export.pdf: 4005967 bytes, checksum: 7182562ae47f08ac6216e5c6c4401f03 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2016-08-01T14:55:42Z (GMT) No. of bitstreams: 1 Master Thesis. version for export.pdf: 4005967 bytes, checksum: 7182562ae47f08ac6216e5c6c4401f03 (MD5) / Approved for entry into archive by Maria Almeida (maria.socorro@fgv.br) on 2016-08-01T19:43:34Z (GMT) No. of bitstreams: 1 Master Thesis. version for export.pdf: 4005967 bytes, checksum: 7182562ae47f08ac6216e5c6c4401f03 (MD5) / Made available in DSpace on 2016-08-01T19:43:49Z (GMT). No. of bitstreams: 1 Master Thesis. version for export.pdf: 4005967 bytes, checksum: 7182562ae47f08ac6216e5c6c4401f03 (MD5) Previous issue date: 2016-01-29 / This thesis is an analytical analysis of consumption in Brazil, based on data from the Consumer Expenditure Survey, years 2008 to 2009, collected by the Brazilian Institute of Geography and Statistics. The main aim of the thesis was to identify differences and similarities in consumption among Brazilian households, and estimate the importance of demographic and geographic characteristics. Initially, households belonging to different social classes and geographical regions were compared based on their consumption. For further insights, two cluster analyses were conducted. Firstly, households were grouped according to the absolute values of expenditures. Five clusters were discovered; cluster membership showed larger spending in all of the expense categories for households having higher income, and a substantial association with particular demographic variables, including as region, neighborhood, race and education. Secondly, cluster analysis was performed on proportionate distribution of total spending by every household. Five groups of households were revealed: Basic Consumers, the largest group that spends only on fundamental goods, Limited Spenders, which additionally purchase alcohol, tobacco, literature and telecommunication technologies, Mainstream Buyers, characterized by spending on clothing, personal care, entertainment and transport, Advanced Consumers, which have high relative expenses on financial and legal services, healthcare and education, and Exclusive Spenders, households distinguished by spending on vehicles, real estate and travelling.

Page generated in 0.1037 seconds