• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 117
  • 12
  • 6
  • 1
  • 1
  • Tagged with
  • 145
  • 62
  • 46
  • 43
  • 39
  • 35
  • 29
  • 19
  • 16
  • 13
  • 12
  • 12
  • 11
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Análisis del comportamiento de consumidores chilenos hacia atributos del camarón blanco del pacífico (Penaeus vannamei) procesado / Analysis of the behavior of Chilean consumers towards the attributes of processed Pacific white shrimp (Penaeus vannamei)

Martínez Juárez, Raúl Ernesto January 2013 (has links)
Tesis para optar al grado de Magíster en Ciencias Agropecuarias mención Producción Agroindustrial / En Chile, el consumo de camarones aumentó las importaciones del año 2001 al 2011. Dada esta intensificación, es relevante generar información sobre la preferencia de consumidores chilenos, hacia atributos de camarón blanco importado. El objetivo fue analizar el comportamiento del consumidor de camarón en el mercado chileno: segmentos y preferencias. El diseño fue observacional y de tipo transversal exploratorio. Se utilizó una muestra no probabilística por conveniencia de 400 consumidores pertenecientes a la comuna de Santiago Centro, Región Metropolitana. La principal fuente de información: fue una encuesta, con preguntas 100% cerradas. Se analizaron las respuestas utilizando métodos multivariables y estadística descriptiva. Estableciendo la mayor tendencia del consumo; siendo la ocasional con 66,2%, seguida de mensual 25,2% y semanal 8,5%. La cantidad frecuentemente consumida es ½ a 1 kg, seguida de menos ½ kg; de tamaño mediano (36/50), seguido de grande (21/35) y pequeño (51/70). Para la segmentación se usó el análisis de conglomerados jerárquico, utilizando pruebas Tukey, Dunnett, y Chi-cuadrado (P< 0,05). Se determinó la existencia de cuatro segmentos basado en actitudes hacia el consumo: segmento 1(36,5%), segmento 2 (23,8%), segmento 3 (14,5%) y segmento 4 (25,3%). Se utilizaron los factores obtenidos en el análisis factorial (KMO 0.71) y estableciéndose que en dos segmentos se tienen actitudes positivas para el país de origen y otros dos segmentos consideran muy importante el precio. En tres segmentos existe una valoración positiva hacia el camarón pelado y desvenado y otros los sellos de garantía de calidad. Estableciendo que existe una relación de dependencia entre ingresos familiares y frecuencia de compra. Finalmente la determinación de preferencias, se estableció a través del análisis conjunto, utilizando representaciones visuales en 11 tarjetas, evaluando los atributos: país de origen (Ecuador, Guatemala, China), valor agregado (camarón entero y colas) proceso (cocido y crudo), con tres precios hipotéticos del camarón. El producto ideal fue la combinación de: colas de camarón, cocidas, de origen ecuatoriano y una leve valoración positiva en precios. En virtud de lo expuesto se establecieron orientaciones de desarrollo comercial, basados en las actitudes en función a la segmentación. / In Chile, the consumption of shrimp increased the imports from 2001 to 2011. Given this intensification, it is relevant to generate information regarding the preference of Chilean consumers. The objective was to analyze the behavior of shrimp consumers in the Chilean market. A non-probabilistic sample by coexistence of 400 consumers that belong to the community of the center of Santiago, Metropolitan region was used. The main information source was a survey with 100% closed-ended questions. The answers were analyzed using multi-variable methods. Establishing the highest consumption trend, where 66.2% occasional, followed by 25.2% monthly, and 8.5% weekly. The amount frequently consumed is from ½ to 1 kg, followed by less than ½ kg of middle size (36/50), followed by big (21/35) and small (51/70). For the segmentation, the analysis of hierarchical conglomerates, using Tukey’s, Dunnett and Chi-square tests (P< 0,05) was carried out. The existence of four segments based on attitudes towards the consumption was determined: segment 1 (36.5%), segment 2 (23.8%), segment 3 (14.5%) and segment 4 (25.3%). The factors obtained in the factorial analysis (KMO 0.71) were used and it was established that there are positive attitudes in two segments towards the country of origin, and two other segments consider the price as very important. There is a positive valuation towards peeled and deveined shrimp in three segments, and other quality guarantee seals, establishing that there is a positive correlation between the family incomes and purchase frequency. Finally, the preference determination was established through the conjoint analysis using visual representations in 11 cards, evaluating the attributes: country of origin (Ecuador, Guatemala, and China), added value (whole shrimp and tails) process (cooked and uncooked), with three hypothetical prices of shrimp. The ideal product was the combination of: tails and cooked, Ecuadorian shrimp and positive price valuation. Consequently, commercial development orientations were established.
32

Dinâmica espacial do sistema bancário no estado de São Paulo

Videira, Sandra Lúcia January 1999 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Filosofia e Ciências Humanas. Curso de Pós-Graduação em Geografia / Made available in DSpace on 2012-10-18T17:09:35Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-09T01:48:09Z : No. of bitstreams: 1 180276.pdf: 12435311 bytes, checksum: f5b087212c3e55abdb6433dbb806d207 (MD5) / A presente dissertação procura mostrar como a normatização do sistema bancário brasileiro influenciou o caráter centralizador e concentrador, presente hoje no sistema financeiro do país. Centralizador pelo fato de um reduzidíssimo número de bancos controlar o sistema financeiro nacional. Concentrador pela distribuição de sedes e agências aglomeradas principalmente em apenas um locus - a cidade de São Paulo e a sua Região Metropolitana. Além da normatização do espaço bancário, trouxemos à tela de estudo o papel das fusões e incorporações refletindo tendência mundial. O papel da informatização no setor bancário foi destacado por atender à necessidade de integração sede/agência e agência/agência, além da viabilidade para inserção no mercado financeiro mundial. A informatização implicou mudanças no panorama de emprego do setor. Apresentamos a espacialidade dos bancos Banespa, Santander, Safra e Bradesco, destacando as distintas estratégias locacionais.
33

Proposta para desenvolvimento de círculos de controle da qualidade em clusters industriais

Cervi, André Felipe Corrêa [UNESP] 29 August 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:26:17Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-08-29Bitstream added on 2014-06-13T20:54:30Z : No. of bitstreams: 1 cervi_afc_me_bauru.pdf: 752756 bytes, checksum: 05739da00470af857c0d8d7f3cdf3889 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / O aumento cada vez mais acentuado da competitividade faz com que as empresas busquem formas de se manter no mercado. Esse objetivo muitas vezes é alcançado formando-se clusters industriais que fornecem vantagens competitivas, melhorias no fluxo de informações, cooperação, aprendizagem entre outros. Este trabalho tem por objetivo criar e validar uma proposta para o desenvolvimento de Círculos de Controle de Qualidade em clusters industriais para que os processos sejam melhorados. Desta forma realizou-se uma pesquisa bibliográfica para que os conceitos sobre o tema fossem entendidos e fixados, confeccionou-se a proposta composta por dois focos de atuação, um para o cluster e um para as empresas, de forma a desenvolver os Círculos de controle da qualidade em clusters industriais e realizou-se sua validação. Esta pesquisa é composta pelas seções, introdução, referencial teórico, proposta pré-validação, validação da proposta, proposta para o desenvolvimento de círculos de controle da qualidade em clusters industriais, conclusão, referências e apêndice. Após a realização de todas as modificações feitas com base na experiência dos respondentes, está adequada à realidade de um cluster industrial / The indrease in competitiveness makes companies seek ways to stay in the market. This goal is often achieved by forming industrial clusters that provide competitive advantages, improvements in the flow of information, cooperation, learning, and more. This work aims to create and validate a proposition for the development of Quality Control Circles in clusters for industrial processes to be improved. Thus, we carried out a literatura search to understand the concepts and formulate the proposition that is composed of two focuses, first, on the cluster and second, on companies. This research is composed of the following sections: introdution, theoretical framework, proposition before validation, validation of the proposition, the proposition for the development of quality control circles in industrial clusters, conclusion, references, and appendix. After completion of all stages of this research, is was noted that the proposition is applicable and with subsequence modifications based on the experience of respondents it became adequate to the reality of an indutrial cluster
34

Análisis Exploratorio de Relaciones Geometalúrgicas Multivariables en Sulfuros de Radomiro Tomic

Carmona Caldera, Sebastián Patricio January 2009 (has links)
El objetivo del presente trabajo es apoyar el modelamiento geológico y geometalúrgico de la mina Radomiro Tomic (RT) mediante el uso de herramientas gráficas y estadísticas. El yacimiento RT es un pórfido cuprífero con óxidos en su parte superior y con sulfuros abajo. La zona de sulfuros se puede dividir en dos, la de sulfuros primarios que está en profundidad y la zona de enriquecimiento compuesto por sulfuros secundarios débiles y fuertes. El contexto y motivación del estudio es la reciente explotación de sulfuros en la mina (que hasta hace poco sólo producía cátodos de cobre), para lo cual interesa aumentar el conocimiento de los fenómenos que explican la ley y del comportamiento metalúrgico de los minerales enviados a planta. El estudio se dividió entonces en análisis del modelo geológico y análisis para el modelo geometalúrgico. En el modelo geológico se estudió el efecto de las menas y los minerales de alteración en la ley de cobre. Los análisis indican que la ley es explicada por distintas menas según el tipo de sulfuros. En sulfuros primarios la principal mena es la bornita mientras que en la zona de enriquecimiento es la calcosina. Esto es coherente con la teoría detrás del modelamiento. Los minerales de alteración más relacionados con la ley son el potásico de fondo (relación negativa) y la sericita gris verde (positiva), lo cual también es coherente con la secuencia de los eventos de alteración pues el potásico es el primer evento con bajo aporte de ley y la sericita apareció con los últimos eventos de alta mineralización. El estudio permite probar además que la nueva modelación de minerales de alteración es más eficaz en la predicción de la ley de cobre que la anterior. En el ámbito geometalúrgico, las menas carecen de poder predictivo sobre este tipo de variables. Los minerales de alteración, por el contrario, muestran un efectivo control sobre la recuperación de cobre y el índice Starkey (que mide el gasto de energía en un molino SAG). Finalmente se aprecia como la arcilla empobrece la ley del concentrado. Este estudio abre ventanas para profundizar en investigaciones sobre el uso de métodos estadísticos para el apoyo del modelamiento geológico y geometalúrgico.
35

Uma estatística scan espacial bayesiana para dados com excesso de zeros

Fernandes, Lucas Barbosa 28 May 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2015. / Submitted by Patrícia Nunes da Silva (patricia@bce.unb.br) on 2015-10-27T18:42:49Z No. of bitstreams: 1 2015_LucasBarbosaFernandes_parcial.pdf: 1190939 bytes, checksum: aa155f545cc8a1e5ab63d052e169e2a9 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2015-10-29T13:34:03Z (GMT) No. of bitstreams: 1 2015_LucasBarbosaFernandes_parcial.pdf: 1190939 bytes, checksum: aa155f545cc8a1e5ab63d052e169e2a9 (MD5) / Made available in DSpace on 2015-10-29T13:34:03Z (GMT). No. of bitstreams: 1 2015_LucasBarbosaFernandes_parcial.pdf: 1190939 bytes, checksum: aa155f545cc8a1e5ab63d052e169e2a9 (MD5) / A análise e detecção de conglomerados (ou clusters) espaciais se mostra de grande utilidade para subsidiar decisões em áreas de saúde e segurança, por exemplo. O método Scan Circular de Kulldorff, um dos mais difundidos para detecção de conglomerados espaciais, recebeu extensões que permitem um melhor desempenho na presença de um grande número de zeros, além de uma abordagem Bayesiana, que possui vantagens computacionais e em termos de incorporação de informações à priori. Este trabalho apresenta adaptações dos trabalhos de Kulldorff (1997), Cançado et al. (2014) e Neill et al. (2006), com as estatísticas Scan Binomial, Scan ZIB, Scan ZIB-EM e Scan Beta-Binomial, e propõe as estatísticas Scan ZIBB e Scan ZIBB-Gibbs, que utilizam a abordagem bayesiana em dados com excesso de zeros. Os métodos são comparados com dados simulados e aplicados ao estudo de casos de Febre Hemorrágica do Dengue (FHD) no estado do Rio de Janeiro (2011). São obtidos resultados positivos para os métodos propostos. / The analysis and detection of spacial cluster are useful for support decisions on many areas, like health and public security. Kulldorff’s Circular Scan method, one of the most known and used, received extensions for better performance on prob- lems that include a great presence of zeros and a bayesian approach, which presents computational advantages and allows the incorporation of prior information. This work presents a review and an adaptation of the works of Kulldorff (1997), Cançado et al. (2014) and Neill et al. (2006) (Scan Binomial, Scan ZIB, Scan ZIB-EM and Scan Beta-Binomial statistics) and proposes the Scan ZIBB and Scan ZIBB-Gibbs statistics, using the Bayesian approach for zero-inflated data. The methods are com- pared with simulated data and applied to the study of cases of Dengue Hemorrhagic Fever (FHD) in the state of Rio de Janeiro (2011). The proposed methods exhibit good results.
36

Consolidação e validação da ferramenta Rapid Alignment Free Tool for Sequences Similarity Search to Groups (RAFTS3GROUPS) : um software rápido de clusterização para big data e buscador consistente de proteínas ortólogas

Nichio, Bruno Thiago de Lima January 2016 (has links)
Orientador : Prof. Dr. Roberto Tadeu Raittz / Coorientadores : Dra. Jeroniza Nunes Marchaukoski e Dr. Vinícius Almir Weiss / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Educação Profissional e Tecnológica, Programa de Pós-Graduação em Bioinformática. Defesa: Curitiba, 16/09/2016 / Inclui referências ao final dos capítulos / Resumo: Uma das principais análises envolvendo sequências biológicas, imprescindíveis e complexas, é a análise de homologia. A necessidade de desenvolver técnicas e ferramentas computacionais que consigam predizer com mais eficiência grupos de ortólogos e, ao mesmo tempo, lidar com grande volume de informações biológicas, ainda é um grande gargalo a ser superado pela bioinformática. Atualmente, não existe uma única ferramenta eficiente na detecção desses grupos, pois ainda requerem muito esforço computacional e tempo. Metodologias já consolidadas, como o BLAST 'todos contra todos', RBH e ferramentas como o OrthoMCL, demandam um alto custo computacional e falham quando há ortologia, necessitando de uma intervenção manual sofisticada. Diante desse cenário, neste trabalho, aprensentamos um breve review referente às técnicas, desenvolvidas entre 2011 até metade de 2017, para a detecção de ortólogos, descrevendo 12 ferramentas e contextualizando os principais problemas ainda a serem superados. A maioria das ferramentas utiliza o algoritmo BLAST como algoritmo padrão predição de homologia entre sequências. Apresentamos também uma nova abordagem para a clusterização de homólogos, a ferramenta RAFTS3groups. Para validarmos a ferramenta utilizamos como base de dados o UniProtKB/Swiss-Prot com outras ferramentas de clusterização o UCLUST e CD-HIT. RAFTS3groups mostrou-se ser mais de 4 vezes mais rápido que o CD-HIT e equiparável em volume de clusters e de tempo à ferramenta UCLUST. Para análise e consolidação de homologia, introduzimos uma nova aplicação auxiliar à ferramenta RAFTS3groups, na clusterização de ortólogos, o script DivideCluster. Comparamos com o método BLAST 'todos contra todos', analisando 9 genomas completos de Herbaspirillum spp. disponíveis no NCBI genbank. RAFTS3groups mostrou-se tão eficiente quanto o método, apresentando cerca de 96% de correlação entre os resultados de clusterização de core e pan genoma obtidos. Palavras-chave: homologia, clusterização, alignment-free, k-means, RAFTS3. / Abstract: One of the main tests involving biological sequences, essential and complex, is the analysis of homology. The study of homologous genes involved in processes such as cell cycle, DNA repair in simpler organisms, even with large evolutionary distance, there are genes that are shared between primates, yeasts and bacteria, which we call (core-genome). The need to develop computational tools and techniques that can predict more efficiently ortologs groups and handle large volume of biological information is still a problem to be resolved by Bioinformatics. We don't have a single powerful tool in detecting groups that still require a lot of effort and computing time. Tools, already consolidated, as the BLAST ' 'all-against-all' ', RBH, OrthoMCL, demand a high computational cost and fail when there is orthology, requiring manual intervention. In this scenario, in this work we presents a brief review on main techniques, developed between 2011 until early 2016, for the detection of orthologs groups, describing 12 tools and being developed currently and the main problems main problems still to be overcome. We note that most tools uses the BLAST as default prediction of homology between sequences. We also present a new approach for the analysis of homology, the RAFTS3groups tool. We use as the database UniProtKB /Swiss-Prot with the clustering tools the UCLUST and the CD-HIT. RAFTS3groups proved to be more than 4 times faster than CD-HIT and comparable in volume to clusters and time with UCLUST tool. In Homology analysis we introduced a new clustering strategy of orthology, the DivideCluster algorithm aplication built into the RAFTS3groups. Compared with the BLAST 'all-against-all', analyzing 9 complete genomes from Herbaspirillum spp. available by NCBI genbank. RAFTS3groups was shown to be as efficient as the method, showing approximately 96% of the correlation among the clustering results of core and pan genome obtained. Key-words: homology, clustering, alignment-free, k-means clustering, RAFTS3.
37

Modelo para estimar performance de um Cluster Hadoop

Brito, José Benedito de Souza 09 July 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2014. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2014-12-02T12:56:55Z No. of bitstreams: 1 2014_JoseBeneditoSouzaBrito.pdf: 4169418 bytes, checksum: 0acba0fc24656f44b12166c01ba2dc3c (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2014-12-02T13:25:34Z (GMT) No. of bitstreams: 1 2014_JoseBeneditoSouzaBrito.pdf: 4169418 bytes, checksum: 0acba0fc24656f44b12166c01ba2dc3c (MD5) / Made available in DSpace on 2014-12-02T13:25:34Z (GMT). No. of bitstreams: 1 2014_JoseBeneditoSouzaBrito.pdf: 4169418 bytes, checksum: 0acba0fc24656f44b12166c01ba2dc3c (MD5) / O volume, a variedade e a velocidade dos dados apresenta um grande desa o para extrair informações úteis em tempo hábil, sem gerar grandes impactos nos demais processamentos existentes nas organizações, impulsionando a utilização de clusters para armazenamento e processamento, e a utilização de computação em nuvem. Este cenário é propício para o Hadoop, um framework open source escalável e e ciente, para a execução de cargas de trabalho sobre Big Data. Com o advento da computação em nuvem um cluster com o framework Hadoop pode ser alocado em minutos, todavia, garantir que o Hadoop tenha um desempenho satisfatório para realizar seus processamentos apresenta vários desa os, como as necessidades de ajustes das con gurações do Hadoop às cargas de trabalho, alocar um cluster apenas com os recursos necessários para realizar determinados processamentos e de nir os recursos necessários para realizar um processamento em um intervalo de tempo conhecido. Neste trabalho, foi proposta uma abordagem que busca otimizar o framework Hadoop para determinada carga de trabalho e estimar os recursos computacionais necessário para realizar um processamento em determinado intervalo de tempo. A abordagem proposta é baseada na coleta de informações, base de regras para ajustes de con gurações do Hadoop, de acordo com a carga de trabalho, e simulações. A simplicidade e leveza do modelo permite que a solução seja adotada como um facilitador para superar os desa os apresentados pelo Big Data, e facilitar a de nição inicial de um cluster para o Hadoop, mesmo por usuários com pouca experiência em TI. O modelo proposto trabalha com o MapReduce para de nir os principais parâmetros de con guração e determinar recursos computacionais dos hosts do cluster para atender aos requisitos desejados de tempo de execução para determinada carga de trabalho. _______________________________________________________________________________ ABSTRACT / The volume, variety and velocity of data presents a great challenge to extracting useful information in a timely manner, without causing impacts on other existing processes in organizations, promoting the use of clusters for storage and processing, and the use of cloud computing. This a good scenario for the Hadoop an open source framework scalable and e cient for running workloads on Big Data. With the advent of cloud computing one cluster with Hadoop framework can be allocated in minutes, however, ensure that the Hadoop has a good performance to accomplish their processing has several challenges, such as needs tweaking the settings of Hadoop for their workloads, allocate a cluster with the necessary resources to perform certain processes and de ne the resources required to perform processing in a known time interval. In this work, an approach that seeks to optimize the Hadoop for a given workload and estimate the computational resources required to realize a processing in a given time interval was proposed. The approach is based on collecting information, based rules for adjusting Hadoop settings for certain workload and simulations. The simplicity and lightness of the model allows the solution be adopted how a facilitator to overcome the challenges presented by Big Data, and facilitate the use of the Hadoop, even by users with little IT experience. The proposed model works with the MapReduce to de ne the main con guration parameters and determine the computational resources of nodes of cluster, to meet the desired runtime for a given workload requirements.
38

Uso do teste de Scott-Knott e da análise de agrupamentos, na obtenção de grupos de locais para experimentos com cana-de-açúcar / Scott-Knott test and cluster analysis use in the obtainment of placement groups for sugar cane experiments

Cristiane Mariana Rodrigues da Silva 15 February 2008 (has links)
O Centro de Tecnologia Canavieira (CTC), situado na cidade de Piracicaba, é uma associação civil de direito privado, criada em agosto de 2004, com o objetivo de realizar pesquisa e desenvolvimento em novas tecnologias para aplicação nas atividades agrícolas, logísticas e industriais dos setores canavieiro e sucroalcooleiro e desenvolver novas variedades de cana-de-açúcar. Há 30 anos, são feitos experimentos, principalmente no estado de São Paulo onde se concentra a maior parte dessas unidades produtoras associadas. No ano de 2004 foram instalados ensaios em 11 destas Unidades Experimentais dentro do estado de São Paulo, e há a necessidade de se saber se é possível a redução deste número, visando aos aspectos econômicos. Se se detectarem grupos de Unidades com dados muito similares, pode-se reduzir o número destas, reduzindo-se, conseqüentemente, o custo dessas pesquisas, e é através do teste estatístico de Scott-Knott e da Análise de Agrupamento, que essa similaridade será comprovada. Este trabalho tem por objetivo, aplicar as técnicas da Análise de Agrupamento (\"Cluster Analisys\") e o teste de Scott-Knott na identificação da existência de grupos de Unidades Industriais, visando à diminuição do número de experimentos do Centro de Tecnologia Canavieira (CTC) e, por conseguinte, visando ao menor custo operacional. Os métodos de comparação múltipla baseados em análise de agrupamento univariada, têm por objetivo separar as médias de tratamentos que, para esse estudo foram médias de locais, em grupos homogêneos, pela minimização da variação dentro, e maximização entre grupos e um desses procedimentos é o teste de Scott-Knott. A análise de agrupamento permite classificar indivíduos ou objetos em subgrupos excludentes, em que se pretende, de uma forma geral, maximizar a homogeneidade de objetos ou indivíduos dentro de grupos e maximizar a heterogeneidade entre os grupos, sendo que a representação desses grupos é feita num gráfico com uma estrutura de árvore denominado dendrograma. O teste de Scott- Knott, é um teste para Análise Univariada, portanto, mais indicado quando se tem apenas uma variável em estudo, sendo que a variável usada foi TPH5C, por se tratar de uma variável calculada a partir das variáveis POL, TCH e FIB. A Análise de Agrupamento, através do Método de Ligação das Médias, mostrou-se mais confiável, pois possuía-se, nesse estudo, três variáveis para análise, que foram: TCH (tonelada de cana por hectare), POL (porcentagem de açúcar), e FIB (porcentagem de fibra). Comparando-se o teste de Scott-Knott com a Análise de Agrupamentos, confirmam-se os agrupamentos entre os locais L020 e L076 e os locais L045 e L006. Conclui-se, portanto, que podem ser eliminadas dos experimentos duas unidades experimentais, optando por L020 (Ribeirão Preto) ou L076 (Assis), e L045 (Ribeirão Preto) ou L006 (Região de Jaú), ficando essa escolha, a critério do pesquisador, podendo assim, reduzir seu custo operacional. / The Centre of Sugar Cane Technology (CTC), placed at the city of Piracicaba, is a private right civilian association, created in August of 2004, aiming to research and develop new technologies with application in agricultural and logistic activities, as well as industrial activities related to sugar and alcohol sectors, such as the development of new sugar cane varieties. Experiments have been made for 30 years, mainly at the state of São Paulo, where most of the associated unities of production are located. At the year of 2004, experiments were installed in 11 of those Experimental Unities within the state of São Paulo, and there is the need to know if it is possible the reduction of this number, aiming at the economical aspects. If it were detected groups of Unities with very similar data, it would be possible to eliminate some of these Unities, diminishing, consequently, the researches cost, and it is through the Scott-Knott statistical test and the Cluster Analysis that this similarity may be corroborated. This work aims to apply the Cluster Analysis techniques and the Scott-Knott test to the identification of the existence of groups of Industrial Unities, aiming at the reduction of the CTC\'s experiments number and, consequently, aiming at the smaller operational cost. The methods of multiple comparison based on univariate cluster analysis aim to split the treatments means in homogenous groups, for this work were used the placement groups means, through the minimization of the variation within, and the maximization amongst groups; one of these methods is the Scott-Knott test. The cluster analysis allows the classification of individual or objects in excludent groups; again, the idea is to maximize the homogeneity of objects or individual within groups and to maximize the heterogeneity amongst groups, being that these groups are represented by a tree structured graphic by the name of dendogram. The Scott-Knott test is a Univariate Analysis test, therefore is appropriate for studies with only one variable of interest. The Cluster Analysis, through the Linkage of Means Method, proved to be more reliable, for, in this case, there were three variables of interest for analysis, and these were: TCH (weight, in tons, of sugar cane by hectare), POL (percentage of sugar) and FIB (percentage of fiber). By comparing the Scott-Knott test with the Cluster Analysis, two pairs of clustering are confirmed, these are: placements L020 and L076; and L045 and L006. Therefore it is concluded that two of the experimental unities may be removed, one can choose from L020 (Ribeirão Preto) or L076 (Assis), and L045 (Ribeirão Preto) or L006 (Região de Jaú), the choice lies with the researcher, and it can diminish the operational cost. Keywords: Cluster Analysis; Sugar Cane
39

Politicas publicas para o desenvolvimento de arranjos produtivos locais em regiões perifericas : um estudo de caso a partir de aglomerações produtivas paraenses

Costa, Eduardo Jose Monteiro da 03 August 2018 (has links)
Orientador: Rinaldo Barcia Fonseca / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Economia / Made available in DSpace on 2018-08-03T20:25:11Z (GMT). No. of bitstreams: 1 Costa_EduardoJoseMonteiroda_M.pdf: 838544 bytes, checksum: 6e07e32ddae7ce2d7b160ee9107142e3 (MD5) Previous issue date: 2003 / Mestrado
40

Descubrimiento de unidades geometalúrgicas por medio de análisis de conglomerados geoestadístico

Fustos Toribio, Roberto Miguel January 2017 (has links)
Doctor en Ingeniería de Minas / El modelamiento geometalúrgico de depósitos minerales está basado en el análisis de variables regionalizadas cuantitativas y cualitativas de origen metalúrgico, geológico u otros relacionados. El objetivo de este modelamiento es identificar y delimitar dominios que particionen el depósito mineral, de tal forma que los datos pertenecientes a un mismo dominio posean características similares. Estos dominios son llamados Unidades Geometalúrgicas (U.G.). Actualmente, las herramientas disponibles para identificar estas unidades no incorporan toda la información disponible, en particular, éstas no consideran la naturaleza de las variables de estudio, las que están distribuidas en el espacio y presentan una estructura de correlación espacial. Se presentaron dos propuestas que buscaron resolver este problema incorporando la distribución espacial de los datos, basándose en el Análisis de Conglomerados Jerárquicos y en la teoría de Mezclas de Distribuciones. Se presentó un marco conceptual que resumió las técnicas utilizadas para la definición de Unidades Geometalúrgicas, mostrando las variantes de cada herramienta y la teoría básica de cada método. Las propuestas se basaron en casos sintéticos que reprodujeran la naturaleza de cada problema y se aplicaron a casos de estudio reales con información geoquímica, metalúrgica y geológica. En los casos de datos simulados (estudios de casos sintéticos), fue posible realizar un análisis de sensibilidad de las propuestas postulando escenarios con diferentes complejidades. En gran parte de las simulaciones las propuestas pudieron descubrir con precisión la distribución de las Unidades Geometalúrgicas. En los casos de estudio reales Minera Escondida y Geoquímica del sector Colchane , las Unidades Geometálurgicas pudieron ser identificadas y validadas en base a descripciones geológicas de las regiones de interés. Se discutieron las ventajas de las propuestas por sobre los métodos y algoritmos tradicionales, así como diferentes oportunidades de mejoras futuras.

Page generated in 0.0462 seconds