• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 391
  • 19
  • 17
  • 14
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 443
  • 195
  • 112
  • 95
  • 81
  • 75
  • 55
  • 45
  • 44
  • 38
  • 38
  • 37
  • 37
  • 37
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Análise dos atributos no processo de decisão de compra de notebooks no segmento B2B

Silva, Lucas Guimarães January 2017 (has links)
Este trabalho objetiva analisar os atributos no processo de decisão de compra de notebooks no segmento B2B. Observa-se que os players que vendem notebooks para o mercado corporativo têm dificuldades para identificar os atributos que são mais importantes para seus clientes. Com o intuito de auxiliar na resolução deste problema, foram entrevistados presencialmente profissionais responsáveis pela área de infraestrutura de TI de 15 empresas da região de Porto Alegre, pedindo para que eles ordenassem 20 cartões de perfil completo contendo a descrição técnica de alguns notebooks. A partir da apresentação dos dados gerais da amostra, estruturou-se os dados dentro do software de estatística SPSS, tendo como input os fatores e níveis estabelecidos a partir de reuniões realizadas com profissionais da área de Marketing que trabalhavam na mesma empresa do pesquisador e da literatura a respeito de atributos no processo de decisão de compra de notebooks. Em seguida, procedeu-se com a análise estatística propriamente dita, começando pelo estudo desagregado, passando pela etapa agregada e finalizando com a identificação dos clusters Os resultados obtidos indicaram que o storage é o fator com a maior importância relativa para as empresas estudadas, seguido por processador, preço, marca e memória. A análise de subgrupos indicou que 5 segmentos resultaram na menor soma dos erros quadrados. Assim, verificou-se a relevância que o conhecimento dos atributos de notebooks tem para as empresas atuantes neste setor, de modo a conseguirem definir preços baseados em valor, posicionar melhor seus produtos, desenvolver novas estratégias de negócio e elaborar campanhas promocionais direcionadas. / This paper aims to analyze the attributes on the buying decision process of notebooks in the B2B segment. It is notable that players who sell notebooks for the corporate market have difficulty identifying the attributes that are most important to their customers. In order to assist in solving this problem, professionals responsible for the IT infrastructure area of 15 companies from the Porto Alegre region were interviewed in person and they were asked to order 20 complete profile cards containing the tecnhincal description of some notebooks. Based on the sample overall data presentation, the data were structured whithin the SPSS statistical software, considering as inputs the factors and levels defined from meetings held with Marketing area professionals who worked in the same company as the researcher and from the literature with respect to attributes on the buying decision process of notebooks. Then, the statistical analysis itself was made, starting with the individual analysis, going through the aggregated stage and ending up with the clusters identification. The obtained results showed that the storage is the factor with the greatest relative importance for the analyzed companies, followed by the processor, price, brand and memory. The subgroup analysis pointed out that 5 segments resulted in the smallest sum of squared errors. Thus, it was verified the relevance that the notebooks attributes knowledge has for the companies that play in this sector, in order to achieve price definition based on value, better position their products, develop new business strategies and elaborate driven promotional campaigns.
142

[en] QUANTITATIVE SEISMIC INTERPRETATION USING GENETIC PROGRAMMING / [pt] INTERPRETAÇÃO SÍSMICA QUANTITATIVA COM USO DE PROGRAMAÇÃO GENÉTICA

ERIC DA SILVA PRAXEDES 19 June 2015 (has links)
[pt] Uma das tarefas mais importantes na indústria de exploração e produção de petróleo é a discriminação litológica. Uma das principais fontes de informação para subsidiar a discriminação e caracterização litológica é a perfilagem que é corrida no poço. Porém, na grande maioria dos trabalhos os perfis utilizados na discriminação litológica são apenas aqueles disponíveis no domínio dos poços. Para que modelos de discriminação litológica possam ser extrapolados para além do domínio dos poços, faz-se necessário a utilização de características que estejam presentes tanto nos poços como fora deles. As características mais utilizadas para realizar esta integração rocha-perfil-sísmica são os atributos elásticos. Dentre os atributos elásticos o que mais se destaca é a impedância. O objetivo desta dissertação foi a utilização da programação genética como modelo classificador de atributos elásticos para a discriminação litológica. A proposta se justifica pela característica da programação genética de seleção e construção automática dos atributos ou características utilizadas. Além disso, a programação genética permite a interpretação do classificador, uma vez que é possível customizar o formalismo de representação. Esta classificação foi empregada como parte integrante do fluxo de trabalho estatístico e de física de rochas, metodologia híbrida que integra os conceitos da física de rochas com técnicas de classificação. Os resultados alcançados demonstram que a programação genética atingiu taxas de acertos comparáveis e em alguns casos superiores a outros métodos tradicionais de classificação. Estes resultados foram melhorados com a utilização da técnica de substituição de fluídos de Gassmann da física de rochas. / [en] One of the most important tasks in the oil exploration and production industry is the lithological discrimination. A major source of information to support discrimination and lithological characterization is the logging raced into the well. However, in most studies the logs used in the lithological discrimination are only those available in the wells. For extrapolating the lithology discrimination models beyond the wells, it is necessary to use features that are present both inside and outside wells. One of the features used to conduct this rock-log-seismic integration are the elastic attributes. The impedance is the elastic attribute that most stands out. The objective of this work was the utilization of genetic programming as a classifier model of elastic attributes for lithological discrimination. The proposal is justified by the characteristic of genetic programming for automatic selection and construction of features. Furthermore, genetic programming allows the interpretation of the classifier once it is possible to customize the representation formalism. This classification was used as part of the statistical rock physics workflow, a hybrid methodology that integrates rock physics concepts with classification techniques. The results achieved demonstrate that genetic programming reached comparable hit rate and in some cases superior to other traditional methods of classification. These results have been improved with the use of Gassmann fluid substitution technique from rock physics.
143

Um filtro iterativo utilizando árvores de decisão / An Iterative Decision Tree Threshold Filter

Oscar Picchi Netto 24 September 2013 (has links)
Usar algoritmos de Aprendizado de Máquina é um dos modos ecientes de extrair as informações de grandes bases biológicas. Sabendo-se que a quantidade de dados que são coletados cresce a cada dia, o uso de alguma técnica de seleção de atributos eficiente é, em alguns casos, essencial não só para otimizar o tempo do algoritmo de Aprendizado da Máquina a ser aplicado posteriormente como também para reduzir os dados, de forma que possa ser possível testá-los, por exemplo, em uma bancada de laboratório em algumas situações específicas. O objetivo deste estudo é propor uma abordagem utilizando árvores de decisão em um filtro iterativo, visando auxiliar na extração de informação de grande bases biológicas. Pois, com uma base de menor dimensionalidade, um especialista humano pode entender melhor ou ainda utilizar um algoritmo de Aprendizado de Máquina de forma mais eficaz. O filtro proposto pode utilizar qualquer classificador com um seletor de atributos embutido e qualquer métrica pode ser utilizada para determinar se o atributo deve ser escolhido. Foi fixado, neste estudo, o algoritmo utilizado como J48 e a área embaixo da curva ROC (AUC) como métrica. Em experimentos utilizando diversas bases de dados biomédicas, o filtro proposto foi analisado e sua capacidade de compressão e desempenho foram avaliados em cinco diferentes paradigmas de aprendizado de máquina, utilizando dois limiares diferentes para a métrica escolhida. O melhor limiar obteve uma capacidade de compressão de cerca de 50% dos dados em geral e 99.4% em bases de baixa densidade, geralmente grandes bases. Os valores AUC obtidos pelo filtro quando comparados com cinco algoritmos de paradigmas de aprendizado diferentes mostraram um desempenho melhor em quatro das cinco situações avaliadas. O filtro proposto foi depois analisado e comparado com outros seletores de atributos da literatura e o indutor sozinho. Quanto ao tempo gasto pelo filtro em relação aos outros ele se apresentou no mesmo patamar de 3 dos 4 seletores testados. Quando comparado em relação ao AUC o filtro proposto se mostrou robusto nos cinco indutores analisados, não apresentando nenhuma diferença significativa em nenhum dos cenários testados. Em relação aos indutores, o filtro apresentou um desempenho melhor, mesmo que não significante, em 4 dos 5 indutores. / Using Machine Learning algorithms is an eficient way to extract information from large biological databases. But, in some cases, the amount of data is huge that using an eficient featured subset selection is, in some cases, essencial not only to optimize the learning time but also to reduce the amount of data, allowing, for example, a test in a laboratory workbench. The objective of this study is to propose an approach using decision trees in a iterative filter. The filter helps information extraction from large biological databases, since in a database with few dimensions a human specialist can understand it better or can use Machine Learning algorithms in a more efective way. The proposed lter can use any classier with embed featured subset selection and can use any performance metric to determine which attribute must be chosen. In this study, we have fixed the algorithm used within the filter as J48 and AUC was used as metric for performance evaluation. In experiments using biomedical databases, the proposed filter was analyzed and its compression capacity and performance were tested. In five diferent Machine Learning paradigms, using two diferent thresholds for the chosen metric. The best threshold was capable of reducing around 50% of the data using all databases and 99.4% on the small density bases, usually high dimensional databases. AUC values for the filter when compared with the five algorithm got a better performance in four of five tested situations. The proposed filter then was tested against others featured subset selectors from the literature, and against the inducer alone. Analyzing time the proposed lter is in the same level as 3 of 4 of the tested selectors. When tested for AUC the proposed selector shows itself robust in the five inducers tested, not showing any signicant diference in all tested scenarios. Against the inducers alone our filter showed a better performance, even not signicant, in 4 of the 5 inducers.
144

Contagem incremental de padrões locais em árvores de componentes para cálculo de atributos / Incremental counting of local patterns in component tree for attribute calculation

Dênnis José da Silva 26 October 2017 (has links)
Árvore de componentes é uma representação completa de imagens que utiliza componentes conexos dos conjuntos de níveis de uma imagem e a relação de inclusão entre esses componentes. Essas informações possibilitam diversas aplicações em processamento de imagens e visão computacional, e.g. filtros conexos, segmentação, extração de características entre outras. Aplicações que utilizam árvore de componentes geralmente computam atributos que descrevem os componentes conexos representados pelos nós da árvore. Entre esses atributos estão a área, o perímetro e o número de Euler, que podem ser utilizados diretamente ou indiretamente (para o cálculo de outros atributos). Os \"bit-quads\" são padrões de tamanho 2x2 binários que são agrupados em determinados conjuntos e contados em imagens binárias. Embora o uso de \"bit-quads\" resulte em um método rápido para calcular atributos em imagens binárias, o mesmo não ocorre para o cálculo de atributos dos nós de uma árvore de componentes, porque os padrões contados em um nó podem se repetir nos conjuntos de níveis da imagem e serem contados mais de uma vez. A literatura recente propõe uma adaptação dos bit-quads para o cálculo incremental e eficiente do número de buracos na árvore de componentes. Essa adaptação utiliza o fato de cada nó da árvore de componentes representar um único componente conexo e uma das definições do número de Euler para o cálculo do número de buracos. Embora essa adaptação possa calcular o número de Euler, os outros atributos (área e perímetro) não podem ser computados. Neste trabalho é apresentada uma extensão dessa adaptação de bit-quads que permite a contagem de todos os agrupamentos de bit-quads de maneira incremental e eficiente na árvore de componentes. De forma que o método proposto possa calcular todos os atributos que podem ser obtidos pelos bit-quads (além do número de buracos) em imagens binárias na árvore de componentes de maneira incremental. / Component tree is a full image representation which uses the connected components of the level sets of the image and these connected components\' inclusion relationship. This information can be used in various image processing and computational vision applications, e.g. connected filters, segmentation, feature extraction, among others. In general, applications which use component trees compute attributes that describe the connected components represented by the tree nodes. Attributes such as area, perimeter and Euler number, can be used directly or indirectly (when they are used to compute other attributes) to describe the component tree nodes in various applications. The bit-quads are binary patterns of size 2x2 that are grouped in determined sets and counted in binary images to compute area, perimeter (also their continuous approximation) and Euler number. Even though the bit-quads usage can yield an efficient method to compute binary image attributes, they cannot be used efficiently to compute attributes for all component tree nodes, since some bit-quads can be counted more than once over the level sets. An adaptation of the bit-quads has been proposed to compute efficiently and incrementally the number of holes for all component tree nodes. This adaptation uses the fact that each component tree node represents a unique connected component and one of Euler number definitions to compute the number of holes. Even though this adaptation can compute Euler number, it cannot compute other attributes derived from the bit-quads (area and perimeter). In this work, an extension of this adaptation is proposed to efficiently and incrementally count all bit-quads sets in a component tree. Moreover, it yields a method to compute all attributes which can be computed by the bit-quads in binary images in the component tree using an incremental strategy.
145

Seleção de atributos relevantes para aprendizado de máquina utilizando a abordagem de Rough Sets. / Machine learning feature subset selection using Rough Sets approach.

Adriano Donizete Pila 25 May 2001 (has links)
No Aprendizado de Máquina Supervisionado---AM---o algoritmo de indução trabalha com um conjunto de exemplos de treinamento, no qual cada exemplo é constituído de um vetor com os valores dos atributos e as classes, e tem como tarefa induzir um classificador capaz de predizer a qual classe pertence um novo exemplo. Em geral, os algoritmos de indução baseiam-se nos exemplos de treinamento para a construção do classificador, sendo que uma representação inadequada desses exemplos, bem como inconsistências nos mesmos podem tornar a tarefa de aprendizado difícil. Um dos problemas centrais de AM é a Seleção de um Subconjunto de Atributos---SSA---cujo objetivo é diminuir o número de atributos utilizados na representação dos exemplos. São três as principais razões para a realização de SSA. A primeira razão é que a maioria dos algoritmos de AM, computacionalmente viáveis, não trabalham bem na presença de vários atributos. A segunda razão é que, com um número menor de atributos, o conceito induzido através do classificador pode ser melhor compreendido. E, a terceira razão é o alto custo para coletar e processar grande quantidade de informações. Basicamente, são três as abordagens para a SSA: embedded, filtro e wrapper. A Teoria de Rough Sets---RS---é uma abordagem matemática criada no início da década de 80, cuja principal funcionalidade são os redutos, e será tratada neste trabalho. Segundo essa abordagem, os redutos são subconjuntos mínimos de atributos que possuem a propriedade de preservar o poder de descrição do conceito relacionado ao conjunto de todos os atributos. Neste trabalho o enfoque esta na abordagem filtro para a realização da SSA utilizando como filtro os redutos calculados através de RS. São descritos vários experimentos sobre nove conjuntos de dados naturais utilizando redutos, bem como outros filtros para SSA. Feito isso, os atributos selecionados foram submetidos a dois algoritmos simbólicos de AM. Para cada conjunto de dados e indutor, foram realizadas várias medidas, tais como número de atributos selecionados, precisão e números de regras induzidas. Também, é descrito um estudo de caso sobre um conjunto de dados do mundo real proveniente da área médica. O objetivo desse estudo pode ser dividido em dois focos: comparar a precisão dos algoritmos de indução e avaliar o conhecimento extraído com a ajuda do especialista. Embora o conhecimento extraído não apresente surpresa, pôde-se confirmar algumas hipóteses feitas anteriormente pelo especialista utilizando outros métodos. Isso mostra que o Aprendizado de Máquina também pode ser visto como uma contribuição para outros campos científicos. / In Supervised Machine Learning---ML---an induction algorithm is typically presented with a set of training examples, where each example is described by a vector of feature values and a class label. The task of the induction algorithm is to induce a classifier that will be useful in classifying new cases. In general, the inductive-learning algorithms rely on existing provided data to build their classifiers. Inadequate representation of the examples through the description language as well as inconsistencies in the training examples can make the learning task hard. One of the main problems in ML is the Feature Subset Selection---FSS---problem, i.e. the learning algorithm is faced with the problem of selecting some subset of feature upon which to focus its attention, while ignoring the rest. There are three main reasons that justify doing FSS. The first reason is that most ML algorithms, that are computationally feasible, do not work well in the presence of many features. The second reason is that FSS may improve comprehensibility, when using less features to induce symbolic concepts. And, the third reason for doing FSS is the high cost in some domains for collecting data. Basically, there are three approaches in ML for FSS: embedded, filter and wrapper. The Rough Sets Theory---RS---is a mathematical approach developed in the early 1980\'s whose main functionality are the reducts, and will be treated in this work. According to this approach, the reducts are minimal subsets of features capable to preserve the same concept description related to the entire set of features. In this work we focus on the filter approach for FSS using as filter the reducts obtained through the RS approach. We describe a series of FSS experiments on nine natural datasets using RS reducts as well as other filters. Afterwards we submit the selected features to two symbolic ML algorithms. For each dataset, various measures are taken to compare inducers performance, such as number of selected features, accuracy and number of induced rules. We also present a case study on a real world dataset from the medical area. The aim of this case study is twofold: comparing the induction algorithms performance as well as evaluating the extracted knowledge with the aid of the specialist. Although the induced knowledge lacks surprising, it allows us to confirm some hypothesis already made by the specialist using other methods. This shows that Machine Learning can also be viewed as a contribution to other scientific fields.
146

Estudo da variação dos atributos foliares nos níveis intraindividual, intrapopulacional e interespecífico / Leaf traits study in intraindividual, intrapopulational and interspecific level

Renata Martins Belo 09 August 2013 (has links)
Ecologia funcional das plantas trata-se de uma nova abordagem dos dados que associa características morfológicas ou fisiológicas das plantas à sua função no ecossistema. Um único atributo pode estra relacionado a mais de uma função no ecossistema, assim a formação de esquemas de respostas ecológicas, através da associação de mais de um atributo, contribui para a realização de inferências mais seguras. Protocolos têm sido realizados com intuito de padronizar a coleta e análise dos dados, viabilizando a realização de análises globais e previsões mais seguras a respeito da mudança no uso do solo e aquecimento global. Porém, a ocorrência de variações dentro das espécies e em diferentes níveis de escala podem se tornar problemas para tais realizações. Nesse contexto o presente estudo se propõe a avaliar possíveis fontes de variação, bem como avaliar as proporções de variação entre diferentes escalas. As escalas envolvidas foram dentro do indivíduo - foram coletadas dez folhas totalmente expostas nas posições Norte e Sul da copa, que conferem diferentes condições de luminosidade; dentro da mesma espécie ou intrapopulacional - foram coletas cinco indivíduos de cada espécie em cada uma das três subpopulações; e entre espécies - foram coletadas quatro espécies de plantas em cada local. Os atributos avaliados foram: espessura, área foliar específica, conteúdo de massa seca foliar, conteúdos de clorofila a, b e carotenóides, razão clorofila a-b e conteúdo de nitrogênio por massa seca. Os dados foram analisados segundo modelos mistos que verificaram a existência de interações entre as escalas. Em seguida foi realizado uma ANOVA ou um teste de Tukey para verificação se há diferenciação entre os atributos nas diferentes posições da copa. Foram gerados modelos que resultaram em proporções de variação dentro dos indivíduos, entre os indivíduos de toda a espécie, entre as subpopulações e entre as espécies. Também foram realizadas Análises de Componentes Principais para verificação da formação de conjuntos de atributos. Não houve diferença dos atributos foliares entre as duas posições na copa. Somente o conteúdo de nitrogênio apresentou interação na escala Espécie. Houve formação de diferentes esquemas de respostas ecológicas. Schefflera macrocarpa indicou características de espécie de crescimento lento e folhas com longo tempo de vida, Erythorxylum suberosum e Birsonima intermedia apresentaram características mais similares, mas B intermedia apresentou características de folhas de vida mais curta em relação a E suberosum,com investimento especial em clorofila a, que pode estar relacionado à arquitetura de copa da espécie. Symplocos oblongifolia apresentou características de folhas de vida curta. Uma variação marcante e inesperada foi a variação dentro dos indivíduos, que deve ser melhor estudada para averiguação de sua fonte. Estudos de arquitetura de copa, plasticidade fenotípica e que envolvam outras escalas menos detalhadas podem orientar o melhor entendimento das fontes de variação dos atributos foliares paras as espécies desse estudo. / Plant functional ecology is a novel approach that combines morphological or physiological characteristics of plants to the ecosystem function. A single attribute can be related to more than one function in the ecosystem, so the grouping some traits can be taken as ecology strategy schemes contributing to many inferences. Protocols have been undertaken to standardize the acquisition and analysis of leaf traits data, allowing the detection of global patterns that can be used in forecasts and policies regarding land use directions and global warming models. However, the occurrence of variations within the species at different scales would be a source of interference in the data acquisition procedures, affecting the reliability of the interpretation. In this context, the present study aims to evaluate the variation regarding different scales using the proportion of variance of each trait in a group of species. The scales involved were: intra-individual - considering leaves exposed in the North and South canopy parts, which confer different lighting conditions; intra-populational - five individuals of each species in each of the three subpopulations; and interespecific - four plant species at each location. The attributes evaluated were thickness, specific leaf area, leaf dry matter content, content of chlorophyll a, b and carotenoids, chlorophyll ab ratio and nitrogen content by dry weight. Data were analyzed using a mixed models technique to detect the existence of interactions between scales. Then an ANOVA with a Tukey test was performed to check for differences among attributes in different positions of the canopy. We used models encompassing the variations within individuals; among the individuals of all kinds, and among subpopulations among species. We also performed a Principal Component Analysis to explore the relations among sets of attributes at the different scales. We found no difference in leaf traits between the two positions in the canopy. Only the nitrogen content showed interactions at the species scale. The Schefflera macrocarpa showed characteristics of slow-growing species and leaves with long lifetime, and Erythorxylum suberosum and Birsonima intermedia showed similar trends but B.intermedia showed leaves with shorter life spam when compared to E. suberosum , with higher investment in chlorophyll a , which may be related to the canopy architecture of the species. Symplocos oblongifolia showed characteristics of short-lived leaves. We found an unexpectedly high variation within individual level, which should be further studied. Studies of canopy architecture, and phenotypic plasticity involving other scales would contribute to a better understanding of the sources of variation in leaf traits in the species used in this study.
147

Crop prediction and soil response to sugarcane straw removal / Predição da produção e resposta do solo à remoção de palha de cana de açúcar

Lucas Santos Satiro 19 January 2018 (has links)
Concerns about global warming and climate change have triggered a growing demand for renewable energy. In this scenario, the interest in using sugarcane straw as raw material for energy production has increased. However, straw plays an important role in maintaining soil quality. In addition, uncertainties as to produced straw amount and the straw removal impact on the stalk yield have raised doubts as to the use this raw material. In this sense, the objective this study was evaluate the short-term (2-year) the sugarcane straw removal impacts on soil and yield modeling of sugarcane stalk and straw, using soil attributes of different layers. Two experiments were carried out in São Paulo state, Brazil: one at Capivari (sandy clay loam soil) and another at Valparaíso (sandy loam soil). We have tested five rates of straw removal (i.e., equivalent to 0, 25, 50, 75 and 100 %). Soil samples were taken from 0-2.5, 2.5-5, 5-10, 10-20 and 20-30 cm layers to analyze pH, total C and N, P, K, Ca, Mg, bulk density and soil penetration resistance. Plant samples were collected to determine the straw and stalk yield. The impacts caused by straw removal differed between the areas, however, they concentrated on the more soil superficial layer. In sandy clay loam soil, straw removal led to organic carbon depletion and soil compaction, while in the sandy loam soil the chemical attributes (i.e. Ca and Mg contents) were the most impacted. In general, the results suggest that straw removal causes reduction more significant in soil quality for the sandy clay loam soil. The results indicate the possibility to remove about half-straw amount deposited on soil\'s surface (8.7 Mg ha-1 straw remaining) without causing severe implications on the quality of this soil. In contrast, although any amount of straw was sufficient to cause alterations the quality of the sandy loam soil, these impacts were less intense and are not magnified with the increase of straw removal. It was possible to model sugarcane straw and stalk yield using soil attributes. The 0-20 cm layer was the most important layer in the stalk yield definition, whereas the 0-5 cm layer, which the impacts caused by the straw removal were concentrated, was less important. Thus, we noticed that impacts caused to soil by straw removal have little influence on crop productivity. Straw prediction has proved more complex and possibly requires additional information (e.g crop and climate information) for good results to be obtained. Overall, the results suggest that the planned removal of straw for energy purposes can occur in a sustainable way, but should take into account site conditions, e.g soil properties. However, long-term research with different approaches is still necessary, both to follow up and confirm our results, and to develop ways to reduce damage caused by this activity. / Preocupações acerca do aquecimento global e mudanças climáticas tem provocado uma crescente demanda por energias renováveis. Nesse cenário, tem aumentado o interesse em utilizar a palha de cana-de-açúcar como matéria prima para produção de energia. Contudo, a palha desempenha importante papel na manutenção da qualidade do solo. Aliado a isso, incertezas quanto a quantidade de palha produzida e o impacto da remoção da palha na produção de colmos tem levantado duvidas quanto ao uso dessa matéria prima. Nesse sentido, o objetivo desse estudo foi avaliar a curto prazo (2 anos) os impactos da remoção da palha de cana-de-açucar no solo, e modelar a produção de palha e colmo de cana-de-açucar utilizando atributos do solo de diferentes camadas. Para tanto, foram conduzidos dois experimentos nos municípios de Capivari (solo de textura média) e Valparaíso (solo de textura arenosa), estado de São Paulo, Brasil. Foram testados cinco taxas de remoção de palha (i.e., equivalentes a 0, 25, 50, 75 e 100 %). Amostras de solo foram coletadas nas camadas 0-2,5, 2,5-5, 5-10, 10-20 e 20-30 cm de profundidade para determinação de C, N, pH, P, K, Ca, Mg, densidade do solo e resistência do solo a penetração. Amostras de planta foram coletadas para determinar a produção de colmo e palha. Os impactos causados pela remoção da palha diferiu entre as áreas, no entato, se concentraram na camada mais superficial do solo. No solo de textura média a remoção da palha levou a depleção do carbono orgânico e a compactação do solo, enquanto que, no solo de textura arenosa os atributos químicos (i.e teores de Ca e Mg) foram os mais impactados. Os resultados indicam a possibilidade de remover cerca de metade da quantidade de palha depositada sobre o solo (8.7 Mg ha-1 palha remanecente) sem causar graves implicações na qualidade deste solo. Em contraste, no solo de textura arenosa, qualquer quantidade de palha foi suficiente para causar alterações na qualidade do solo, contudo, essas alterações foram menos intensas e não aumentaram com as taxas de remoção da palha. Foi possível modelar a produção de colmo e palha de cana-de-açucar utilizando atributos do solo. A camada 0-20 cm foi a mais importante na definição da produção de colmos, ao passo que a camada 0-5 cm, camada em que se concentra os impactos causados pela remoção da palha, foi menos importante. Assim, notamos que os impactos causados ao solo pela remoção da palha tem pouca influencia na produtividade da cultura. A predição da palha se mostrou mais complexa e possivelmente requer informações adicionas (e.g informações da cultivar e de clima) para que bons resultados sejam obtidos. No geral, os resultados sugerem que a remoção planejada da palha para fins energéticos pode ocorre de maneira susutentável, porém deve levar em conta condições locais, e.g propriedades do solo. Contudo, pesquisas de longo prazo com diferentes abordagens ainda são necessárias, tanto para acompanhar e confirmar nossos resultados, como para desenvolver soluções que atenuem os danos causados por esta atividade.
148

Visualização e exploração de dados multidimensionais na web / Exploratory multidimensional data visualization on the web

Lucas de Carvalho Pagliosa 13 November 2015 (has links)
Com o crescimento do volume e dos tipos de dados, a necessidade de analisar e entender o que estes representam e como estão relacionados tem se tornado crucial. Técnicas de visualização baseadas em projeções multidimensionais ganharam espaço e interesse como uma das possíveis ferramentas de auxílio para esse problema, proporcionando um forma simples e rápida de identificar padrões, reconhecer tendências e extrair características antes não óbvias no conjunto original. No entanto, a projeção do conjunto de dados em um espaço de menor dimensão pode não ser suficiente, em alguns casos, para responder ou esclarecer certas perguntas feitas pelo usuário, tornando a análise posterior à projeção crucial para a correta interpretação da visualização observada. Logo, a interatividade, aplicada à necessidade do usuário, é uma fator essencial para análise. Neste contexto, este projeto de mestrado tem como principal objetivo criar metáforas visuais baseadas em atributos, através de medidas estatísticas e artefatos para detecção de ruídos e grupos similares, para auxiliar na exploração e análise dos dados projetados. Além disso, propõe-se disponibilizar, em navegadores Web, as técnicas de visualização de dados multidimensionais desenvolvidas pelo Grupo de Processamento Visual e Geométrico do ICMC-USP. O desenvolvimento do projeto como plataforma Web inspira-se na dificuldade de instalação e execução que certos projetos de visualização possuem, como problemas causados por diferentes versões de IDEs, compiladores e sistemas operacionais. Além disso, o fato do projeto estar disponível online para execução tem como propósito facilitar o acesso e a divulgação das técnicas propostas para o público geral. / With the growing number and types of data, the need to analyze and understand what they represent and how they are related has become crucial. Visualization techniques based on multidimensional projections have gained space and interest as one of the possible tools to aid this problem, providing a simple and quick way to identify patterns, recognize trends and extract features previously not obvious in the original set. However, the data set projection in a smaller space may not be sufficient in some cases to answer or clarify certain questions asked by the user, making the posterior projection analysis crucial for the exploration and understanding of the data. Thus, interactivity in the visualization, applied to the users needs, is an essential factor for analysis. In this context, this master projects main objective consists to create visual metaphors based on attributes, through statistical measures and artifacts for detecting noise and similar groups, to assist the exploration and analysis of projected data. In addition, it is proposed to make available, in Web browsers, the multidimensional data visualization techniques developed by the Group of Visual and Geometric Processing at ICMC-USP. The development of the project as a Web platform was inspired by the difficulty of installation and running that certain visualization projects have, mainly due different versions of IDEs, compilers and operating systems. In addition, the fact that the project is available online for execution aims to facilitate the access and dissemination of technical proposals for the general public.
149

Um sistema de gerenciamento de hiperdocumentos para ambientes de desenvolvimento de software

Perin, Marcelo Gattermann January 1992 (has links)
Esta dissertação explora diversos aspectos relacionados a integração entre ferramentas de edição e entre os documentos por estas gerados durante o processo de desenvolvimento de software. São analisados para esta finalidade os conceitos de Hiperdocumento e Gramática de Atributos. E especificada uma ferramenta que assiste o desenvolvimento de software através do use de um mecanismo baseado em gramática, que facilita o estabelecimento e controle de sequencias de utilização das ferramentas de edição. Na ferramenta, e também empregado o conceito de gramática, em conjunto ao conceito de Dicionário de Dados Ativo, para a reavaliação dinâmica de documentos editados. A ferramenta incorpora ainda mecanismos com o enfoque de hiperdocumentos, o que facilita a inter-conexão de informações contidas nos documentos gerados no processo de produção de software. são apresentadas as características de produtividade e qualidade no desenvolvimento de software e os fatores que as influenciam, analisando especificamente ferramentas CASE e a necessidade de integração destas. São analisados os conceitos de Gramática de Atributos (GA), Editor Dirigido por Sintaxe (EDS) baseados em GA e Gerador de Editores Dirigidos por Sintaxe (GEDS), no contexto da Engenharia de Software. É apresentado um exemplo de utilização de GA para obtenção de integração de controle no desenvolvimento de software. são expostos os conceitos de Hiperdocumento no contexto da Engenharia de Software. E apresentado um exemplo de utilização de Hiperdocumentos para obtenção de integração referencial no desenvolvimento de software. Na construção da ferramenta, três mecanismos com o enfoque de hiperdocumentos são aplicados para abordar a integração referencial: a) um mecanismo de estabelecimento de elos entre informações contidas nos documentos editados; b) um mecanismo de "browser" de elos, que permite a visualização e seguimento de elos estabelecidos; e c) um mecanismo de estabelecimento e seguimento de caminhos de leitura dos documentos gerados. Um protótipo da ferramenta, implementado em Eiffel, e apresentado. Alguns resultados dos experimentos realizados com a ferramenta são expostos. Trabalhos futuros sobre a pesquisa são sugeridos. / This work explores several aspects about integration between development tools and the documents generated by them in the process of software development. The concepts of Hyperdocument and Atribute Grammars are analysed for this meaning. A tool which aids the software development process by using a grammar based mechanism is specified. This mechanism facilitates the establishment and the control of the development tools being used. In this tool, the concept of grammar is also used, added to the concept of Active Data Dictionary, for dynamic revaluat ion of the edited documents. The tool has mechanisms with hyperdocument emphasis, which falicitate the relationship between documents generated in the software production. The productivity and quality features in software development and the factors that influence them are presented, specifically considering CASE tools and their necessity for integration. The concepts of Atributes Grammar (AG), Sintax Driven Editor (SDE) based on AG and SDEs generator (SDEG) are analysed in the context of Software Engineering. It is presented one sample of AG application for getting development software control integration. The concepts of Hyperdocument are exposed in the context of Software Engineering. It is presented one sample of Hyperdocument application for getting development software referential integration. In the tool, three mechanisms with Hiperdocument emphasis are applied to get referential integration: a) a mechanism for links establishment between edited documents informations; b) a mechanism for links browsing, that allows the links visualization and pursuit; c) a mechanism for establishment and pursuit documents reading paths. One Eiffel prototype of the tool is presented. Some results of the tool experiments are exposed. Future works about the research are suggested.
150

Conservar, uma questão de decisão: o julgamento na conservação da arquitetura moderna

Silva, Paula Maciel 06 March 2012 (has links)
Submitted by Amanda Silva (amanda.osilva2@ufpe.br) on 2015-03-09T13:25:58Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Tese doutorado Paula Maciel.pdf: 15376000 bytes, checksum: 72eba46eb361aabd53d4378587c781ac (MD5) / Made available in DSpace on 2015-03-09T13:25:58Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Tese doutorado Paula Maciel.pdf: 15376000 bytes, checksum: 72eba46eb361aabd53d4378587c781ac (MD5) Previous issue date: 2012-03-06 / A conservação de edifícios recentes é um tema que tem feito parte dos fóruns de discussão nos últimos anos. Ainda são poucos os exemplares da arquitetura moderna que são legalmente protegidos e o processo de crescimento das cidades tem selecionado as edificações. Na ação da conservação o foco é um objeto que possui significado e valor. Estes são expressos por atributos de maneira íntegra e autêntica. É um conceito claro, mas sua aplicação prática esbarra em subjetividades e na falta de critérios para o julgamento das decisões. O edifício moderno lida com a necessidade de adequação seja pelas novas exigências de uso e funcionamento, seja por problemas decorrentes dos anos de experimentação da tecnologia utilizada e do uso de materiais com vida útil reduzida. Até que ponto intervir de modo que seja assegurada a permanência do valor patrimonial do edifício? O objetivo do trabalho é propor um procedimento para se obter princípios norteadores para o julgamento das ações de conservação que influenciam na integridade e na autenticidade dos atributos de edifícios da arquitetura moderna. O procedimento permite que se leve em consideração a especificidade de cada caso. Declarações condutoras expressam, sinteticamente, o conceito de cada atributo e orientam sua avaliação que será expresso através de uma resposta numérica que segue uma variação da escala likert. A metodologia utilizada para identificação e conceituação dos atributos da arquitetura moderna foi a análise de conteúdo de documentos da UNESCO e de fontes bibliográficas referentes à historiografia e à conservação da arquitetura moderna. A análise dos resultados ocorre de forma qualitativa, cujo resultado é Orientações para Conservação (OC) do edifício. É possível avaliar a integridade e a autenticidade dos atributos no estado atual do edifício assim como as perdas e/ou ganhos gerados por alterações propostas em um projeto para sua conservação. O edifício escolhido para aplicação da metodologia foi um edifício vertical de uso institucional localizado na cidade do Recife. É um tipo que sofre grandes pressões para adequar-se às novas exigências de funcionamento e desempenho da edificação. A influência das alterações dos atributos no valor patrimonial do edifício depende da relação entre estes atributos e a significância do bem.

Page generated in 0.038 seconds