• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 263
  • 147
  • 41
  • 30
  • 23
  • 14
  • 13
  • 6
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • Tagged with
  • 624
  • 624
  • 210
  • 124
  • 114
  • 87
  • 86
  • 85
  • 74
  • 67
  • 61
  • 58
  • 58
  • 56
  • 55
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Analysis of the potential of ISSQN revenue collection in Maracanaà / AnÃlise do potencial arrecadatÃrio do ISSQN no MunicÃpio de MaracanaÃ

Sheilane Tatiane Mendes Monteiro 27 February 2012 (has links)
nÃo hà / This work aims to raise the fundraising potential of the ISS as a main source of revenue each municipality's MaracanaÃ. The analysis was the main source of information crossing the Department of Finance in relation to the collection of the ISS in the years 2006 to 2010 (base SEFIN) and base register of the IRS and the Board of Trade of the State of CearÃ. Comparing databases, there is, from the outset, a much larger base of taxpayers the IRS and the Board of Trade that the base of SEFIN. Thus, in view of the possibility of an increase in the collection, it was decided to search this potential through a linear regression model, assuming as the dependent variable and independent variables fundraising capital, type of company (provider or receiver service) and business size (large or small), both variables with explanatory power. We conclude that in MaracanaÃ, studies showed that there is great potential for revenue collection in the ISS. / Com este trabalho pretendeu-se levantar o potencial de arrecadaÃÃo do ISSQN como fonte principal da receita prÃpria do municÃpio de MaracanaÃ. A anÃlise teve como fonte principal o cruzamento das informaÃÃes da Secretaria de FinanÃas no que se refere à arrecadaÃÃo do ISSQN nos anos de 2006 a 2010 (base SEFIN) e a base cadastral da Receita Federal e da Junta Comercial do Estado do CearÃ. Comparando as bases de dados, observa-se, jà de inÃcio, uma quantidade muito maior de contribuintes na base da Receita Federal e da Junta Comercial do que na base da SEFIN. Dessa forma, tendo em vista a possibilidade de incremento na arrecadaÃÃo, resolveu-se pesquisar esse potencial por meio de um modelo de regressÃo linear, assumindo como variÃvel dependente a arrecadaÃÃo e como variÃveis independentes o capital social, o tipo de empresa (prestadora ou tomadora de serviÃo) e o porte empresarial (pequeno ou grande porte), ambas como variÃveis com poder de explicaÃÃo. Conclui-se que no municÃpio de MaracanaÃ, os estudos apontaram que existe um grande potencial de arrecadaÃÃo no recolhimento do ISSQN.
252

Modelos de regressão simplex: resíduos de Pearson corrigidos e aplicações / Simplex regression models:corrected Pearson residuals and applications

Lucimary Afonso dos Santos 02 September 2011 (has links)
A distribuição simplex, proposta por Barndor-Nielsen e Jørgensen (1991) é útil para a modelagem de dados contínuos no intervalo (0,1). Nesse trabalho, desenvolve-se o modelo de regressão simplex considerando-se ´ = h(X; ¯), sendo h(:; :) uma função arbitr ária. Denem-se os resíduos para o modelo considerado e obtêm-se correções assintóticas para resíduos do tipo Ri. A primeira correção proposta baseou-se na obtenção da expressão assintótica para a densidade dos resíduos de Pearson, corrigidos até ordem O(n¡1). Esses resíduos foram denidos de forma a terem a mesma distribuição dos resíduos verdadeiros de Pearson. Estudos de simulação mostraram que a distribuição empírica dos resíduos corrigidos pela densidade encontra-se mais próxima da distribuição dos verdadeiros resíduos de Pearson do que para o resíduo não corrigido de Pearson. A segunda correção proposta considera o método dos momentos. Geralmente, E(Ri) e Var(Ri) são diferentes de zero e um, respectivamente, por termos de ordem O(n¡1). Usando-se os resultados de Cox e Snell (1968), obtiveram-se as expressões aproximadas de ordem O(n¡1) para E(Ri) e Var(Ri). Um estudo de simulação está sendo realizado para avaliação da técnica proposta. A técnica desenvolvida no primeiro estudo, foi aplicada a dois conjuntos de dados, sendo o primeiro deles, dados sobre oxidação de amônia, considerando-se preditor linear e o outro sobre porcentagem de massa seca (MS) em grãos de milho, considerando-se preditor linear e não linear. Os resultados obtidos para os dados de oxidação de amônia, indicaram que o modelo com preditor linear está bem ajustado aos dados, considerando-se a exclusão de alguns possíveis pontos inuentes, sendo que a correção proposta, para a densidade dos resíduos, apresenta os melhores resultados. Observando-se os resultados para os dados de massa seca, os melhores resultados foram obtidos, considerando-se um dos modelos com preditor não linear. / The simplex distribution, proposed by Barndor-Nielsen e Jørgensen (1991) is useful for modeling continuous data in the (0,1) interval. In this work, we developed the simplex regression model, considering ´ = h(X; ¯), where h(:; :) is an arbitrary function. We dened the residuals to this model and obtained asymptotic corrections to residuals of the type Ri. The rst correction proposed, was based in obtaining the asymptotic expression for the density of Pearson residuals, corrected to order O(n¡1). These residuals were dened in order to have the same distribution of true Pearson residuals. Simulation studies showed that the empirical distribution of the modied residuals is closer to the distribution of the true Pearson residuals than the unmodied Pearson residuals. The second one, considers the method of moments. Generally E(Ri) and Var(Ri) are dierent from zero and one, respectively, by terms of order O(n¡1). Using the results of Cox and Snell (1968), we obtained the approximate expressions of order O(n¡1) for E(Ri) and Var(Ri). A simulation study is being conducted to evaluate the proposed technique. We applied the techniques in two data sets, the rst one, is a dataset of ammonia oxidation, considering linear predictor and the other one was the percentage of dry matter in maize, considering linear predictor and nonlinear. The results obtained for the oxidation ammonia data indicated that the model considering linear predictor, tted well to the data, if we consider the exclusion of some possible inuential points. The proposed correction for the density of Pearson residuals, showed better results. Observing the results for the dry matter data, the best results were obtained for a model with a specied nonlinear predictor.
253

Dias trabalháveis para a colheita mecanizada da cana-de-açúcar no estado de São Paulo, com base em critérios agrometeorológicos / Workable days for sugarcane harvesting in the State of São Paulo, Brazil, based on agrometeorological criteria

Luciano Henrique de Souza Vieira 17 August 2017 (has links)
A determinação de dias trabalháveis para operações agrícolas de campo é de extrema importância para o dimensionamento de frotas de máquinas agrícolas. Isso é especialmente importante para a cultura da cana-de-açúcar, na qual as operações de campo se estendem por todo o ano, sendo a colheita a operação que mais danos pode trazer aos solos, quando executada sob condições inadequadas, já que essa ocorre por cerca de 8 a 10 meses. Com base nisso, o presente estudo teve como objetivos: definir os critérios para a determinação do número de dias trabalháveis (NDT) para colheita mecanizada da cana-de-açúcar no estado de São Paulo; determinar o NDT de diferentes regiões do estado de São Paulo com base em um critério geral e em critérios específicos para cada região; determinar a probabilidade de ocorrência de sequência do NDT por meio da cadeia de Markov; e elaborar uma planilha modelo para dimensionamento de frota para colheita mecanizada da cana-de-açúcar com base no NDT gerado pelo critério individual e geral. Para a definição dos critérios do NDT foram empregados dados de interrupção da moagem de 30 usinas no estado de São Paulo, para períodos variando de duas a cinco safras. Foram testados critérios de precipitação mínima (PREC), capacidade de água disponível (CAD) e limite da relação entre o armazenamento de água no solo e CAD (ARM/CAD) para se interromper a operação de colheita. De posse dos critérios de PREC, CAD e ARM/CAD para cada região e um critério geral, foram elaborados mapas do NDT para o estado de São Paulo, Posteriormente, definiu-se com base na cadeia de Markov, as probabilidades condicionais e, por meio dessas, as probabilidades de sequência de dias trabalháveis para cada decêndio do ano. Finalmente, foi elaborada uma planilha Excel® para o dimensionamento de frota de colhedoras de cana, com base no NDT. Os resultados mostraram que houve variação no critério para definição do NDT nas diferentes regiões do estado. No entanto, o uso de um critério geral para todo o estado, considerando-se a PREC de 3 mm, CAD de 40 mm e ARM/CAD de 90%, proporcionou resultados muito similares. O mapa de NDT gerado a partir do critério individual para cada região resultou em um erro médio de 24,9 dias por ano, ao passo que o mapa gerado a partir do critério geral resultou em um erro médio de 4,4 dias por ano, sendo este último mais adequado para a determinação do NDT médio para a colheita mecanizada de cana-de-açúcar. Com relação à probabilidade de sequência de dias trabalháveis, observou-se que nas regiões a oeste, noroeste e norte do estado há, em média, maiores probabilidades de ocorrência de dias trabalháveis, sendo que as maiores probabilidades ocorreram entre abril e setembro, com o primeiro decêndio de julho sendo o que tem os maiores valores. A probabilidade de o dia ser trabalhável dado que o anterior foi trabalhável manteve-se sempre com o mínimo em torno de 50% de probabilidade e com o máximo próximo de 90% em todas as regiões avaliadas. Finalmente, observou-se que a variação do NDT em função do critério usado (individual ou geral) não teve impacto expressivo nos custos de produção e totais. Com base nos resultados apresentados, conclui-se que a determinação correta do NDT é fundamental para o dimensionamento de sistemas de colheita da cana-de-açúcar. / The determination of workable days for agricultural field operations is of extreme importance for dimensioning agricultural machinery fleets. This is especially important for sugarcane cultivation, in which field operations extend throughout the year, from 8 to 10 months per year. Based on this, the present study had as objectives: to define the criteria for determining the number of workable days (NWD) for sugarcane harvest in the state of São Paulo; to determine the NWD of different regions of the state of São Paulo based on general criteria and on specific criteria to each region; to determine the probability of a given NWD sequence by means of the Markov chain; and to elaborate a spreadsheet model for sizing the fleet to harvest sugarcane based on the NWD generated by the individual and general criteria For the definition of NWD criteria, the data from harvest interruption of 30 mills in the state of São Paulo, for periods ranging from two to five harvests, were used. The following criteria were tested: minimum precipitation (PREC); soil water holding capacity (SWHC) and the limit of the relationship between soil moisture storage and SWHC (ARM/SWHC), to define the harvest interruption. Based on these criteria for each region and also a general criteria, NWD maps were prepared for the state of São Paulo.. Afterwards, the conditional probabilities were defined on the basis of the Markov chain, and based on them the probabilities of sequences of working days were defined for all year long for each 10-day periods. Finally, an Excel® spreadsheet was programmed for dimensioning sugarcane harvest machines, based on the NWD. The results showed that there was variation in the criteria for the definition of NWD in the different regions of the state. However, the use of a general criteria for the whole state, considering PREC of 3 mm, SWHC of 40 mm and ARM/SWHC of 90% provided very similar results. The NWD maps generated from the individual criteria for each region generated an average error of 24.9 days per year whereas the map generated from the general criteria resulted in an average error of 4.4 days per year, being the last map the most suitable for determining the average NWD. Regarding the probability of sequences of workable days, it was observed that in the western, northwestern and northern regions of the state there is, on average, a greater probability of workable days, with the periods of greatest probability of workable days being between April and September. The probability of the a day be workable considering that the previous one was workable, always remained between 50% and 90% probability in all regions. Finally, for dimensioning havest mechines, it was observed that the variation of NWD as a function of the criteria used (individual or general) had no significant impact on production and total costs, but affected the total investment. It was concluded that the correct determination of NWD is fundamental for the design of sugarcane harvesting systems.
254

A importância da monitoração de variáveis macroeconômicas nos sistemas de informação : evidenciação através de um caso na indústria transformadora de papéis

Oliveira, Priscila de January 2011 (has links)
O estudo realizado numa indústria transformadora de papéis teve por objetivo contribuir para a evidenciação da importância do monitoramento das variáveis macroeconômicas nos sistemas de informação. Existem ferramentas tecnológicas para processar esse tipo de informação e a literatura oferece suporte para a necessidade desse monitoramento, no entanto, esta prática tem sido objeto de um número limitado de trabalhos empíricos e tem recebido relativamente pouca atenção no ambiente empresarial. Uma possível justificativa, talvez seja a complexidade e o dinamismo dos dados que, além de estarem em constante oscilação per si, interagem entre si e podem ter impactos distintos em cada um dos produtos de uma mesma empresa. A pesquisa que deu origem a esta dissertação, foi realizada como um estudo exploratório descritivo, utilizando-se métodos estatísticos para processar variáveis internas e externas para analisar a importância das variáveis macroeconômicas no gerenciamento de informações de uma empresa selecionada. Escolheu-se uma só empresa com um leque diversificado de produtos e sua relação com seu ambiente externo. Na complexidade interna do negócio foram escolhidos os produtos mais representativos da empresa e cada um deles foram explorados através de duas ferramentas de análise multivariada de dados. Primeiro, fez-se uso da correlação canônica para escolher as variáveis macroeconômicas que possuíam relação mais forte com os produtos selecionados e, em seguida, utilizou-se a regressão linear múltipla para identificar as elasticidades dos produtos em relação a cada uma das variáveis macroeconômicas. Os resultados obtidos, evidentemente, não esgotam o estudo da prática apontada, mas os objetivos propostos e alcançados pela pesquisa, evidenciaram a importância do monitoramento das variáveis macroeconômicas para o caso estudado. / The study formulated in a paper transforming industry intends to contribute in the demonstration of the importance of monitoring macroeconomic variables in Information Systems. There are technological tools to process those data and the literature offers support to this need, nevertheless the subject has receive little attention in the corporate background and was the object of few empiric papers. One reason may be the complexity and the dynamism of the data which besides being in constant oscillation interact among each other and may have distinct impacts in different products of the company. The research performed in this dissertation is categorized as a descriptive exploratory study, using statistical methods to process internal and external variables in order to analyze the importance of the macroeconomic variables in the information management in a firm of choice. It was chosen a single firm with a wide range of products and its relation with the external environment. In the internal complexity of the business it was chosen the most representative products and each one of them were analyzed trough two different multivariate data analysis. First the Canonic Correlation in order to select the macroeconomic variables with the strongest relation to the selected products, subsequently the Multiple Linear Regression with the intention of pinpointing the elasticity of the same products to each variable. The results clearly do not exhaust the subject, however corroborate with the proposed and reached objectives highlighting the importance of monitoring macroeconomic variables for the case studied.
255

Associating genotype sequence properties to haplotype inference errors

ROSA, Rogério dos Santos 12 March 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-03-16T15:28:47Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) RogerioSantosRosa_Tese.pdf: 1740026 bytes, checksum: aa346f64c34419c4b83269ccb99ade6a (MD5) / Made available in DSpace on 2016-03-16T15:28:48Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) RogerioSantosRosa_Tese.pdf: 1740026 bytes, checksum: aa346f64c34419c4b83269ccb99ade6a (MD5) Previous issue date: 2015-03-12 / Haplotype information has a central role in the understanding and diagnosis of certain illnesses, and also for evolution studies. Since that type of information is hard to obtain directly, computational methods to infer haplotype from genotype data have received great attention from the computational biology community. Unfortunately, haplotype inference is a very hard computational biology problem and the existing methods can only partially identify correct solutions. I present neural network models that use different properties of the data to predict when a method is more prone to make errors. I construct models for three different Haplotype Inference approaches and I show that our models are accurate and statistically relevant. The results of our experiments offer valuable insights on the performance of those methods, opening opportunity for a combination of strategies or improvement of individual approaches. I formally demonstrate that Linkage Disequilibrium (LD) and heterozygosity are very strong indicators of Switch Error tendency for four methods studied, and I delineate scenarios based on LD measures, that reveal a higher or smaller propension of the HI methods to present inference errors, so the correlation between LD and the occurrence of errors varies among regions along the genotypes. I present evidence that considering windows of length 10, immediately to the left of a SNP (upstream region), and eliminating the non-informative SNPs through Fisher’s Test leads to a more suitable correlation between LD and Inference Errors. I apply Multiple Linear Regression to explore the relevance of several biologically meaningful properties of the genotype sequences for the accuracy of the haplotype inference results, developing models for two databases (considering only Humans) and using two error metrics. The accuracy of our results and the stability of our proposed models are supported by statistical evidence. / Haplótipos têm um papel central na compreensão e diagnóstico de determinadas doenças e também para estudos de evolução. Este tipo de informação é difícil de obter diretamente, diante disto, métodos computacionais para inferir haplótipos a partir de dados genotípicos têm recebido grande atenção da comunidade de biologia computacional. Infelizmente, a Inferência de Halótipos é um problema difícil e os métodos existentes só podem predizer parcialmente soluções corretas. Foram desenvolvidos modelos de redes neurais que utilizam diferentes propriedades dos dados para prever quando um método é mais propenso a cometer erros. Foram calibrados modelos para três abordagens de Inferência de Haplótipos diferentes e os resultados validados estatisticamente. Os resultados dos experimentos oferecem informações valiosas sobre o desempenho e comportamento desses métodos, gerando condições para o desenvolvimento de estratégias de combinação de diferentes soluções ou melhoria das abordagens individuais. Foi demonstrado que Desequilíbrio de Ligação (LD) e heterozigosidade são fortes indicadores de tendência de erro, desta forma foram delineados cenários com base em medidas de LD, que revelam quando um método tem maior ou menor propensão de cometer erros. Foi identificado que utilizando janelas de 10 SNPs (polimorfismo de um único nucleotídeo), imediatamente a montante, e eliminando os SNPs não informativos pelo Teste de Fisher leva-se a uma correlação mais adequada entre LD e a ocorrência de erros. Por fim, foi aplicada análise de Regressão Linear para explorar a relevância de várias propriedades biologicamente significativas das sequências de genótipos para a precisão dos resultados de Inferência de Haplótipos, estimou-se modelos para duas bases de dados (considerando apenas humanos) utilizando duas métricas de erro. A precisão dos resultados e a estabilidade dos modelos propostos foram validadas por testes estatísticos.
256

ICMS ecológico : uma proposta para a região do semi-árido de Sergipe / ICMS ECO: a proposal for the Semi-Arid region of Sergipe.

Santos, Carlos Anselmo Dias 20 March 2006 (has links)
Since the 60´s a group of searchers in front of same aspects as: geographic growing, food production, etc, looking for analyze the future situation of the man kind in related to Environment. In this aspect, in consequence of the environmental worry there is the Conference in Rio de Janeiro named Rio 92, with main subject the approval of 21st agenda, whose main objective is to stimulate the environmental conservation and preservation. In this context, the state of Paraná became the first in the creation and implementation of Ecological ICMS, an economic instrument that has as main functions: the compensatory function and stimulating function. This way, foundated in the Federal and State Constitution, in the study executed about the Sergipe´s ICMS and through the stimulating function, the present work has as objectives: the implementation and establishing of the Ecological ICMS in the semi-arid region in the Sergipe state. This way, we will search for identify groups of towns that present similitude and still establish tendency functions through the years in the resort available in the piece ICMS. / A partir da década de 60 um grupo de pesquisadores diante de aspectos como: crescimento geográfico, produção de alimentos, dentre outros, procura analisar a situação futura do homem em relação ao Meio Ambiente. Nesse aspecto, como reflexo dessa preocupação com o meio ambiente acontece a Conferência no Rio de Janeiro intitulada Rio 92, tendo como ponto principal à aprovação da Agenda XXI, cujo principal objetivo é incentivar a conservação e preservação ambiental. Nesse contexto, o Estado do Paraná torna-se precursor na criação e implementação do ICMS Ecológico, instrumento econômico que possui como principais funções: a função compensatória e a função incentivadora. Nesse sentido, embasado nas Constituições Federal e Estadual, no estudo realizado sobre o ICMS de Sergipe e através da função incentivadora, o presente trabalho tem como objetivo principal propor o ICMS Ecológico como uma política de gestão ambiental que possa vir a ser implantado e implementado na região do Semi-Árido. Dessa forma, buscou-se identificar grupos de municípios que apresentem similitude, e ainda estabelecer funções de tendência ao longo dos anos da disponibilidade de recursos através da cota-parte do ICMS.
257

Método Shenon (Shelf-life prediction for Non-accelarated Studies) na predição do tempo de vida útil de alimentos / SheNon (Shelf life prediction for Non-accelarated Studies) method in the predicting the shelf life of food

Natália da Silva Martins 06 October 2016 (has links)
A determinação do tempo de vida útil dos alimentos é importante, pois garante que estes estejam adequados para o consumo se ingeridos dentro do período estipulado. Os alimentos que apresentam vida curta têm seu tempo de vida útil determinado por estudos não acelerados, os quais demandam métodos multivariados de análise para uma boa predição. Considerando isso, este estudo objetiva: propor um método estatístico multivariado capaz de predizer o tempo de vida útil de alimentos, em estudos não acerados; avaliar sua estabilidade e sensibilidade frente a perturbações provocadas nas variáveis de entrada, utilizando técnicas de simulação bootstrap; apresentar o método SheNon para dados experimentais por meio da construção de contrastes dos tempos preditos dos tratamentos de interesse e compará-los com uma diferença mínima significativa (DMS) obtida empiricamente por meio do método bootstrap. Com os resultados provenientes deste estudo constatou-se que o método proposto mostra-se promissor e estável para a predição do tempo de vida útil de alimentos em estudos não acelerados. O método mostrou-se sensível ao número de tempos (tamanho da amostra) em que o alimento foi observado. Verificou-se, também, bom desempenho na análise de dados experimentais, uma vez que após predição do tempo de vida útil para cada tratamento considerado, pode-se inferir sobre a igualdade dos tempos de vida de diferentes tratamentos. / Consumers are increasingly demanding about the quality of food and expectation that this quality is maintained at high level during the period between purchase and consumption. These expectations are a consequence not only of the requirement that the food should stay safe, but also the need to minimize the unwanted changes in their sensory qualities. Considering food safety and consumer demands this study aims to propose a multivariate statistical method to predict the shelf life of time not accelerated studies, the method SheNon. The development of multivariate method for predicting the shelf life of a food, considering all attributes and their natures describes a new concept of data analysis for estimating the degradation mechanisms that govern food and determines the time period in which these foods retain their characteristics within acceptable levels. The proposed method allows to include microbiological, physical, chemical and sensory attributes, which leads to a more accurate prediction of shelf life of food. The method SheNon features easy interpretation, its main advantages include the ability to combine information from different natures and can be generalized to data with experimental structure. The method SheNon was applied to eggplants minimally processed predicting a lifetime of around 9.6 days.
258

Aperfeiçoamento de métodos para a determinação de componentes ácidos e básicos em amostras de água de chuva / Enhancement of methods for the determination of acid and alkaline compounds in rainwater samples

Lucia Helena Gomes Coelho 14 April 2005 (has links)
O estudo da variação da composição atmosférica contribui para a compreensão dos efeitos das emissões antrópicas sobre a troposfera. A análise química da água de chuva assume importância neste contexto, uma vez que a precipitação úmida constitui um excelente meio de remoção de muitos poluentes da atmosfera. O aumento de acidez das chuvas, em várias partes do planeta, tem sido associado, predominantemente, à presença de ácidos fortes como o sulfúrico e nítrico, e ácidos orgânicos como acético e fórmico, originados pela oxidação de compostos de enxofre, nitrogênio e carbono, respectivamente. Dando continuidade a pesquisas anteriores sobre deposição úmida realizadas no IQ-USP, no presente trabalho buscou-se extrair mais informações de titulações potenciométricas e condutométricas de água de chuva, mediante aperfeiçoamento dos métodos de cálculo, com recursos quimiométricos modernos, de modo a complementar as medidas de pH e condutividade convencionais. As concentrações de espécies ácidas ou básicas nas amostras de água de chuva são da ordem de 10-5 mol L-1, muito abaixo das concentrações empregadas na prática cotidiana das titulações potenciométricas (tipicamente, no intervalo de 10-1 a 10-3 mol L-1). Dessa forma, propôs-se o uso de um método de regressão não linear (RNL) multiparamétrica, baseado no método de Levenberg-Marquardt, para a análise de dados potenciométricos (TP-RNL) após procedimento de transposição de coordenadas das curvas de titulação. Ao lado das determinações das concentrações dos analitos, pôde-se estimar ou refinar as constantes de protonação das bases de Brönsted presentes. Para tanto, procedeu-se ao ajuste por RNL das concentrações e/ou das constantes de protonação das bases presentes, de modo a minimizar o quadrado dos desvios entre os valores experimentais e os calculados em função do titulante adicionado, recorrendo a uma equação geral baseada no número médio de protonação de cada uma das bases. Ficou demonstrada a possibilidade de se determinar a soma de ácidos fortes completamente dissociados, soma de ácidos fracos com pK próximo a 4 (principalmente ácidos acético e fórmico), HCO3-/H2CO3 e a soma de bases fracas com pK ao redor de 9 (essencialmente NH3/NH4+). Durante as titulações, a facilidade em se coletar medidas de condutância simultaneamente às de pH levou a elaboração de um método sofisticado de análise de curvas de titulação condutométrica. Para tanto, desenvolveu-se uma equação de RNL baseada na contribuição das espécies em cada valor de pH e na condutância iônica medida (TC-RNL). A equação de TC-RNL é alimentada por dados de pH em função do titulante adicionado, oriundos de titulações potenciométricas. Dessa forma, foi possível caracterizar diretamente amônio e bicarbonato, além do conteúdo iônico total que não participa dos equilíbrios ácidos/base existentes no sistema. Adicionalmente, foi possível separar a contribuição do ácido acético da do fórmico, tarefa impossível por TP-RNL, ao menos nas baixas concentrações encontradas na chuva. Nas mesmas amostras de chuva tituladas foi procedida a análise por eletroforese capilar de zona com detecção condutométrica sem contato (CZE-CCD), conforme procedimento descrito na literatura, estimando-se os cátions e ânions majoritários. Num aperfeiçoamento do método para ânions, viabilizou-se a determinação simultânea HCO3-. Para validar os resultados obtidos por CZE-CCD, recorreu-se à cromatografia de íons. As concentrações de vários analitos, dependendo das amostras de chuva, avizinham-se do limite de quantificação das técnicas TP-RNL, TC-RNL e CZE-CCD. Mesmo assim, para as amostras de chuva analisadas, em geral, houve concordância satisfatória entre os valores estimados pelas três técnicas para espécies agrupadas da seguinte forma: ácidos fortes, ácidos fracos, amônio e bicarbonato. / Ivestigation of the variability of atmospheric chemical composition is an important tool for the evaluation and comprehension of anthropic emissions effects.Rainwater analysis has great importance in this context because wet deposition represents an efficient removal route of many atmospheric pollutants. The acidification of rainwater over wide regions of the planet is associated with the increased presence of strong acids, like sulfuric and nitric ones, and organic acids, such as acetic and formic, mainly originated from oxidative reactions od sulfur, nitrogen and carbon compounds in the atmosphere. In the context of a broad research line at IQ-USP devoted to the study of wet deposition and associated atmospheric chemistry, this dissertation advances the subject of using moderm chemometric methods to extract reliable analytical information from potentiometric and conductometric titrations of rainwater. The concentrations of acidic and alkaline species in rainwater are typically below 5 x 10-5 mol L-1, out of the reach of conventional potentiometric titrations (widely applied in the range of 10-1 and 10-3 mol L-1). Thus, multiparametric non-linear regression based on Levenberg-Marquardt method combined with coordinates transposition to reduce iterative calculation is proposed for the analysis of potentiometric data (PT-NLR). General equations based on the average protonation number of each base are used to describe the system. Bases concentrations and/or protonation constants are adjusted by NLR in order to minimize the sum-of-squares of the residuals between experimental and calculated values of the titration curves. The data analysis was tuned to provide four parameters as output: the sum of strong acids, the sum of weak acids with pK around 4.2 (mainly acetic and formic acids), the sum of HCO3-/H2co3 and the sum of weak bases with pK near 9 (essentially NH3/NH4+). To extract more analytical information from the acid/base titrations, conductance meassurements were made simultaneously with the pH readings, and a sophisticated data analysis method was envisioned. The pH data and available protonation constants for bases included in the model are used to compute the distribution of the species. The available conductivity of each species of the model is introduced in a general equation where the only unknowns are the total concentrations of the bases and of electrolyte not involved in acid/base equilibria. All these concentrations are adjusted by NLR on the conductance data, resulting in the first successful conductometric titration method with non-linear regression analysis, CT-NLR. The great advantage over PT-NLR was the capability to distinguish the contributions of acetic and formic acids in rainwater (an impossible task in PT-NLR method), but total strong acids, ammonium and bicarbonate are determined as well, beside the total ionic content of species not involved acid-base equilibria. Rainwater samples were also analysed by capillary zone electriphoresis equipment with contactless conductometric detection (CZE-CCD), as decribed in literature, regarding the major cations and anions. An improved CE method for anions was developed to afford the simultaneous determination of HCO3-. Validation of results was made with the reference method of ion chromatography. Although in many samples some analytes are low and close to the quantification limits od CZE-CCD, PT-NLR and CT-NLR, satisfactory agreement was achieved between values obtained by the three techniques for strong acids, weak acids, ammonium and bicarbonate.
259

Modelo para determinar perda de carga em tubos emissores / Model for determining head losses in driplines

Acácio Perboni 21 June 2012 (has links)
A uniformidade de emissão ao longo de uma linha lateral de irrigação localizada em nível, está relacionada com a variação de pressão, ocasionada pela perda de carga durante o escoamento da água no tubo emissor e pela saída de água pelos emissores ao longo da linha lateral. Para calcular o comprimento máximo das linhas laterais, é necessário determinar de forma precisa essa variação de pressão para atender um critério pré-estabelecido de variação de vazão. O objetivo desse trabalho foi desenvolver metodologia para o cálculo da perda de carga em linhas laterais de gotejamento com emissores do tipo bóbi, para tal foram desenvolvidos dois modelos, um usando regressão linear múltipla e outro usando análise dimensional. Ambos tiveram como base equações de perdas de carga contínua no tubo e localizadas nos emissores disponíveis na literatura. As variáveis dessas equações ficaram definidas como variáveis de entrada para os modelos e foram determinadas em laboratório, usando 12 modelos de tubos emissores, com diferentes diâmetros, espaçamentos entre emissores e seções transversais médias dos emissores. Os dois modelos apresentaram ótimo ajuste aos dados observados, com coeficiente de determinação ajustado de 0,977 e 0,99 para os modelos obtidos a partir de regressão linear múltipla e a partir de análise dimensional, respectivamente. O modelo obtido a partir de análise dimensional considera a variação de diâmetro que o tubo sofre com a pressão da água. Ambos os modelos são de fácil uso. / The uniformity of emission along a lateral line of drip irrigation, is related of the pressure variation caused by head losses during the flow in dripline and the water outlet by emitters along the lateral line. To calculate the maximum length of lateral lines, we need to accurately determine the variation of pressure to meet a pre-established criterion of flow variation. The objective of this work was to develop methodology for calculating the head loss in driplines with emitters type \"bóbi\". For this we developed two models, one using multiple linear regression and one using dimensional analysis. Both were based on equations of continuos head losses in the tube and located in the emitters available in the literature. The equations of these variables were defined as input variables for the models and were determined in the laboratory, using 12 models driplines with different diameters, spacing between emitters and emitters of medium cross sections. Both models showed good fit to the data observados with a determination coefficient of 0.977 for the model obtained from multiple linear regression and to 0.99 obtained from dimensional analysis. The model obtained from the dimensional analysis considers the change in diameter than the tube suffers the water pressure. Both models are easy to use.
260

Estudo de calibração do questionário de frequência alimentar para adolescentes - QFAA a ser utilizado em um estudo de coorte de escolares de Piracicaba, SP / Calibration study of Adolescents Food Frequency Questionnaire – AFFQ to Piracicaba students cohort, SP

Silvia Maria Voci 19 September 2006 (has links)
Introdução - A maior limitação para avaliar a dieta habitual é dada pelo erro de medida. Para minimizar os seus efeitos, tem-se proposto metodologias de calibração para correção dos dados e medidas associativas, consistindo na determinação de uma relação entre duas escalas de medida, utilizando-se regressão linear. Objetivo - Calibrar os dados obtidos por Questionário de Freqüência Alimentar para Adolescentes (QFAA), a partir do fator de calibração obtido por regressão linear. Metodologia - A amostra foi constituída por 74 adolescentes de ambos os sexos, alunos de uma escola pública de Piracicaba, com idade entre 10 e 14 anos. Foram excluídos indivíduos com idade superior ou igual a 14 anos ou com dados de consumo de energia não plausíveis. Obtiveram-se informações sobre dados socioeconômicos, antropométricos, demográficos e de maturação sexual. O consumo alimentar foi levantado por meio de Questionário de Freqüência Alimentar para Adolescentes e dois Recordatórios de 24 horas. Os dados de consumo de ambos os instrumentos foram ajustados pela energia, sendo que apenas os dados do recordatório foram ajustados pela variabilidade intrapessoal. Realizaram-se análises descritivas e de tendência central, one way ANOVA, coeficientes de correlação de Pearson e regressão linear. A média dos dois recordatórios foi utilizada como referência para a calibração dos dados. Resultados - De 74 indivíduos, 71,6% eram do sexo feminino. As médias das variáveis dietéticas foram muito semelhantes para o questionário calibrado e média dos recordatórios, com redução dos valores de desvio-padrão. Os coeficientes de calibração da regressão linear variaram de -0,05 (ferro) a 0,28 (vitamina C). Conclusão – Pelos resultados encontrados, a metodologia utilizada para a calibração dos dados dietéticos foi capaz de reduzir o erro de mensuração e, mesmo não o eliminando por completo, é uma abordagem que pode ser utilizada para obter estimativas menos enviesadas. / Background - A major limitation in usual diet assessment is the measurement error. Calibration approaches have been proposed to minimize its effects and to correct risk estimates. Calibration could be defined as a method which determines a relation between rank orders of two instruments by linear regression. Objective – to apply a calibration strategy in nutrient intake datas obtained by Adolescents Food Frequency Questionnaire (AFFQ), by using a calibration factor obtained by linear regression. Methodology – 74 boys and girls (10 to 14 years old) enrolled at a public school of Piracicaba were assessed. Values of energy intake higher than 6000Kcal and adolescents older than 14 years were excluded. Demographic and anthropometric data, sexual maturation and dietary intake (assessed by food frequency questionnaire and 24-hour recall) were examined. Dietary data intakes were adjusted by energy and, only 24-hour recall data were adjusted by within-person variance. Descriptive statistics, one way ANOVA, Pearson correlation coefficients and linear regression were performed. Results - 71,6% were girls. The calibrated values were similar to the reference data, with a reduction of standard deviation values. Linear regression coefficients (λ) ranged from -0,05 (iron) to 0,28 (vitamin C). Conclusion – The methodology used to calibrate dietary data was capable to reduce measurement error. Although it was not able to eliminate error completely, it is an approach that can be used to obtain less unbiased estimates.

Page generated in 0.1033 seconds