• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5061
  • 1058
  • 195
  • 48
  • 39
  • 39
  • 37
  • 28
  • 23
  • 16
  • 16
  • 14
  • 14
  • 8
  • 2
  • Tagged with
  • 6430
  • 2592
  • 714
  • 701
  • 683
  • 538
  • 463
  • 428
  • 424
  • 418
  • 410
  • 408
  • 408
  • 400
  • 359
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Numerical methods for regularization models of geophysical flows

Monteiro, Igor Oliveira January 2015 (has links)
Escoamentos geofísicos são aqueles escoamentos que são afetados pela rotação da Terra. Simulações computacionais envolvendo este tipo de escoamento tem diversas aplicações como, por exemplo, em estudos sobre mudanças climáticas e em previsões de tempo e do escoamento oceânico, imprescindíveis para o bemestar da sociedade moderna. Em especial no caso do Brasil, a importância destas simulações é ainda maior devido à sua ampla aplicação na indústria do petróleo. Porém, devido ao imenso número de Reynolds conferido a estes escoamentos, os recursos computacionais disponíveis atualmente (e decerto no futuro próximo) não são suficientes para simulá-los integralmente. Modelos regularizados são modelos simplificados concebidos para lidar com este problema, pois permitem a redução dos graus de liberdade em virtude de alterações nas equações originais que encurtam a cascata de energia e propiciam o uso de malhas menos refinadas. Nesta tese, foram estudados dois modelos com extenso uso em escoamentos geofísicos: o Modelo da Vorticidade Barotrópica (modelo BV) e o Modelo de Boussinesq. Para o modelo BV três tipos de regularizações foram consideradas: a regularização alfa com deconvolução modificada de Tikhonov-Lavrentiev, a regularização Bardina e a regularização alfa com deconvolução aproximada de van Cittert. Algoritmos com discretização temporal de Crank-Nicolson e espacial em elementos finitos foram propostos para estas regularizações e demonstrados incondicionalmente estáveis e otimamente convergentes. Também, simulações computacionais foram feitas, tanto para validar a teoria desenvolvida, como para avaliar o desempenho destes modelos em malhas com pouco refinamento, em situações mais próximas aquelas que ocorrem em aplicações reais. No caso do modelo de Boussinesq foram estudadas quatro tipo de regularizações: alfa, ômega, Leray e Leray modificada, todas com deconvolução aproximada de van Cittert. Para estas regularizações, algoritmos do tipo Crank- Nicolson/elementos finitos, junto com algumas técnicas bem sucedidas quando aplicadas as equações de Navier-Stokes, foram propostos e analisados numericamente. É mostrado que os algoritmos conservam energia e são incondicionalmente estáveis e otimamente convergentes. Em complemento, simulações computacionais são apresentadas, tanto para validar a teoria de convergência, como também para avaliar o desempenho de cada regularização em situações mais realistas. Nestas simulações, é mostrado que a regularização de Leray, além de ter grandes vantagens do ponto de vista computacional, pois permite controlar a ordem do erro de consistência do modelo sem alterar significativamente o tempo computacional, produziu, em malhas com pouco refinamento, as melhores soluções em comparação as soluções esperadas para os experimentos. / Geophysical ows are the ows in uenced by the Earth's rotation. Computational simulations involving this kind of ow have several applications, such as climate changes studies and weather and ocean forecasts which are essential for the welfare in modern society. In particular for Brazil, the importance of geophysical simulations is even greater due to applications in the oil industry. However, due to the extremely large Reynolds numbers associated with geophysical ows, the current available computational resources (and certainly in the near future) are not enough to simulate it entirely. Regularized models are simpli ed models designed to deal with this kind of problem, because they reduce the degrees of freedom in simulations by virtue of small changing the original equations, which shorten the energy cascade and enable to the the use of less re ned meshes. In this work, two models with extensive application in geophysical ow are studied: the Barotropic Vorticity model (BV model) and the Boussinesq model. First, in the case of the BV model, three di erent regularization techniques are studied, namely, the alpha regularization with modi ed Tikhonov-Lavrentiev deconvolution, the Bardina regularization and the alpha regularization with van Cittert approximate deconvolution. Crank-Nicolson in time, nite element in space algorithms for these models are proposed and rigorously proven to be unconditionally stable and optimally convergent. Also, computational simulations are performed that validate the developed theory for the proposed regularized models, and shows their e ectiveness on coarse meshes in situations similar to real applications. In the Boussinesq model case, four regularizations are studied, namely, alpha, omega, Leray and modi ed Leray, all of them with van Cittert approximate deconvolution and some techniques which have enjoyed success when applied to the Navier-Stokes equations. Crank-Nicolson/ nite element algorithms, are developed and numerically analysed. They are proven to be unconditionally stable and optimally convergent. Moreover, computational simulations are performed to validate the convergence theory and to evaluate the performance of each regularization in more realistic situations. In these simulations, the Leray regularization, in addition of presenting substantial computational advantages because it enables controlling the model consistency error order with no signi cant increase in computations, produced the best solutions in coarse meshes when compared to the expected solutions.
82

Avaliação do procedimento de inserção de sonda enteral

Leães, Dória Migotto January 2012 (has links)
Pacientes impossibilitados de usar a via oral, ou com ingestão oral insuficiente são beneficiados com a utilização da sonda enteral (SE). As possíveis complicações associadas ao mau posicionamento da SE e o impacto destas complicações indicam a necessidade da avaliação da atual técnica de inserção, assim como conhecer a capacidade preditiva dos métodos de avaliação do posicionamento adotados à beira do leito. Foram avaliados 80 procedimentos de inserção de SE, bem como, os testes empregados para verificação do posicionamento à beira do leito, entre outubro de 2010 e maio de 2011. Identificou-se que em 50% dos procedimentos os enfermeiros adotaram a estimativa padrão, com taxa de sucesso de inserção de SE nas diferentes porções do trato gastrintestinal de 97,5% (n=78) e 2,5% (n=2) de posicionamentos inadvertidos. A média das estimativas de medida dos enfermeiros foi 65,8±7,4, da estimativa padrão foi 58,2±4,6, e da estimativa sugerida por Hanson 49,3±2,95. Houve correlação fraca entre a estimativa padrão e dos enfermeiros (p<0,001). Em conclusão, a fraca associação entre as mensurações torna-se inexequível a indicação de uma estimativa perfeita. / Patients unable to use oral, oral ingestion or insufficient benefit from the use of nasogastric tube. Possible complications associated with malposition of nasogastric tube and the impact of these complications indicate the need to evaluate the current insertion technique, as well as knowing the predictive ability of the methods for evaluating the position adopted at the bedside. We evaluated 80 of the insertion procedure enteral feeding as well, the tests used to check the positioning at the bedside, between October 2010 and May 2011. It was found that in 50% of procedures nurses adopted the standard estimate, with a success rate of inserting enteral feeding in different portions of the gastrointestinal tract of 97.5% (n=78) and 2.5% (n=2) inadvertent placement. The average estimate of measure of the nurses was 65.8 ± 7.4, the standard estimate was 58.2 ± 4.6, and the estimate suggested by Hanson 49.3 ± 2.95. There was a weak correlation between the estimate and standard of nurses (p <0.001). In conclusion, the weak association between measurements becomes unenforceable indication of a perfect estimate.
83

O método das probabilidades de colisão tridimensional : criticalidade e fluxo neutrônico em um arranjo hexaédrico / The collision probability method in three dimensions : criticality and neutron flux in a hexahedral setup

Camargo, Dayana Queiroz de January 2007 (has links)
Neste trabalho, o método das probabilidades de colisão (método CP) é aplicado µa solução do problema de criticalidade em um grupo de energia para um hexaedro. O método é implementado com o domínio espacial particionado em zonas, nas quais a aproximação de uxo plano é adotada. Para o cálculo das probabilidades de colisão necessárias, um método numérico é empregado. Tal método baseia-se na subdivisão das zonas espaciais em partes chamadas elementos e na simplificaçaõ de que a interação entre um elemento de emissão e um elemento de colisão ocorre somente ao longo da trajetória que une seus centros de massa. O cálculo é repetido com o número de elementos sendo aumentado sucessivamente e a extrapolação repetida de Richardson sendo utilizada para acelerar a convergência da sequência de resultados assim obtidos. Alguns casos-exemplo são estudados em detalhe e uma compara»c~ao com resultados da teoria de difusão é fornecida. Conclui-se que o método CP é capaz de fornecer resultados com boa precisão numérica, num tempo de computaçaõ razoável. / In this work, the collision probability method (CP method) is applied to the solution of the one-group criticality problem for a hexahedron. The method is implemented with the spatial domain being partitioned into zones, where the °at-°ux approximation is used. A numerical method is employed for computing the required collision probabilities. Such method is based on the subdivision of the spatial zones into parts called elements and on the simplifying assumption that the interaction between an emission element and a collision element occurs only along the path that connects their centers of mass. The calculation is repeated with the number of elements being increased successively and repeated Richardson extrapolation being used to accelerate the convergence of the sequence of results so obtained. Some sample cases are studied in detail and a comparison with results from di®usion theory is presented. It is concluded that the CP method can yield accurate results, in reasonable computer time.
84

Uma metodologia para a obtenção de respostas semi-analíticas para flexão linear e não-linear de placas semi-espessas / A methodology for the achievement of semi-analytical response for linear and nonlinear bending of thick plates

Lisbôa, Tales de Vargas January 2009 (has links)
Este trabalho apresenta uma metodologia para obtenção de benchmarks e prontuários de soluções para flexão de placas semi-espessas sob grandes deslocamentos. O modelo de placa de Mindlin foi o empregado para considerar a deformação cisalhante, e soluções semi-analíticas foram obtidas através de uma variação do método de Rayleigh-Ritz. O método, denominado pb- 2, facilita a imposição das condições de contorno cinemáticas, ampliando consideravelmente a aplicabilidade do método de Rayleigh-Ritz convencional. A metodologia foi implementada utilizando programas de computação simbólica, o que permitiu a obtenção de soluções analíticas aproximadas para diversos problemas lineares. A geração de soluções similares no âmbito não linear não foi possível, e neste caso recorreu-se a ajuste de parâmetros para obtenção de superfícies de resposta representativas de um grande número de análises realizadas através do método dos elementos finitos. Esta abordagem permitiu incorporar às soluções as diversas variáveis que influenciam na resposta, particularmente a espessura, razão de aspecto da placa e a compressibilidade do material. Uma nova parametrização do carregamento transversal foi proposta a fim de minimizar a influência da compressibilidade nos resultados para deslocamento central da placa, levando assim a soluções parecidas com as já reportadas para placas finas. Curvas carga ´ deslocamento podem assim ser extraídas diretamente dos ajustes realizados. Resultados para diversos casos de geometria e condições de contorno foram comparados com soluções disponíveis na literatura, mostrando boa concordância. / This work presents a methodology for generating of benchmark solutions and reference formulas for large displacement analysis of thick plates under bending. The Mindlin’s plate model was used to take into account the shear deformability, and semi-analytical solutions were obtained through a variation of the Rayleigh-Ritz method. The method, called pb-2, facilitates the imposition of kinematically admissible conditions, extending considerably the applicability of the conventional Rayleigh-Ritz method. The methodology was implemented in a symbolic computation program, and approximated analytical solutions were generated for linear cases. Similar solutions for non-linear problems were not possible, and in such cases response surfaces were obtained using data provided by finite element analysis. The approach allowed incorporating explicitly to the approximate solution the influence of parameter such as thickness of the plate, aspect ratio of the plate, and the compressibility of the material. A new nondimensional loading is proposed in order to minimize the influence of the compressibility on the response surfaces for central displacement, leading to displacement solutions similar to those reported for thin plates. Load ´ displacement curves can be extracted directly from the fitted response. Results for several cases of geometry and boundary conditions are compared with other available solutions, and good agreement was found.
85

Estudo computacional de líquidos iônicos do tipo dialquilimidazólio

Bourscheidt, Lucas January 2005 (has links)
Neste trabalho foram desenvolvidos parâmetros de campo de força dos ânions tetrafenilborato (BPh4 -) e hexafluorfosfato (PF6 -) dentro da metodologia AMBER para a simulação computacional por dinâmica molecular de Líquidos Iônicos formados por estes ânions e cátions do tipo dialquilimidazólio, o 1-n-butil-3-metilimidazólio (BMI+), o 1-etil-3-metilimidazólio (EMI+) e o 1,3-dimetilimidazólio (MMI+). A validação destes parâmetros foi realizada por comparação entre as freqüências dos modos normais obtido por cálculo ab initio com aquelas obtidas por mecânica molecular, juntamente com uma comparação entre as estruturas moleculares e momentos multipolares obtidos pelas duas metodologias. Seguiu-se então a validação por comparação dos resultados dos cálculos de dinâmica molecular com dados experimentais, como densidades, entalpias de vaporização, condutividade elétrica, estrutura radial e espacial e também dados de difração de nêutrons. Foi atingida uma concordância bastante grande entre dados experimentais e cálculo teórico principalmente no que diz respeito à estrutura dos Líquidos Iônicos e foi possível racionalizar em termos de tamanho do grupo alquila do cátion (n-butil, metil ou etil) e do tamanho do ânion tanto propriedades estruturais deste líquidos quanto características dinâmicas dos mesmos.
86

Estudo comparativo da atividade antioxidante de plantas medicinais da caatinga utilizadas como antiinflamatórias

da Cunha Amaral Lima, Danielle 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T16:30:16Z (GMT). No. of bitstreams: 2 arquivo2758_1.pdf: 877607 bytes, checksum: 307ea2159d2a3bd8df068f531d04a4d8 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Plantas com atividade antioxidante podem estar envolvidas no tratamento e/ou prevenção de diversas enfermidades, em especial as que envolvem processos inflamatórios. Foram selecionadas vinte espécies de plantas utilizadas para tratar inflamação pela comunidade de Carão, localizada em Altinho-PE, e dezenove espécies de forma aleatória. A coleta foi realizada na referida região no mês de setembro de 2009, de no mínimo 3 indivíduos de cada espécies, submetidas a extração por maceração com metanol 80% durante 6 dias e evaporado o solvente sob pressão reduzida. Buscando avaliar a correlação entre métodos utilizados para determinar a atividade antioxidante foram aplicados três: atividade sequestrante de radical livre DPPH (DPPH), ensaio da atividade quelante do íon ferroso (FIC) e poder antioxidante redutor férrico (FRAP). Avaliou-se também o poder antioxidante de espécies utilizadas para tratamento de inflamações comparadas às espécies selecionadas de forma aleatória. Observou-se que não houve correlação entre os métodos FIC e DPPH (rs = -0,3008 e p = 0,1975) e entre FIC e FRAP (rs = 0,3042 e p = 0,1921). Entretanto, foi possível observar correlação significativa entre FRAP e DPPH (rs = -0,9563 e p = < 0,0001). Através da análise de variância de Kruskal-Wallis os dois grupos de espécies estudadas foram estatisticamente iguais através dos métodos DPPH e FRAP e que as espécies aleatórias foram estatisticamente mais efetivas quando avaliado o poder quelante do íon ferroso. Contudo, quando utilizada a classificação de Melo et al (2010), observa-se que 45% das espécies antiinflamatórias apresentaram boa atividade seqüestradora de radicais livres comparadas às 36,84% das aleatórias. Conclui-se que os métodos utilizados avaliam a atividade antioxidante por meio de mecanismos distintos, não sendo recomendável o emprego de um único método para determinação da atividade antioxidante. Sendo o método DPPH mais indicado para avaliar a atividade antioxidante de espécies utilizadas para tratar inflamação. Dados sugerem que as espécies anttinflamatórias não agem quelando o íon ferroso, não sendo este método mais indicado para avaliação da atividade antioxidante de espécies antiinflamatórias, visto a quelação de metais de transição tem um papel secundário no mecanismo de inibição dos radicais livres
87

Metodo de estimativa de balanços de massa e metalurgico

Oliveira, Maria Lucia Magalhães de 15 December 1997 (has links)
Orientador: Elias Basile Tambourgi / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-07-23T02:25:14Z (GMT). No. of bitstreams: 1 Oliveira_MariaLuciaMagalhaesde_D.pdf: 5914698 bytes, checksum: c55e0daa6b2b1f269cd89f57ca5e134a (MD5) Previous issue date: 1997 / Resumo: No presente trabalho é apresentada uma avaliação teórico-experimental do método matemático de ajuste de balanço de massa e metalúrgico desenvolvido por Smith & Ichiyen (1973) e adaptado por Fernandes et al. (1994). Esse método é baseado essencialmente no tratamento estatístico dos dados analíticos disponíveis permitindo estabelecer as relações entre as massas dos diversos fluxos que compõem os circuitos. A partir das equações específicas para o cálculo do balanço de massa de diversos tipos de circuitos, programas computacionais foram desenvolvidos em Visual Basic, adaptados para serem executados em computadores pessoais em ambiente Windows Excel 7.0. o balanço de massa e metalúrgico para diferentes circuitos de concentração mineral foram calculados através da metodologia tradicionalmente utilizada na industria mineral brasileira - a fórmula dos dois produtos - e utilizando os programas computacionais desenvolvidos. A eficiência do método foi comprovada através da comparação entre os resultados obtidos. O método conduz a bons resultados e, devido a sua simplicidade de uso, não são requeridos maiores de conhecimentos específicos de cálculo e programação de computadores. Desta forma, constitui uma ferramenta extremamente útil para técnicos e engenheiros na avaliação de rendimentos ou eficiências de uma variada gama de processos de separação e concentração de elementos e compostos, levando à otimização e redução dos custos operacionais. Além disso, com a sistemática utilizada para o desenvolvimento das equações básicas, os cálculos poderão ser adaptados para qualquer tipo de circuito e controle de diferentes números de análises / Abstract: A theoretical and experimental evaluation of a mathematical method for adjusting the mass and metallurgical balance is presented in this work. It was developed by Smith & Ichiyen (1973) and adapted by Fernandes et aI. (1994). This method is based on the statistical treatment of the analytic data, allowing the relation among circuit mass flow. The computer programs presented were developed from specific equations. These equations were used for calculating the mass balance of many kinds of circuits. The programs were developed using Visual Basic and adapted to be executed in PCs, using the software Windows Excel 7.0. The mass and metallurgical balance was calculated for different situations, using the Brazilian mineral industry trivial method (two product formula) and the developed programs. The method efficiency was confirmed through the comparison of these results. The method leads to good results, and due to its simplicity, there is no necessity of further knowledge in computer programming and calculus. It is a useful tool for technicians and engineers who need to evaluate the efficiency of the separation and concentration processo This evaluation leads to a process optimization and to the reduction of the operational costs. Further than this, the calculus can be adapted to any kind of circuit and to any number of analyses / Doutorado / Sistemas de Processos Quimicos e Informatica / Mestre em Engenharia Química
88

Um estudo teórico das propriedades estruturais e óticas de derivados de Eumelanina

Bolivar Marinez, Luz Elena 15 August 1997 (has links)
Orientador: Douglas Soares Galvão / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Fisica Gleb Wataghin / Made available in DSpace on 2018-07-23T03:25:53Z (GMT). No. of bitstreams: 1 BolivarMarinez_LuzElena_D.pdf: 2796939 bytes, checksum: ff8eabe0c9ca694381d34b18631bddf4 (MD5) Previous issue date: 1997 / Resumo: Melaninas são uma classe de pigmentos biológicos largamente presentes na natureza dos fungos ao homem. Elas são classificadas em três grandes subclasses: eumelaninas, feomelaninas e alomelaninas. Neste trabalho nós investigamos compostos de eumelanina, o tipo de pigmento mais presente no reino animal em tecidos pigmentados como o cabelo, pele, etc. Acredita-se que a função básica destes pigmentos é a fotoproteção contra a devastação bioquímica produzida pela exposição à radiação solar. Mas a presença das melaninas em regiões não iluminadas do corpo tem levado à especulação que podem ter outra função biológica além da fotoproteção. Nós investigamos a estrutura eletrônica de compostos de eumelanina através da utilização de sofisticados métodos semi-empíricos (Parametric Metod 3 (PM3) e Zerner Intermediate Neglect of Differential Overlap-Spectroscopical version-Configuration Interaction (ZINDO/S-CI)). Nossos resultados mostram que esses compostos são aceitadores de elétrons e tendem a formar estruturas amorfas. Nós propomos um modelo para um possível mecanismo de proteção celular baseado nestas características. Nossos resultados para simulação dos espectros de absorção ótica mostram que os modelos estruturais propostos são compatíveis com o modelo de semicondutor orgânico previamente proposto na literatura. Nós adaptamos essa metodologia para o estudo de dois outros problemas envolvendo polímeros condutores (oligotiofenos puros e substituídos) e polímeros orgânicos depositados por polimerização a plasma (deposição de filmes fluorados e oxigenados). Os resultados obtidos para polímeros condutores permitem explicar o comportamento anômalo na absorção que apresentam os oligômeros de tiofeno substituídos em termos dos processos eletrônicos envolvidos e não da desordem conformacional como tinha sido reportado previamente na literatura. No caso dos polímeros fluorados e oxigenados, o comportamento ótico foi explicado em termos do movimento relativo dos estados eletrônicos ativos envolvidos na primeira transição eletrônica. Estes resultados mostram que a metodologia que utilizamos pode ser uma ferramenta eficaz para a modelagem qualitativa de diversos compostos / Abstract: Melanins are a class of biological pigments widely spread over in nature from fungi to man. They are roughly classified in three great subclass: eumelanins, pheomelanins and allomelanins. In this work we restrict ourselves to investigate the subclass of eumelanins, the pigment present in most pigmented animal tissues. It is believed that the main biological function associated to melanins is photoprotection against the biochemical devastation induced by exposure to ultraviolet radiation. However the presence of melanins in nonilluminated areas in organism, such as in the substancia nigra in the brain and a preferential destruction of melanized cells in patients with Parkinson's disease led to speculations of other biological functions besides simple photoprotection. In this work we have carried out theoretical studies at semi-empirical level (Parametric Method 3 - PM3 and Zerner Intermediate Neglect of Differential Overlap -ZINDO including Configuration Interaction) on the electronic structure of molecules believed to be structurally related to eumelanins. Our results show that these structure are electron acceptors and probably form amorphous structures. We propose a mechanism for cellular protection against free radicals, potentially cytotoxic, based on this physical property. Our results for the simulation of optical absorption spectra also indicate data compatible with the semiconductor model earlier proposed for these organic pigments. We have modified this methodology to analyze two other problems involving conducting polymers and acetylene-like polymer deposited by plasma polymerization. The results for oligothiophenes can explain the anomalous behavior of the fluorescence in terms of the character of the electronic states involved in the optical processes and not in terms of conformational disorder as previously suggested in the literature. Similarly it is also possible to explain the optical data, at least at qualitatively level, of the thin films plasma polymerized in terms of the relative movement of active molecular electronic levels involved in the optical transitions. We believe this kind of methodology can be a very efficient tool to the analysis of the electronic behavior of many classes of organic materiais / Doutorado / Física / Doutor em Ciências
89

Validação de processos

Ribeiro, Sonia Hilst 12 February 1999 (has links)
Orientador: Jose Ferreira de Carvalho / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-07-26T17:14:51Z (GMT). No. of bitstreams: 1 Ribeiro_SoniaHilst_M.pdf: 4463796 bytes, checksum: d18c1ed5b2b75696da01b02f49c3e800 (MD5) Previous issue date: 1999 / Resumo: A qualificação ou caracterização de processos produtivos, seguida da validação, será apresentada neste trabalho como uma ferramenta para o gerenciamento efetivo de um processo, que deve ser visto como parte da estratégia de sucesso de negócio em uma indústria. Esse sistema: pode ser utilizado para qualquer tipo de processo, desde que sejam feitas as adequações necessárias ao nível de qualidade requerido. O sistema aqui abordado contempla os requisitos necessários para os processos de fabricação de produtos farmacêuticos e / ou medical devices, cujas exigências são especificadas pelo FDA. O trabalho apresentado segue o seguinte esquema: Caracterização do sistema de medidas que, para processos farmacêuticos, significa validação do sistema analítico e da metodologia analítica. Como é possível perceber, sem o conhecimento da qualidade do sistema de medidas, é impossível separar o sinal do processo do erro normalmente presente em qualquer sistema de medidas. Validação do processo, que inclui a qualificação da instalação, da operação e do desempenho dos equipamentos e, em seguida, validação de processo e produto. Esta etapa é também um requisito do FDA e visa assegurar a estabilidade de produção, eliminando-se todas as fontes,. de variabilidade devido a causas assinaláveis. É a etapa de caracterização do processo em que todo o processo deve ser contemplado e documentado,. de forma especificada, pelo FDA. A estabilidade do processo é determinada nesta etapa e documentada para referência futura. As próximas etapas seriam otimização do processo e validação de limpeza. Otimização é a fase em que as variáveis do processo são estudadas, e seus efeitos avaliados para buscar as alterações que forneçam melhor resposta com menor custo e em menor tempo. E a "validação de limpeza", que previne a contaminação cruzada. Estes dois últimos itens não foram incluídos neste trabalho por serem ambos assuntos tão extensos que justificariam um outro trabalho de tese / Abstract: Not informed / Mestrado / Mestre em Qualidade
90

Simulação perfeita da medida invariante do modelo de silo bi-dimensional

Motta, Mariana Rodrigues, 1975- 28 July 2018 (has links)
Orientador: Nancy Lopes Garcia / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação / Made available in DSpace on 2018-07-28T09:24:10Z (GMT). No. of bitstreams: 1 Rodrigues_Mariana_M.pdf: 4913729 bytes, checksum: c7afd43cfe7d236ecf93eb889077effc (MD5) Previous issue date: 2001 / Resumo: O objetivo desta dissertação é a geração de amostras aleatórias da única distribuição estacionária associada ao modelo estocástico para armazenagem de grãos em um silo finito e bi-dimensional. Uma vez que esta distribuição estacionária não pode ser manipulada analiticamente, necessitamos de um método de simulação estocástica para obtermos amostras desta distribuição. O método de simulação estocástica proposto foi o método "Acoplamento do Passado" ("Coupling From The Past"(CFTP)), desenvolvido por Propp e Wilson. Tal método permite obtermos amostras independentes e distribuídas exatamente da distribuição estacionária de interesse de uma cadeia de Markov com espaço de estados finito ou limitado. Entretanto, no caso do problema dos silos o espaço de estados é ilimitado superiormente, isto é, não existe um estado maximal. A fim de aplicarmos CFTP a este problema foi necessário um truncamento do espaço de estados inicial e, neste caso, a amostra obtida não tem exatamente a distribuição desejada. Para testarmos o desempenho do algoritmo considerando esta restrição, procuramos comparar os resultados teóricos de alguns momentos do vetor aleatório associado ao modelo em questão, tais como média e matriz de covariâncias, com as estimativas obtidas através dos dados gerados. / Abstract: The goal of this paper is the generation of random samples of unique stationary distribution associated to the stochastic model for grain storage in a finite and bi-dimentional silo. Once this stationary distribution can not be manipulated analytically, a method of stochastic simulation is needed to obtain samples from this distribution. The method of stochastic simulation used was "Coupling From he Past"(CFTP). developed by Propp andWilson. This method allows to obtain independent and identical samplesexactly from the target stationary distribution of a Markov chain with finiteor bounded state spaces. However, in the case of the silos, the space of stateis unbounded on the upper-level, hence there is not a maximal state. Asfor the application of CFTP to the problem of the silos, there was a need totrunk the initial space of states and, in this case, the sample obtained did nothave the exact target distribution. To test the performance of the algorithm considering the restriction of having trunked the initial space of states, we compared the theoretical results of some moments of the random array of the model being studied, such as mean and covariance matrix, to the estimates obtained through the generated data. / Mestrado / Mestre em Estatística

Page generated in 0.1547 seconds