• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 7
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 19
  • 19
  • 6
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Otimização de misturas quimicas com flexibilidade na ordem de execução dos experimentos / Chemical mixture optimization with flexibility in the execution order of experiments

Borges, Cleber Nogueira 10 May 2007 (has links)
Orientador: Roy Edward Bruns / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Quimica / Made available in DSpace on 2018-08-09T12:52:19Z (GMT). No. of bitstreams: 1 Borges_CleberNogueira_D.pdf: 1328148 bytes, checksum: ba185b4a95590eaf4f5554aed4c37d81 (MD5) Previous issue date: 2007 / esumo: Neste trabalho é apresentado o planejamento estatístico split-plot onde as unidades main-plots e sub-plots são planejamentos de misturas químicas. Main-plots e sub-plots são definidos de acordo com a estrutura simplex-centróide. O planejamento foi aplicado para a otimização simultânea de solventes extratores e fases móveis utilizados na separação cromatográfica de compostos químicos de plantas. O interesse foi determinar os melhores valores das respostas (maiores números de picos) em função dos extratores e fases móveis. A vantagem da blocagem dos experimentos segundo a estrutura split-plot é a conveniência por minimizar (ou facilitar) o trabalho experimental ou reduzir resíduos químicos ou ambos. A desvantagem é que o tratamento estatístico de tal sistema se torna mais complexo que os planejamentos com esquemas aleatórios. Gráficos normais foram utilizados para a escolha de modelos e assim, evitando a realização de replicatas dos experimentos / Abstract: A split-plot statistical design is proposed for which the main-plots and sub-plots are both chemical mixture designs. Main-plots and sub-plots are investigated using the simplex-centroid design. The composite mixture-mixture design was applied to the simultaneous optimization of extractor solvents and mobile phases used in the chromatographic separation of chemical compounds from plant materials. The main goal was to determine the best response values, largest number of peaks, as a function of the extractor and mobiles phase components. The advantages of using blocked experiments following the split-plot structure is to minimize (or facilitate) the experimental work as well as reduce the chemical residuals that must be discarded or both. The drawback is that the statistical treatment of the system becomes more complex than designs with random schemes. Normals graphs were utilized for choosing models so, the realization of replicate experiments could be avoided. / Doutorado / Quimica Analitica / Doutor em Ciências
2

Metamodeling Complex Systems Using Linear And Nonlinear Regression Methods

Kartal, Elcin 01 September 2007 (has links) (PDF)
Metamodeling is a very popular approach for the approximation of complex systems. Metamodeling techniques can be categorized according to the type of regression method employed as linear and nonlinear models. The Response Surface Methodology (RSM) is an example of linear regression. In classical RSM metamodels, parameters are estimated using the Least Squares (LS) Method. Robust regression techniques, such as Least Absolute Deviation (LAD) and M-regression, are also considered in this study due to the outliers existing in data sets. Artificial Neural Networks (ANN) and Multivariate Adaptive Regression Splines (MARS) are examples for non-linear regression technique. In this thesis these two nonlinear metamodeling techniques are constructed and their performances are compared with the performances of linear models.
3

A Study of Variable Selection Methods in Supersaturated Models

Taylor, Anna B. 06 May 2020 (has links)
No description available.
4

Optimal experimental designs for hyperparameter estimation in hierarchical linear models

Liu, Qing 12 September 2006 (has links)
No description available.
5

Desenvolvimento e validação de metodologia analítica para bromidrato de darifenacina comprimido / Development and validation of the analytical method for the darifenacin hydrobromide tablet

Meneghini, Leonardo Zanchetti January 2011 (has links)
O objetivo deste trabalho foi o desenvolvimento e validação de métodos analíticos para determinação do bromidrato de darifenacina (DF) em comprimidos de liberação modificada. Na fase de identificação, a matéria-prima do fármaco (substância química de referência) foi analisada e caracterizada utilizando-se de medidas físicas (ponto de fusão, polarimetria, solubilidade), espectroscopia (infravermelho, ultravioleta-visível, massas) e técnicas cromatográficas (cromatografia a líquido de alta eficiência, cromatografia em camada delgada). Nos estágios posteriores, os experimentos para quantificação do comprimido foram realizados utilizando-se de desenhos experimentais (fatoriais completes, desenhos de composto central, fatoriais fracionados). O método de CLAE foi validado e um produto de degradação foi obtido na condição de estresse oxidativo (H2O2 13%, 72h). Para o método espectrofotométrico, a interferência de excipientes foi verificada e a técnica de derivada (método zero-crossing) foi utilizada para quantificação. Ambos os métodos foram comparados e não demonstram diferença significativa quando aplicados ao doseamento do comprimido. / The aim of this study was the development and validation of the analytical methods to the determination of darifenacin hydrobromide (DF) in extended-release tablet. In the identification stage, the bulk drug was analyzed and characterized using physical measures (melting point, polarimetry, solubility), spectroscopy (infrared and ultraviolet-visible) and chromatographic techniques (high performance liquid chromatographic, HPLC, and thin-layer chromatography, TLC). In the subsequent stages, the experiments to quantification for the DF tablet were performed using experimental designs (full factorial designs, central composite designs and fractional factorial designs). The HPLC method was validated and a degradation product was obtained in oxidation stress condition (H2O2 13%, 72h). For the spectrophotometric method, excipient interference was observed and derivative technique (zero-crossing method) was employed to quantification. Both the methods were compared showing no signficative difference to tablet assay.
6

Desenvolvimento e validação de metodologia analítica para bromidrato de darifenacina comprimido / Development and validation of the analytical method for the darifenacin hydrobromide tablet

Meneghini, Leonardo Zanchetti January 2011 (has links)
O objetivo deste trabalho foi o desenvolvimento e validação de métodos analíticos para determinação do bromidrato de darifenacina (DF) em comprimidos de liberação modificada. Na fase de identificação, a matéria-prima do fármaco (substância química de referência) foi analisada e caracterizada utilizando-se de medidas físicas (ponto de fusão, polarimetria, solubilidade), espectroscopia (infravermelho, ultravioleta-visível, massas) e técnicas cromatográficas (cromatografia a líquido de alta eficiência, cromatografia em camada delgada). Nos estágios posteriores, os experimentos para quantificação do comprimido foram realizados utilizando-se de desenhos experimentais (fatoriais completes, desenhos de composto central, fatoriais fracionados). O método de CLAE foi validado e um produto de degradação foi obtido na condição de estresse oxidativo (H2O2 13%, 72h). Para o método espectrofotométrico, a interferência de excipientes foi verificada e a técnica de derivada (método zero-crossing) foi utilizada para quantificação. Ambos os métodos foram comparados e não demonstram diferença significativa quando aplicados ao doseamento do comprimido. / The aim of this study was the development and validation of the analytical methods to the determination of darifenacin hydrobromide (DF) in extended-release tablet. In the identification stage, the bulk drug was analyzed and characterized using physical measures (melting point, polarimetry, solubility), spectroscopy (infrared and ultraviolet-visible) and chromatographic techniques (high performance liquid chromatographic, HPLC, and thin-layer chromatography, TLC). In the subsequent stages, the experiments to quantification for the DF tablet were performed using experimental designs (full factorial designs, central composite designs and fractional factorial designs). The HPLC method was validated and a degradation product was obtained in oxidation stress condition (H2O2 13%, 72h). For the spectrophotometric method, excipient interference was observed and derivative technique (zero-crossing method) was employed to quantification. Both the methods were compared showing no signficative difference to tablet assay.
7

Desenvolvimento e validação de metodologia analítica para bromidrato de darifenacina comprimido / Development and validation of the analytical method for the darifenacin hydrobromide tablet

Meneghini, Leonardo Zanchetti January 2011 (has links)
O objetivo deste trabalho foi o desenvolvimento e validação de métodos analíticos para determinação do bromidrato de darifenacina (DF) em comprimidos de liberação modificada. Na fase de identificação, a matéria-prima do fármaco (substância química de referência) foi analisada e caracterizada utilizando-se de medidas físicas (ponto de fusão, polarimetria, solubilidade), espectroscopia (infravermelho, ultravioleta-visível, massas) e técnicas cromatográficas (cromatografia a líquido de alta eficiência, cromatografia em camada delgada). Nos estágios posteriores, os experimentos para quantificação do comprimido foram realizados utilizando-se de desenhos experimentais (fatoriais completes, desenhos de composto central, fatoriais fracionados). O método de CLAE foi validado e um produto de degradação foi obtido na condição de estresse oxidativo (H2O2 13%, 72h). Para o método espectrofotométrico, a interferência de excipientes foi verificada e a técnica de derivada (método zero-crossing) foi utilizada para quantificação. Ambos os métodos foram comparados e não demonstram diferença significativa quando aplicados ao doseamento do comprimido. / The aim of this study was the development and validation of the analytical methods to the determination of darifenacin hydrobromide (DF) in extended-release tablet. In the identification stage, the bulk drug was analyzed and characterized using physical measures (melting point, polarimetry, solubility), spectroscopy (infrared and ultraviolet-visible) and chromatographic techniques (high performance liquid chromatographic, HPLC, and thin-layer chromatography, TLC). In the subsequent stages, the experiments to quantification for the DF tablet were performed using experimental designs (full factorial designs, central composite designs and fractional factorial designs). The HPLC method was validated and a degradation product was obtained in oxidation stress condition (H2O2 13%, 72h). For the spectrophotometric method, excipient interference was observed and derivative technique (zero-crossing method) was employed to quantification. Both the methods were compared showing no signficative difference to tablet assay.
8

Extensions of the normal distribution using the odd log-logistic family: theory and applications / Extensões do normal distribuição utilizando a família odd log-logística: teoria e aplicações

Braga, Altemir da Silva 23 June 2017 (has links)
In this study we propose three new distributions and a study with longitudinal data. The first was the Odd log-logistic normal distribution: theory and applications in analysis of experiments, the second was Odd log-logistic t Student: theory and applications, the third was the Odd log-logistic skew normal: the new distribution skew-bimodal with applications in analysis of experiments and the fourth regression model with random effect of the Odd log-logistic skew normal distribution: an application in longitudinal data. Some have been demonstrated such as symmetry, quantile function, some expansions, ordinary incomplete moments, mean deviation and the moment generating function. The estimation of the model parameters were approached by the method of maximum likelihood. In applications were used regression models to data from a completely randomized design (CRD) or designs completely randomized in blocks (DBC). Thus, the models can be used in practical situations for as a completely randomized designs or completely randomized blocks designs, mainly, with evidence of asymmetry, kurtosis and bimodality. / A distribuição normal é uma das mais importantes na área de estatística. Porém, não é adequada para ajustar dados que apresentam características de assimetria ou de bimodalidade, uma vez que tal distribuição possui apenas os dois primeiros momentos, diferentes de zero, ou seja, a média e o desvio-padrão. Por isso, muitos estudos são realizados com a finalidade de criar novas famílias de distribuições que possam modelar ou a assimetria ou a curtose ou a bimodalidade dos dados. Neste sentido, é importante que estas novas distribuições tenham boas propriedades matemáticas e, também, a distribuição normal como um submodelo. Porém, ainda, são poucas as classes de distribuições que incluem a distribuição normal como um modelo encaixado. Dentre essas propostas destacam-se: a skew-normal, a beta-normal, a Kumarassuamy-normal e a gama-normal. Em 2013 foi proposta a nova família X de distribuições Odd log-logística-G com o objetivo de criar novas distribuições de probabildade. Assim, utilizando as distribuições normal e a skew-normal como função base foram propostas três novas distribuições e um quarto estudo com dados longitudinais. A primeira, foi a distribuição Odd log-logística normal: teoria e aplicações em dados de ensaios experimentais; a segunda foi a distribuição Odd log-logística t Student: teoria e aplicações; a terceira foi a distribuição Odd log-logística skew-bimodal com aplicações em dados de ensaios experimentais e o quarto estudo foi o modelo de regressão com efeito aleatório para a distribuição distribuição Odd log-logística skew-bimodal: uma aplicação em dados longitudinais. Estas distribuições apresentam boas propriedades tais como: assimetria, curtose e bimodalidade. Algumas delas foram demonstradas como: simetria, função quantílica, algumas expansões, os momentos incompletos ordinários, desvios médios e a função geradora de momentos. A flexibilidade das novas distrições foram comparada com os modelos: skew-normal, beta-normal, Kumarassuamy-normal e gama-normal. A estimativas dos parâmetros dos modelos foram obtidas pelo método da máxima verossimilhança. Nas aplicações foram utilizados modelos de regressão para dados provenientes de delineamentos inteiramente casualizados (DIC) ou delineamentos casualizados em blocos (DBC). Além disso, para os novos modelos, foram realizados estudos de simulação para verificar as propriedades assintóticas das estimativas de parâmetros. Para verificar a presença de valores extremos e a qualidade dos ajustes foram propostos os resíduos quantílicos e a análise de sensibilidade. Portanto, os novos modelos estão fundamentados em propriedades matemáticas, estudos de simulação computacional e com aplicações para dados de delineamentos experimentais. Podem ser utilizados em ensaios inteiramente casualizados ou em blocos casualizados, principalmente, com dados que apresentem evidências de assimetria, curtose e bimodalidade.
9

Concordância de testes de comparação de médias na avaliação volumétricas de clones de Eucalyptus spp. no Pólo Gesseiro do Araripe-PE

SOUZA, Dennis Marinho Oliveira Ramalho de 16 February 2011 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-06-28T16:41:02Z No. of bitstreams: 1 Dennis Marinho Oliveira Ramalho de Souza.pdf: 1003295 bytes, checksum: 60937307ae603aef0fcf28c69dd304b6 (MD5) / Made available in DSpace on 2016-06-28T16:41:02Z (GMT). No. of bitstreams: 1 Dennis Marinho Oliveira Ramalho de Souza.pdf: 1003295 bytes, checksum: 60937307ae603aef0fcf28c69dd304b6 (MD5) Previous issue date: 2011-02-16 / When choosing the ideal test to perform the comparison of the experimental treatments means, there is no standard way or a manual or a solution to define the optimal test. The authors of each test set only a few theoretical restrictions or small details, but none of them determines to which experiment the test should be applied. As there is a need to establish which tests are best indicated and illustrate with an application it was used in this paper a design located in the region of the Gypsum Pole of the Araripe-PE with 15 clones of Eucalyptus spp. that were measured every six months over seven years, from 2002 to 2009,. In this paper, the tests used were the most widespread in the literature and applied the original methodologies in order to analyze the similarities among the tests at the levels of 1% and 5% of probabilities, and establish which clones presented mean of productions more significant. According to the results presented it was concluded that the tests of Tukey and Conagin are the most recommended and clones C41, C11 and C39 were the most productivies for biomass production in the region of Gypsum Plaster Pole of Araripe-PE. / Na escolha do teste ideal para realização da comparação das médias dos tratamentos no delineamento experimental, não existe uma maneira padrão ou manual ou uma solução que defina o teste ótimo. Os autores de cada teste estabelecem apenas algumas restrições teóricas ou pequenos detalhes, mas nenhum deles determina a que experimento o seu teste é indicado, dificultando assim para o experimentador conhecer o teste que deveria adotar. Como existe a necessidade de estabelecer quais testes são os mais indicados e ilustrar uma aplicação utilizou-se neste trabalho um delineamento localizado na região do Pólo Gesseiro do Araripe, com 15 clones de Eucalyptus spp. que foram mensurados a cada seis meses durante sete anos, no período 2002 a 2009,. Neste trabalho os testes utilizados foram os mais difundidos na literatura sendo aplicadas as suas metodologias originais com a finalidade de analisar as semelhanças entre cada teste nos níveis de significância 1% e 5%, bem como estabelecer nesse delineamento qual(is) clone(s) possui(em) a(s) média(s) de produção mais significativas. De acordo com os resultados apresentados se conclui que o teste de Tukey e Conagin são os mais recomendados e os clones C41, C11 e C39 são os mais indicados para produção de biomassa na região do Pólo Gesseiro do Araripe, Pernambuco.
10

Description et sélection de données en grande dimension / Description and selection of high-dimensional data

Beal, Aurélie 24 February 2015 (has links)
L'évolution des technologies actuelles permet de traiter un grand nombre d'expériences (ou de simulations) et d'envisager un nombre important de paramètres. Cette situation conduit à des matrices de grande, voire très grande, dimension et nécessite le développement de nouveaux outils pour évaluer et visualiser ces données et, le cas échéant, en réduire la dimension. L'évaluation de la qualité de l'information apportée par l'ensemble de points constituant une base de données ou un plan d'expériences peut se faire au travers de critères basés sur des calculs de distance, qui renseigneront sur l'uniformité de la répartition dans l'espace multidimensionnel. Parmi les méthodes de visualisation, l'Analyse en Composantes Curvilignes a l'avantage de projeter des données en grande dimension dans un espace bidimensionnel en préservant la topologie locale, ce qui peut aider à détecter des amas de points ou des zones lacunaires. La réduction de dimension s'appuie sur une sélection judicieuse de sous-ensembles de points ou de variables, via des algorithmes. Les performances de ces méthodes ont été évaluées sur des cas d'étude issus des études QSAR, de la spectroscopie et de la simulation numérique. / Technological progress has now made many experiments (or simulations) possible, along with taking into account a large number of parameters, which result in (very) high-dimensional matrix requiring the development of new tools to assess and visualize the data and, if necessary, to reduce the dimension. The quality of the information provided by all points of a database or an experimental design can be assessed using criteria based on distances that will inform about the uniformity of repartition in a multidimensional space. Among the visualization methods, Curvilinear Component Analysis has the advantage of projecting high-dimensional data in a two-dimensional space with respect to the local topology. This also enables the detection of clusters of points or gaps. The dimensional reduction is based on a judicious selection of subsets of points or variables, via accurate algorithms. The performance of these methods was assessed on case studies of QSAR, spectroscopy and numeric simulation.

Page generated in 0.1069 seconds