• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 189
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 198
  • 198
  • 140
  • 116
  • 48
  • 42
  • 38
  • 36
  • 31
  • 29
  • 29
  • 27
  • 27
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Aplicação de métodos multivariados para a análise e correlação de amostras apreendidas de cocaína

Grobério, Tatiane Souza 21 January 2017 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Química, Programa de Pós-Graduação em Química, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-05-10T19:26:20Z No. of bitstreams: 1 2017_TatianeSouzaGrobério.pdf: 7983031 bytes, checksum: 74fbf4855ae64c21f3c468efc2f13060 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-05-25T23:06:06Z (GMT) No. of bitstreams: 1 2017_TatianeSouzaGrobério.pdf: 7983031 bytes, checksum: 74fbf4855ae64c21f3c468efc2f13060 (MD5) / Made available in DSpace on 2017-05-25T23:06:06Z (GMT). No. of bitstreams: 1 2017_TatianeSouzaGrobério.pdf: 7983031 bytes, checksum: 74fbf4855ae64c21f3c468efc2f13060 (MD5) Previous issue date: 2017-05-25 / É sabido que o abuso de drogas ilícitas constitui um problema social sério e de difícil solução. Dentre as drogas de abuso, a cocaína tem ocupado papel de destaque. A fim de tentar controlar e reduzir a disponibilidade da cocaína no mercado ilícito, diversos organismos de segurança pública nacionais e internacionais buscam estratégias para estabelecer a origem, principais métodos de refino e rotas mais comuns do tráfico de drogas. Tais objetivos podem ser alcançados por meio de investigações policiais e quimicamente através de análises que caracterizem a droga. A caracterização de uma amostra de cocaína é o processo que determina as suas principais propriedades físicas e químicas, revelando similaridades e diferenças entre apreensões. Neste trabalho, a caracterização química da amostra iniciou-se pela determinação da forma de apresentação da cocaína (sal ou base livre), do teor de cocaína, adulterantes e identificação do grau de oxidação em amostras de drogas utilizando espectroscopia de infravermelho por transformada de Fourier com acessório de reflexão total atenuada (FTIR-ATR, do inglês Fourier Transform Infrared Spectroscopy – Attenuated Total Reflectance), que é uma técnica mais simples, rápida, com maior facilidade de aplicação e menor custos que cromatografia gasosa, técnica utilizada em métodos de referência atualmente utilizado pela Polícia Federal Brasileira (PF). Esse método foi desenvolvido e validado com 1085 amostras reais de drogas apreendidas pela PF em todo o Brasil, das quais 500 foram selecionadas para o conjunto de calibração e 585 para o conjunto de validação para uma análise multivariada de regressão por mínimos quadrados parciais (PLSR, do inglês Partial Least Squares Regression). Obteve-se um erro médio de previsão de 3,0% (m/m), precisão de 2,0 e concentração mínima detectável de cocaína de 11,8% (m/m), em uma faixa de concentração variando de 24,2 a 99,9% (m/m). Os resultados indicaram que o método desenvolvido é capaz de discriminar entre o cloridrato de cocaína e as amostras de base livre, quantificar o conteúdo de cocaína e estimar a concentração dos principais adulterantes. Em uma segunda fase do trabalho, a caracterização química das amostras foi utilizada para identificar correlações entre apreensões de cocaína base livre sem o conhecimento a priori sobre a origem das amostras. Para isso, buscou-se determinar os solventes residuais com o uso do headspace associado à cromatografia gasosa e detecção por espectrometria de massas (HS-CG-EM). A análise de dados empregou a análise hierárquica de agrupamento (HCA, do inglês Hierarchical Cluster Analysis) e o quadrado da função cosseno. Estudos estatísticos apontaram valores limites que puderam III discriminar amostras como sendo “ligadas”, ou seja, correlacionadas em relação à forma de produção, permitindo estabelecer ligações entre apreensões de cocaína efetuadas em todo o Brasil. A metodologia desenvolvida para essa discriminação pôde ser considerada promissora, pois não necessita do conhecimento a priori da população de amostras e permite o ajuste dinâmico dos valores limites para diferentes conjuntos. / It is known that illicit drug abuse is a social problem and difficult to solve. Among the drugs of abuse, a cocaine has played a prominent role. In order to try to control and reduce the availability of cocaine in the illicit market, various public and international security agencies are looking for strategies to establish an origin, main refining methods and most common routes of drug trafficking. Such objectives can be seen through software investigations and analyze the aspects that characterize the drug. The characterization of a cocaine sample is the process that determines its main physical and chemical properties, revealing similarities and differences between seizures. In this work, the chemical characterization of the sample was initiated by determining the form of presentation of cocaine (salt or free base), cocaine content, adulterants and identification of the degree of oxidation in drug samples using infrared spectroscopy (FTIR-ATR), which is a simpler, faster, easier to apply and lower cost than gas chromatography, a technique used in reference methods currently used by the Brazilian Federal Police (BPF). This method was developed and validated with 1085 real drug samples seized by PF throughout Brazil, of which 500 were selected for the calibration set and 585 for the validation set for a multivariate analysis of partial least squares regression (PLSR). An average prediction error of 3.0% (w/w), precision of 2.0 and minimum detectable concentration of cocaine of 11.8% (w/w) was obtained in a concentration range ranging from 24.2 to 99.9% (w/w). The results indicated that the method was able to discriminate between cocaine hydrochloride and free base samples, to quantify the cocaine content and to estimate the concentration of the main adulterants. In a second phase of the study, the chemical characterization of the samples was used to identify correlations between free base cocaine seizures without a priori knowledge about the origin of the samples. The aim of this study was to determine residual solvents using headspace associated with gas chromatography and mass spectrometry detection (HS-CG-EM). The data analysis employed the hierarchical cluster analysis (HCA) and the square of the cosine function. Statistical studies pointed to limit values that could discriminate samples as being "linked", that is, correlated in relation to the form of production, allowing establishing links between seizures of cocaine made throughout Brazil. The methodology developed for this discrimination could be considered promising since it does not require a priori knowledge of the population of samples and allows the dynamic adjustment of the limit values for different sets of samples.
42

Estimação em sistemas com restrições de igualdade e aplicações em robótica móvel e de reabilitação / Estimation in equality constrainted systems and applications in mobile and rehabilitation robotics

Scandaroli, Glauco Garcia January 2009 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2009. / Submitted by Raquel Viana (tempestade_b@hotmail.com) on 2010-03-29T14:47:02Z No. of bitstreams: 1 2009_GlaucoGarciaScandaroli.pdf: 3618541 bytes, checksum: f9331bd3203fbf3e1f36d037b475814a (MD5) / Approved for entry into archive by Lucila Saraiva(lucilasaraiva1@gmail.com) on 2010-05-21T16:06:39Z (GMT) No. of bitstreams: 1 2009_GlaucoGarciaScandaroli.pdf: 3618541 bytes, checksum: f9331bd3203fbf3e1f36d037b475814a (MD5) / Made available in DSpace on 2010-05-21T16:06:39Z (GMT). No. of bitstreams: 1 2009_GlaucoGarciaScandaroli.pdf: 3618541 bytes, checksum: f9331bd3203fbf3e1f36d037b475814a (MD5) Previous issue date: 2009 / Esta dissertação é desenvolvida na área de estimação de estados em sistemas com restrições de igualdade. É feito um estudo de sistemas com restrições de igualdade e este trabalho apresenta uma forma de se utilizar sistemas descritores para realizar a estimação neste tipo de sistema. Também é apresentado um novo método para fusão de dados em sistemas com restrições de igualdade e correlação desconhecida. Para a validação destes estudos são desenvolvidas duas aplicações de robótica. Na área de robótica de reabilitação é feita a estimação de postura do pé de uma prótese robótica de perna. São apresentadas formas de se realizar essa tarefa utilizando mínimos quadrados não-lineares e os métodos de estimação com restrição. Os resultados obtidos comprovam que a utilização de estimadores que consideram as restrições melhora o processo de estimação. Na área de robótica móvel é proposto um método eficiente de estimação de localização utilizando teoria Bayesiana e dado as restrições existentes entre as estruturas de um mapa geométrico, avalia-se o método apresentado para fusão de dados em sistemas com restrições de igualdade e correlação desconhecida. Os resultados descritos corroboram que o mapa resultante é melhorado com o uso das restrições de igualdade e do método de localização proposto. ________________________________________________________________________________________ ABSTRACT / This dissertation is developed in the field of state estimation in non-linear systems with equality constraints. Systems with equality constraints are studied, and a method that employs descriptor systems to accomplish the task of estimation in this kind of system is proposed. This manuscript also presents a method for data fusion in systems subject to equality constraints, and unknown correlation. For the validation of the developed studies, this manuscript also describes two applications in the field of robotics. In the field of rehabilitation robotics, this dissertation presents the estimation of a robotic leg prosthesis’ foot with respect to ground. There are presented solutions to perform this task using non-linear least squares, and constrained estimation methods. The obtained results establish that the implementation using estimators that employ equality constraints improves the process of estimation. In the field of mobile robotics, this work proposes an efficient estimation method to accomplish the problem of localization based on the Bayesian theory. Also, given the existing constraints between the geometric map’s structures, the method for data fusion in systems subject to equality constraints and unknown correlation is evaluated. Results described corroborate that the resulting map is improved with the application of such equality constraints and the presented localization method.
43

Integração de dados altimétricos obtidos através de diferentes técnicas para geração de um novo modelo digital de elevação

Druzina, Aline Gomes da Silva January 2007 (has links)
Com o surgimento de novos métodos de extração de dados altimétricos no mercado de geotecnologias a escolha da melhor técnica é um problema que preocupa a maioria dos usuários. Como nenhum dado está isento de erros faz-se necessário propor método que faça uso dessa diversidade de informações minimizando-se o erro. A Colocação por Mínimos Quadrados é uma técnica que permite a integração de dados diferentes em tipo e precisão. Assim, a presente dissertação teve como objetivo a determinação e avaliação de um novo Modelo Digital de Elevação, denominado MDE Híbrido, a partir de dados altimétricos obtidos através de diferentes técnicas: fotogrametria (curvas de nível extraídas de carta 1:50.000), estereoscopia em imagens de um sensor orbital (ASTER) e interferometria de radar (SRTM). Foram selecionadas três áreas no município de Porto Alegre/RS, que apresentam diferentes tipos de relevo: plano, misto e acidentado. Nessas áreas foram obtidos os MDEs a partir de curvas de nível, imagens ASTER e do SRTM com resoluções de 30m, 15m e 90m respectivamente. Uma avaliação pontual foi realizada nos três dados onde pode-se observar que para cada área de estudo um diferente dado apresentou menor Erro Médio Quadrático. Estes três dados foram então integrados utilizando-se a Colocação por Mínimos Quadrados e resolução de 15m. Após avaliação, o MDE Híbrido na Área Plana apresentou acurácia altimétrica igual a 3,493m e na Área Mista o valor de 4,763m o que atende aos requisitos da Classe A do PEC (Padrão de Exatidão Cartográfico) na escala 1:25.000. Já na Área Acidentada o valor encontrado foi de 8,66m atendendo os requisitos da Classe A do PEC na escala 1:50.000. Os resultados práticos alcançados nesta pesquisa mostraram que os dados altimétricos com diferentes resoluções espaciais podem ser integrados, desde que se tenha conhecimento das suas precisões. A resolução espacial de um determinado dado não está relacionada com a precisão deste dado. / With the appearance of new methods of altimetric data extraction, the choice for the best technique is a problem that concerns the majority of users. As no data is error free, it is necessary to propose a methodology that may use this diversity of information as well as minimize errors which arise from each data. The Least-Squares Collocation (CMQ) is a technique that allows the integration of different data according to type and precision. Thus, this paper aimed at determining and evaluating a new Digital Elevation Model called Hybrid MDE, which was obtained through the integration of data from different techniques: Photogrammetry (level curves extracted from maps, Stereoscopy (ASTER) and Interferometry (SRTM). To evaluate the efficiency of this methodology, we selected three areas in the city of Porto Alegre/RS, which showed different types of relief: plain, mixed and rough. In these areas, the MDEs were generated from level curves and ASTER images, which had a resolution of 30 m and 15m respectively; we also included the SRTM data, which show a resolution of 90 m. These three data were then integrated, using the CMQ, and determining a new model with a final resolution of 15 m, which was called Hybrid MDE. Lastly, we realized an evaluation, in which the Hybrid MDE in the Plain Area showed an altimetric accuracy equal to 3,493 m and in the Mixed Area 4, 763, which follows the Class A requisites of the Standard of Cartographic Exactness (PEC) in the scale of 1:25.000. In the Rough Area, the value found was 8, 66 m , following the Class A requisites for PEC in the scale of 1:50.000. The practical results reached in this research show that altimetric data with different spatial resolutions may be integrated, as long as we are aware of its precision.
44

Comparação entre algoritmos de mínimos quadrados e de zona mínima para desvios de circularidade

Barczak, Andre Luis Chautard 21 July 2018 (has links)
Orientador: Olivio Novaski / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-07-21T09:32:28Z (GMT). No. of bitstreams: 1 Barczak_AndreLuisChautard_M.pdf: 15952062 bytes, checksum: 8ec5bdbaac3a4524ed2c27aa30e9ad62 (MD5) Previous issue date: 1996 / Resumo: Em metrologia é muito importante poder determinar com exatidão os desvios de circularidade de uma peça. Existem sempre erros associados a essas medições, causados por inúmeras fontes. Em máquinas automatizadas ou auxiliadas por computador uma dessas fontes de erro é o próprio algoritmo utilizado, questão só levantada recentemente. O objetivo principal deste trabalho é determinar o comportamento de algoritmos de zona mínima de tolerância para desvios de circularidade, mais corretos do ponto de vista conceituai, em comparação com algoritmos dos mínimos quadrados, mais utilizados na prática. Para analisar as diferenças entre os resultados foi utilizada simulação em computador. Os dois algoritmos foram desenvolvidos em linguagem C e um terceiro programa gerou aleatoriamente milhares de conjuntos de pontos semelhantes aos obtidos em uma máquina de medir por coordenadas, ü algoritmo de mínima zona de tolerância (MZC) escolhido foi o dos diagramas de Voronoi, pela garantia de otimização do resultado, baixa complexidade e facilidade de implementação. Para simular uma situação semelhante à encontrada normalmente numa inspeção de indústria, variou-se os valores de desvios de circularidade, números de pontos do conjunto e raios da peça dentro dos intervalos usuais. Os resultados mostraram que o algoritmo de Voronoi obtém um par de círculos concêntricos com separação igual ou menor que o dos mínimos quadrados. A diferença entre os resultados pode chegar a 30% ou mais, dependendo da distribuição dos pontos no conjunto. O comportamento dos desvios máximos entre os resultados pode ser determinado e depende do número de pontos amostrados da peça, e do intervalo de circularidade que está sendo medido. Para os valores simulados o resultado é independente do raio da peça. No caso da circularidade, o algoritmo dos diagramas de Voronoi mostrou um comportamento estável com um bom tempo de execução num ambiente industrial. Para algumas máquinas de medir por coordenadas (MMCs) utilizadas atualmente na indústria a incerteza é muito maior que o erro máximo causado pela escolha do algoritmo para determinados valores de circularidade e número de pontos do conjunto. Nestes casos o uso dos mínimos quadrados é justificável. Quando somente este último estiver disponível em determinada máquina, o erro máximo esperado pode ser diminuído aumentado-se o número de pontos do conjunto. Para máquinas dedicadas ou MMCs mais precisas, que têm uma incerteza menor, os algoritmos são fontes de erros significativos. Os algoritmos MZC são necessários nestes casos. Pelos resultados obtidos pode-se presumir que o desenvolvimento de algoritmos de zona mínima de tolerância para outros desvios de forma em três dimensões, tais como cilindricidade, serão de grande interesse na área metrológica. / Abstract: The precisely assessment of out-of-roundness is an important issue in metrology. There are always errors associated with these measurements, caused by different sources. The computer aided measuring machines have an additional source of error, the algorithm itself. This subject was only recently in flux. The main objective in this work is to determine the behavior of minimum zone center (MZC), conceptually the most correct, in comparison with least square center (ESC), used in practice. In order to analyze the differences between the algorithms' answers, computer simulations were used. Both algorithms were developed in C language, and a third program generated thousands of sets similar to that obtained through CMMs. The algorithm of Voronoi diagrams, MZC type, was developed. The choice's reasons were the optimization assurance, low complexity and implementation facility. The out-of- roundness values, numbers of points of the set and the radius of the workpiece were varied to simulate industry environment. The results showed that the Voronoi algorithm gets a pair of concentric circles with separation equal or less then the LSC one. The difference between the results could be about 30% or greater, depending on the points' distribution. The behavior of the maximum errors between results depends on the number of points and the value interval of out-of-roundness. for some CMMs used in industry, the uncertainty of the machine is greater then the maximum error caused by algorithm's choice. This is true for various number of points and out-of-roundness. In these cases the LSC is allowed. Also when only LSC is available, the maximum expected error could be minimized increasing the number of points. For dedicated machines and CMMs more accurate, the algorithm is an important source of error. The MZC algorithms are always necessary in these cases. through the results one could presume that the development of other minimum zone algorithms, such as cilindricity and sphericity, will be very important for metrology in future. / Mestrado
45

Contribuição computacional para o método de mínimos quadrados recursivo e aplicações a múltiplas séries temporais / Computational contribution to the recursive least squares method and applications to multiple time series

Trespalacios Pérez, Manuel Guillermo, 1983- 22 August 2018 (has links)
Orientador: Gilmar Barreto / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-22T21:44:00Z (GMT). No. of bitstreams: 1 TrespalaciosPerez_ManuelGuillermo_M.pdf: 4849717 bytes, checksum: 481dc5ddc485327961948561d605b96c (MD5) Previous issue date: 2012 / Resumo: Esta tese apresenta uma contribuição computacional para o método de mínimos quadrados recursivo (MQR) e a sua aplicação às múltiplas séries temporais. O objetivo principal é obter estimativas com menor erro médio final, em comparação com as estimativas resultantes da aplicação do método MQR usual. Os resultados das análises foram obtidos aplicando diferentes modificações e ajustes no modelo de dados de entrada e saída. Estes ajustes procuram ter a quantidade suficiente de dados nas séries temporais de entrada que forneçam a melhor relação com a série temporal de saída. O método desenvolvido usa inicialmente, e de forma independente, o método MQR em duas matrizes geradas pelo modelo de dados de entrada e saída, obtendo assim dois estimadores do mesmo modelo; a primeira matriz é composta pela totalidade dos dados do modelo final e a segunda matriz é gerada por um filtro que utiliza a primeira matriz e a nova observação, filtro especificado no presente trabalho. Os dois estimadores calculados para cada nova observação são comparados aplicando-lhes critérios estabelecidos neste trabalho, gerando assim um terceiro estimador que _e o melhor estimador do modelo de dados de entrada e saída. O método proposto é chamado de método de mínimos quadrados recursivo 3 (MQR3). Finalmente o método MQR3 _e testado com um modelamento de dados de múltiplas séries temporais e seus resultados comparados com os resultados do método MQR. As estatísticas encontradas para diferentes dados de validação mostram estimativas com menor erro médio final para o método MQR3 / Abstract: This thesis presents a computational contribution to the recursive least squares method (RLS) and the application to multiple time series. The main objective is to obtain estimates with lower mean final error, when compared to the estimates resulting from the application of the normal MQR method. The analysis results were obtained by applying different modifications and adjustments to the input and output data model. These adjustments seek to have a sufficient amount of data in the incoming time series to provide the highest ratio with the output time series. The method initially uses, independently, the RLS method in two arrays generated by the input and output data model, thus obtaining two estimators of the same model, the first matrix is composed of all of the data for the final model and the second matrix is generated by a filter that uses the first array and the new observation, filter specified in the present work. The two estimators calculated for each new observation are compared by applying them with criteria established in this work, thereby generating a third which is the best estimator of the input and output model. The proposed method is called recursive least squares method 3 (MQR3). Finally, the method is tested with a MQR3 multiple time series data modeling and the results compared with the results of the RLS method. The statistics found for deferent validation data show estimates with a lower final average error for the MQR3 method / Mestrado / Automação / Mestre em Engenharia Elétrica
46

Estimação em pesquisas repetidas empregando o filtro GLS / Estimation on repeated surveys using the GLS filter

Luna Hernandez, Angela, 1980- 07 May 2012 (has links)
Orientadores: Luiz Koodi Hotta, Fernando Antônio da Silva Moura / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-20T15:43:54Z (GMT). No. of bitstreams: 1 LunaHernandez_Angela_M.pdf: 2230052 bytes, checksum: 7cee5005f5f1bd9bbdd565de481db0ad (MD5) Previous issue date: 2012 / Resumo: A dissertação apresenta o processo de estimação em pesquisas repetidas sob o enfoque de séries temporais, empregando Modelos de Espaço de Estados e o filtro dos mínimos quadrados generalizados ou filtro GLS. Este filtro permite o tratamento de modelos com erros de observação autocorrelacionados de forma mais simples do que utilizando o filtro de Kalman e, além disso, possibilita a modelagem conjunta de várias subpopulações ou domínios sob restrições de benchmark obtidas a partir da mesma pesquisa. Isto não só permite manter a coerência entre as estimativas obtidas pelo método, e estimativas agregadas baseadas no planejamento da amostra, como ajuda na proteção contra possíveis erros de especificação dos modelos. Considerando o caso de amostras com rotação, também é abordado o processo de estimação da estrutura de autocorrelação dos erros amostrais empregando o método dos pseudo-erros. Via simulação, é replicado todo o procedimento de estimação, comparando resultados obtidos empregando os filtros GLS e de Kalman. Adicionalmente, é ilustrada a aplicação do filtro sob restrições de benchmark empregando a série de taxa de desemprego da Pesquisa Mensal de Emprego do IBGE, no período de março de 2002 a fevereiro de 2012 / Abstract: This work presents the estimation process in repeated surveys using State Space Models and the generalized linear squares filter, GLS filter, under the time series approach. This filter deals with autocorrelated errors in the observation equation, in a simpler way than the well-known Kalman filter. Additionally, it allows for modeling jointly several domains under benchmark constraints obtained from the same survey. The benchmarking not only achieves coherence between the model-based estimates and the corresponding design-based aggregated estimates, but also provides protection against possible model failures. For the scenario of samples with a rotation scheme, the estimation of the autocorrelation structure of observational errors, using the pseudo-errors method, is also addressed. Simulation are used to compare the GLS and Kalman filter estimators. Moreover, the application of GLS filter under benchmark restrictions is illustrated, using the unemployment rate time serie from the Brazilian monthly labor force survey, from March 2002 to February 2012 / Mestrado / Estatistica / Mestre em Estatística
47

Modelagem dos acoplamentos mecanicos nos sistemas horizontais rotor-acoplamento-mancal

Tapia Tadeo, Abdon 03 August 2018 (has links)
Orientador: Katia Lucchesi Cavalca Dedini / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-08-03T17:11:40Z (GMT). No. of bitstreams: 1 TapiaTadeo_Abdon_D.pdf: 11144730 bytes, checksum: d2baefbd001d76b864b12a454afd5aa6 (MD5) Previous issue date: 2003 / Doutorado
48

Controle auto-sintonizavel de sistemas rotativos submetidos a demanda de torque variavel

Brandão Neto, Jose Ribeiro 03 November 1999 (has links)
Orientador: Euripedes Guilherme Oliveira Nobrega / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-07-25T15:51:49Z (GMT). No. of bitstreams: 1 BrandaoNeto_JoseRibeiro_M.pdf: 6021030 bytes, checksum: 7e193b8527ed83fd0f6e8dcc407d662f (MD5) Previous issue date: 1999 / Resumo: Encontra-se larga aplicação para a teoria de sistemas lineares com parâmetros concentrados e invariantes no tempo quando se estudam métodos de controle para sistemas mecânicos rotativos. Em aplicações para 'as quais existe um regime de demanda de torque variável, é preciso levar em conta o caráter não estático de alguns parâmetros do sistema, para que se possa projetar controladores que tenham seus desempenhos reais compatíveis com as características de projeto. Fazer o controle da velocidade de rotação em um caso experimental que apresenta um regime de demanda de torque variável é o objeto de estudo utilizado na elaboração deste trabalho. A partir de uma bancada mecânica rotativa, são apresentadas todas as etapas da identificação que serviu como base para o projeto de três tipos de controladores: tacométrico, polinomial e polinomial auto-sintonizável. O projeto dos controladores tinha como objetivo a obtenção de uma velocidade de rotação de saída estabilizada, sendo a avaliação do desempenho feita face a variações na demanda de torque aplicadas aos sistemas controlados. Em especial, deu-se atenção à implementação do método polinomial autosintonizável. A estratégia adaptativa resultou na atuação dentro dos limites desejados, enquanto o sistema era submetido a uma demanda de torque variável. Os resultados experimentais obtidos com um sistema reduzido, somados às simulações com o sistema completo, permitem dizer que controladores auto-sintonizáveis são uma melhoria viável para. controle de sistemas rotativos / Abstract: The theory for time-invariant lumped parameter linear systems (LTI) stands as the basis for control methods applied to rotating mechanical systems. There are some situations, however, for which there is a variable torque load, as in belt conveyors or rolling mills, for example. For those cases it is necessary to design controllers which take into account the nonstationary features of the system, for the real controller performance to cope with the design characteristics. Although feasible in theory and simulation, in the implementation of control schemes which deal with non-LTI systems there are some other constraints involved, as, for instance, the gap between the necessary and the available instrumentation for the real controller to perform as desired. For an experimental case consisting of a rotating system subject to torque load fluctuations, it is presented in this work three rotation regulation control schemes: tachometric, polynomial and self-tuning polynomial. Special attention was given to self-tuning polynomial controllers. The basis for the controller design is the identification of mechanical setup, also developed in the texto The control goal was to regulate the output rotation speed, and the performance index was chosen to be the controlled system output when subjected to torque load variation. The result of the implemented adaptive scheme shows the regulator action to keep the output within the desired levels as the load varies. From alI results, inc1udingthe ones for a reduced experimental system, it is possible to foresee the self-tuning scheme as a feasible improvement for rotating systems' controllers / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
49

Modelagem de series temporais discretas utilizando modelo nebuloso Takagi-Sugeno / Discrete time series modelling using Takagi-Sugeno fuzzy model

Pucciarelli, Amilcar Jose 17 May 2005 (has links)
Orientador: Gilmar Barreto / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-04T17:28:20Z (GMT). No. of bitstreams: 1 Pucciarelli_AmilcarJose_M.pdf: 3241769 bytes, checksum: cfad3cee97a35c84df363b3a8578479d (MD5) Previous issue date: 2005 / Resumo: Este estudo primeiramente investiga fundamentos teóricos para análise, desenvolvimento e implementação de algoritmos para modelagem de dados de sistemas dinâmicos e de séries temporais com a finalidade de predição. As séries temporais utilizadas são baseadas em dados reais retirados da literatura. A grande vantagem de se modelar uma série temporal e de se prever um dado futuro é poder tomar ações antecipadas sobre ela o quem vem a ser muito útil, por exemplo em controle. O modelo nebuloso Takagi-Sugeno será utilizado na modelagem das séries temporais onde os conjuntos nebulosos do antecedente e os parâmetros do conseqüente são estimados via métodos de agrupamentos e identificação paramétrica, respectivamente / Abstract: This work firstly explores theoretical foundations for analisis, development and implementation of algorithms for data modelling dynamic systems and time series with a prediction goaI. The used time series are based on real data from the literature. The main advantage of time series modelling and forecasting is make antecipated decisions about it, and this becomes very useful, for example, in controI. The Takagi-Sugeno fuzzy model is used for time series modelling where the antecedent fuzzy partitions and the consequent parameters are estimated by clustering methods and parametric identification, respectively / Mestrado / Automação / Mestre em Engenharia Elétrica
50

Métodos locais de integração explícito e implícito aplicados ao método de elementos finitos de alta ordem / Explicit and implicit integration local methods applied to the high-order finite element method

Furlan, Felipe Adolvando Correia 07 July 2011 (has links)
Orientador: Marco Lucio Bittencourt / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-18T15:16:56Z (GMT). No. of bitstreams: 1 Furlan_FelipeAdolvandoCorreia_M.pdf: 1842661 bytes, checksum: 69ed6fc529cf4f757f3c8a2f42e20518 (MD5) Previous issue date: 2011 / Resumo: O presente trabalho apresenta algoritmos locais de integração explícitos e implícitos aplicados ao método de elementos finitos de alta ordem, baseados na decomposição por autovetores das matrizes de massa e rigidez. O procedimento de solução é realizado para cada elemento da malha e os resultados são suavizados no contorno dos elementos usando a aproximação por mínimos quadrados. Consideraram-se os métodos de diferença central e Newmark para o desenvolvimento dos procedimentos de solução elemento por elemento. No algoritmo local explícito, observou-se que as soluções convergem para as soluções globais obtidas com a matriz de massa consistente. O algoritmo local implícito necessitou de subiterações para alcançar convergência. Exemplos bi e tridimensionais de elasticidade linear e não linear são apresentados. Os resultados mostraram precisão apropriada para problemas com solução analítica. Exemplos maiores também foram apresentados com resultados satisfatórios / Abstract: This work presents explicit and implicit local integration algorithms applied to the high-order finite element method, based on the eigenvalue decomposition of the elemental mass and stiffness matrices. The solution procedure is performed for each element of the mesh and the results are smoothed on the boundary of the elements using the least square approximation. The central difference and Newmark methods were considered for developing the element by element solution procedures. For the local explicit algorithm, it was observed that the solutions converge for the global solutions obtained with the consistent mass matrix. The local implicit algorithm required subiterations to achieve convergence. Two-dimensional and three-dimensional examples of linear and non-linear elasticity are presented. Results showed appropriate accuracy for problems with analytical solution. Larger examples are also presented with satisfactory results / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica

Page generated in 0.0615 seconds