• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 684
  • 252
  • 79
  • 57
  • 42
  • 37
  • 30
  • 26
  • 25
  • 14
  • 9
  • 8
  • 7
  • 7
  • 7
  • Tagged with
  • 1504
  • 1030
  • 249
  • 238
  • 223
  • 215
  • 195
  • 185
  • 167
  • 163
  • 151
  • 124
  • 123
  • 122
  • 111
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1251

Monitoramento de perfis lineares / Monitoring of linear profiles

Viviany Leão Fernandes 29 April 2009 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Uma das ferramentas básicas no controle estatístico de processos são os gráficos de controle de Shewhart, úteis no monitoramento das características-chave da qualidade nos processos de produção. Este monitoramento pode ser feito através de gráficos de controle univariados ou multivariados, quando a característica de qualidade é representada, respectivamente, por uma variável aleatória univariada ou multivariada. Em alguns casos, a qualidade pode ser representada por algum tipo de perfil, uma relação linear ou não-linear entre suas características. Este trabalho é dedicado ao estudo da fase II de gráficos de controle, ao monitoramento de uma variável, em um processo de produção, que é representada por um perfil linear, e os coeficientes de regressão são estimados pelo método de mínimos quadrados ordinários e pelo filtro de Kalman. Utiliza-se o gráfico de controle 2 c para o monitoramento dos parâmetros, intercepto e coeficiente de inclinação, do modelo de regressão linear simples. É proposto a aplicação das estimativas do filtro de Kalman ao gráfico de controle 2 c e também o estudo da eficiência deste gráfico com tais estimativas, bem como, a comparação com as estimativas obtidas pelo método de mínimos quadrados ordinários. Através de uma métrica construída com as estimativas do filtro de Kalman e com as estimativas do método de mínimos quadrados ordinários, compara-se o desempenho do gráfico de controle 2 c e verifica-se que este é mais rápido na detecção de mudanças nos parâmetros do modelo do processo quando suas estimativas são geradas pelo filtro de Kalman do que pelo método de mínimos quadrados ordinários. / Shewhart chart is a fundamental tool in statistical process control, and is useful in the monitoring of key quality characteristics in production processes. That monitoring can be done by univariate or by multivariate control charts, when the quality characteristic can be represented by a random variable or random vector. There are however certain cases where the quality can be represented by a profile, linear or nonlinear, between its characteristics. This work is dedicated to the control strategy for Phase II, to the monitoring of variables in a production process following a linear profile and the regression coefficients estimated by least squares and by Kalman filter. Our aim is to compare the performance of the 2 c control chart when the parameters of the model are estimated by those alternative techniques. Control chart 2 c has been used to monitor parameters of simple linear regression model. It has been proposed to apply the Kalman Filter estimates in the control chart 2 c and to analyse the efficiency of this chart considering such estimates, as well as, the comparison with the least squares estimates. The performance of this chart has been compared by those two techniques of estimation and has been confirmed that the control chart 2 c is more efficient when combined with the Filter Kalman estimates than with the least squares estimates.
1252

Métodos sem malha: aplicações do Método de Galerkin sem elementos e do Método de Interpolação de Ponto em casos estruturais. / Meshless methods: applications of Galerkin method and point interpolation method in structural cases.

Franklin Delano Cavalcanti Leitão 19 February 2010 (has links)
Apesar de serem intensamente estudados em muitos países que caminham na vanguarda do conhecimento, os métodos sem malha ainda são pouco explorados pelas universidades brasileiras. De modo a gerar uma maior difusão ou, para a maioria, fazer sua introdução, esta dissertação objetiva efetuar o entendimento dos métodos sem malha baseando-se em aplicações atinentes à mecânica dos sólidos. Para tanto, são apresentados os conceitos primários dos métodos sem malha e o seu desenvolvimento histórico desde sua origem no método smooth particle hydrodynamic até o método da partição da unidade, sua forma mais abrangente. Dentro deste contexto, foi investigada detalhadamente a forma mais tradicional dos métodos sem malha: o método de Galerkin sem elementos, e também um método diferenciado: o método de interpolação de ponto. Assim, por meio de aplicações em análises de barras e chapas em estado plano de tensão, são apresentadas as características, virtudes e deficiências desses métodos em comparação aos métodos tradicionais, como o método dos elementos finitos. É realizado ainda um estudo em uma importante área de aplicação dos métodos sem malha, a mecânica da fratura, buscando compreender como é efetuada a representação computacional da trinca, com especialidade, por meio dos critérios de visibilidade e de difração. Utilizando-se esses critérios e os conceitos da mecânica da fratura, é calculado o fator de intensidade de tensão através do conceito da integral J. / Meshless are certainly very researched in many countries that are in state of art of scientific knowledge. However these methods are still unknown by many brazilian universities. To create more diffusion or, for many people, to introduce them, this work tries to understand the meshless based on solid mechanic applications. So basic concepts of meshless and its historic development are introduced since its origin, with smooth particle hydrodynamic until partition of unity, its more general form. In this context, most traditional form of meshless was investigated deeply: element free Galerkin method and also another different method: point interpolation method. This way characteristics, advantages and disadvantages, comparing to finite elements methods, are introduced by applications in analyses in bars and plates in state of plane stress. This work still researched an important area of meshless application, fracture mechanical, to understand how a crack is computationally represented, particularly, with visibility and diffraction criterions. By these criterions and using fracture mechanical concepts, stress intensity factor is calculated by J-integral concept.
1253

Inferência bayesiana objetiva e freqüentista para a probabilidade de sucesso

Pires, Rubiane Maria 10 February 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1 2203.pdf: 1300161 bytes, checksum: 2c1f11d939eab9ab849bb04bf2363a53 (MD5) Previous issue date: 2009-02-10 / Financiadora de Estudos e Projetos / This study considers two discrete distributions based on Bernoulli trials: the Binomial and the Negative Binomial. We explore credibility and confidence intervals to estimate the probability of success of each distribution. The main goal is to analyze their performance coverage probability and average range across the parametric space. We also consider point analysis of bayesian estimators and maximum likelihood estimators, whose interest is to confirm through simulation their consistency, bias and mean square error. In this paper the Objective Bayesian Inference is applied through the noninformative Bayes-Laplace prior, Haldane prior, reference prior and least favorable prior. By analyzing the prior distributions in the minimax decision theory context we verified that the least favorable prior distribution has every other considered prior distributions as particular cases when a quadratic loss function is applied, and matches the Bayes-Laplace prior in considering the quadratic weighed loss function for the Binomial model (which was never found in literature). We used the noninformative Bayes-Laplace prior and Jeffreys prior for the Negative Binomial model. Our findings show through coverage probability, average range of bayesian intervals and point estimation that the Objective Bayesian Inference has good frequentist properties for the probability of success of Binomial and Negative Binomial models. The last stage of this study discusses the presence of correlated proportions in matched-pairs (2 × 2 table) of Bernoulli with the goal of obtaining more information in relation of the considered measures for testing the occurrence of correlated proportions. In this sense the Trinomial model and the partial likelihood function were used from the frequentist and bayesian point of view. The Full Bayesian Significance Test (FBST) was used for real data sets and was shown sensitive to parameterization, however, this study was not possible for the frequentist method since distinct methods are needed to be applied to Trinomial model and the partial likelihood function. / Neste estudo são abordadas duas distribuições discretas baseadas em ensaios de Bernoulli, a Binomial e a Binomial Negativa. São explorados intervalos de credibilidade e confiança para estimação da probabilidade de sucesso de ambas as distribuições. A principal finalidade é analisar nos contextos clássico e bayesiano o desempenho da probabilidade de cobertura e amplitude média gerada pelos intervalos de confiança e intervalos de credibilidade ao longo do espaço paramétrico. Considerou-se também a análise dos estimadores pontuais bayesianos e o estimador de máxima verossimilhança, cujo interesse é confirmar por meio de simulação a consistência e calcular o viés e o erro quadrático médio dos mesmos. A Inferência Bayesiana Objetiva é empregada neste estudo por meio das distribuições a priori não-informativas de Bayes-Laplace, de Haldane, de Jeffreys e menos favorável. Ao analisar as distribuições a priori no contexto de teoria de decisões minimax, a distribuição a priori menos favorável resgata as demais citadas ao empregar a função de perda quadrática e coincide com a distribuição a priori de Bayes-Laplace ao considerar a função de perda quadrática ponderada para o modelo Binomial, o que não foi encontrado até o momento na literatura. Para o modelo Binomial Negativa são consideradas as distribuições a priori não-informativas de Bayes-Laplace e de Jeffreys. Com os estudos desenvolvidos pôde-se observar que a Inferência Bayesiana Objetiva para a probabilidade de sucesso dos modelos Binomial e Binomial Negativa apresentou boas propriedades freqüentistas, analisadas a partir da probabilidade de cobertura e amplitude média dos intervalos bayesianos e por meio das propriedades dos estimadores pontuais. A última etapa do trabalho consiste na análise da ocorrência de proporções correlacionadas em pares de eventos de Bernoulli (tabela 2×2) com a finalidade de determinar um possível ganho de informação em relação as medidas consideradas para testar a ocorrência de proporções correlacionadas. Para tanto fez-se uso do modelo Trinomial e da função de verossimilhança parcial tanto numa abordagem clássica quanto bayesiana. Nos conjuntos de dados analisados observou-se a medida de evidência bayesiana (FBST) como sensível à parametrização, já para os métodos clássicos essa comparação não foi possível, pois métodos distintos precisam ser aplicados para o modelo Trinomial e para a função de verossimilhança parcial.
1254

Especificação do tamanho da defasagem de um modelo dinâmico

Furlan, Camila Pedrozo Rodrigues 06 March 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1 2567.pdf: 3332442 bytes, checksum: 1e03b44e1c1f61f90b947fdca5682355 (MD5) Previous issue date: 2009-03-06 / Financiadora de Estudos e Projetos / Several techniques are proposed to determine the lag length of a dynamic regression model. However, none of them is completely satisfactory and a wrong choice could imply serious problems in the estimation of the parameters. This dissertation presents a review of the main criteria for models selection used in the classical methodology and presents a way for determining the lag length from the perspective Bayesian. A Monte Carlo simulation study is conducted to compare the performance of the significance tests, R2 adjusted, final prediction error, Akaike information criterion, Schwarz information criterion, Hannan-Quinn criterion, corrected Akaike information criterion and fractional Bayesian approach. Two estimation methods are also compared, the ordinary least squares and the Almon approach. / Na literatura, muitas técnicas são propostas para determinar o tamanho da defasagem de um modelo de regressão dinâmico. Entretanto, nenhuma delas é completamente satisfatória e escolhas erradas implicam em sérios problemas na estimação dos parâmetros. Este trabalho apresenta uma revisão dos principais critérios de seleção de modelos disponíveis na metodologia clássica, assim como aborda uma maneira de determinar o tamanho da defasagem sob a perspectiva Bayesiana. Um estudo de simulação Monte Carlo é conduzido para comparar a performance dos testes de significância, do R2 ajustado, do erro de predição final, dos critérios de informação de Akaike, Schwarz, Hannan-Quinn e Akaike corrigido e da aproximação Bayesiana fracionada. Também serão comparados os métodos de estimação de Mínimos Quadrados Ordinários e de Almon.
1255

Modely strukturálních rovnic s aplikací v sociálních vědách / Structural Equation Models with Application in Social Sciences

Veselý, Václav January 2018 (has links)
We investigate possible usage of Errors-in-Variables estimator (EIV), when esti- mating structural equations models (SEM). Structural equations modelling pro- vides framework for analysing complex relations among set of random variables where for example the response variable in one equation plays role of the predic- tor in another equation. First an overview of SEM and some common covariance based estimators is provided. Special case of linear regression model is investi- gated, showing that the covariance based estimators yield the same results as ordinary least squares. A compact review of EIV models follows, Errors-in-Variables models are re- gression models where not only response but also predictors are assumed to be measured with an error. Main contribution of this paper then lies in defining modifications of the EIV estimator to fit in the SEM framework. General opti- mization problem to estimate the parameters of structural equations model with errors-in-variables si postulated. Several modifications of two stage least squares are also proposed for future research. Equation-wise Errors-in-Variables estimator is proposed to estimate the coeffi- cients of structural equations model. The coefficients of every structural equation are estimated separately using EIV estimator. Some theoretical conditions...
1256

Caractérisation du rayonnement acoustique d'un rail à l'aide d'un réseau de microphones / Spatial characterization of the wheel/rail contact noise by a multi-sensors method

Faure, Baldrik 22 September 2011 (has links)
Le secteur des transports ferroviaires en France est marqué par un dynamisme lié notamment à l'essor du réseau à grande vitesse et à la réimplantation du tramway dans de nombreuses agglomérations. Dans ce contexte, la réduction des nuisances sonores apparaît comme un enjeu majeur pour son développement. Afin d'agir efficacement à la source, il est indispensable d'identifier et d'étudier précisément les sources responsables de ces nuisances au passage des véhicules. Parmi les approches possibles, les antennes microphoniques et les traitements associés sont particulièrement adaptés à la caractérisation des sources ponctuelles mobiles, omnidirectionnelles et décorrélées.Pour les vitesses inférieures à 300 km/h, le bruit de roulement constitue la source principale du bruit ferroviaire ; il résulte du rayonnement acoustique des éléments tels que les roues, le rail et les traverses. Le rail, dont la contribution au bruit de roulement est prépondérante aux moyennes fréquences (entre 500 He et 1000 Hz environ), est une source étendue et cohérente pour laquelle les principes classiques de traitement d'antenne ne sont pas adaptés.La méthode de caractérisation proposée dans cette thèse est une méthode inverse d'optimisation paramétrique utilisant les signaux acoustiques issus d'une antenne microphonique. Les paramètres inconnus d'un modèle vibro-acoustique sont estimés par minimisation d'un critère des moindres carrés sur les matrices spectrales mesurée et modélisée au niveau de l'antenne. Dans le modèle vibro-acoustique, le rail est assimilé à un monopôle cylindrique dont la distribution longitudinale d'amplitude est liée à celle des vitesses vibratoires. Pour le calcul de ces vitesses, les différents modèles proposés mettent en évidence des ondes vibratoires se propageant dans le rail de part et d'autre de chaque excitation. Chacune de ces ondes est caractérisée par une amplitude au niveau de l'excitation, un nombre d'onde structural réel et une atténuation. Ces paramètres sont estimés par minimisation du critère, puis utilisés pour reconstruire le champ acoustique.Dans un premier temps, des simulations sont réalisées pour juger des performances de la méthode proposée, dans le cas d'excitations ponctuelles verticales. En particulier, sa robustesse est testée en présence de bruit ou d'incertitudes sur les paramètres supposés connus du modèle. Les effets de l'utilisation de modèles dégradés sont également étudiés. Concernant l'estimation des amplitudes, les résultats ont montré que la méthode est particulièrement robuste et efficace pour les excitations les plus proches de l'antenne. En revanche, pour l'estimation des autres paramètres, les performances sont supérieures pour les positions d'antenne excentrées. De manière générale, le nombre d'onde est correctement estimé sur l'ensemble des fréquences étudiées. Dans les cas à faible atténuation, un traitement classique par formation de voies en ondes planes suffit. En ce qui concerne l'estimation de l'atténuation, la faible sensibilité du critère limite l'efficacité de la méthode proposée.Enfin, certains résultats obtenus à partir des simulations ont été vérifiés lors de mesures in situ. L'excitation d'un rail expérimental par un marteau de chocs a tout d'abord permis de valider le modèle vibratoire pour la flexion verticale. Pour tester la méthode d'optimisation paramétrique, le rail a également été excité verticalement à l'aide d'un pot vibrant. Les principaux résultats des simulations ont été retrouvés, et des comportements particuliers relatifs à la présence de plusieurs ondes dans le rail ont été observés, ouvrant des perspectives de généralisation du modèle vibratoire utilisé. / In France, railway transport has been boosted by the expansion of the high-speed rail service and the resurgent implantation of tram networks in many city centers. In this context, the reduction of noise pollution becomes a crucial issue for its development. In order to directly act on the source area, it is necessary to precisely identify and study the sources responsible for this nuisance at train pass-by. Among all the potential approaches, microphone arrays and related signal processing techniques are particularly adapted to the characterization of omnidirectional and uncorrelated moving point sources. For speeds up to 300 km/h, rolling noise is the main railway noise source. It arises from the acoustic radiation of various elements such as wheels, rail or sleepers. The rail, which mainly contributes to rolling noise at mid-frequencies (from 500 Hz to 1000 Hz approximately), is an extended coherent source for which classical array processing methods are inappropriate. The characterization method proposed in this thesis is an inverse parametric optimization method that uses the acoustical signals measured by a microphone array. The unknown parameters of a vibro-acoustical model are estimated through the minimization of a least square criterion applied to the entries of the measured and modelled spectral matrices. In this vibro-acoustical model, the rail is considered as a cylindrical monopole whose lengthwise amplitude distribution is obtained from the vibratory velocity one. The different models proposed to obtain this velocity highlight the propagation of vibration waves towards both sides of every forcing point. Each wave is characterized by an amplitude at the forcing point, a real structural wavenumber and a decay rate. These parameters are estimated by the minimization of the least square criterion, and are then used in the vibro-acoustical model to rebuild the acoustical field radiated by the rail. First, simulations are performed in order to appraise the performances of the proposed method, in the case of vertical point excitations. In particular, its robustness to additive noise and to uncertainties in the model parameters that are supposed to be known is tested. The effect of using simplified models is also investigated. Results show that the method is efficient and robust for the amplitude estimation of the nearest contacts to the array. On the other hand, the estimation of the other parameters is improved when the array is shifted away from the contact points. The wavenumber is generally well estimated over the entire frequency range, and when the decay rate is low, a single beamforming technique may be sufficient. Concerning the decay rate estimation, the efficiency of the method is limited by the low sensitivity of the criterion. At last, measurements are performed in order to verify some results obtained from the simulations. The vibratory model is first validated for the vertical flexural waves trough the use of an impact hammer. Then, the parametric optimization method is tested by the vertical excitation of the rail with a modal shaker. The main simulation results are found, and some particular behavior due to other waves existing in the rail can be observed, opening the perspective of a generalized method including more complex vibratory modelings.
1257

Novas estratégias para seleção de variáveis por intervalos em problemas de classificação

Fernandes, David Douglas de Sousa 26 August 2016 (has links)
Submitted by Maike Costa (maiksebas@gmail.com) on 2017-06-20T13:50:43Z No. of bitstreams: 1 arquivototal.pdf: 7102668 bytes, checksum: abe19d798ad952073affbf4950f62d29 (MD5) / Made available in DSpace on 2017-06-20T13:50:43Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 7102668 bytes, checksum: abe19d798ad952073affbf4950f62d29 (MD5) Previous issue date: 2016-08-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / In Analytical Chemistry it has been recurring in the literature the use of analytical signals recorded on multiple sensors combined with subsequent chemometric modeling for developing new analytical methodologies. For this purpose, it uses generally multivariate instrumental techniques as spectrometry ultraviolet-visible or near infrared, voltammetry, etc. In this scenario, the analyst is faced with the option of selecting individual variables or variable intervals so to avoid or reduce multicollinearity problems. A well-known strategy for selection of variable intervals is to divide the set of instrumental responses into equal width intervals and select the best interval based on the performance of the prediction of a unique range in the regression by Partial Least Squares (iPLS). On the other hand, the use of interval selection for classification purposes has received relatively little attention. A common practice is to use the iPLS regression method with the coded class indices as response variables to be predicted; that is the basic idea behind the release of the Discriminant Analysis by Partial Least Squares (PLS-DA) for classification. In other words, interval selection for classification purposes has no development of native functions (algorithms). Thus, in this work it is proposed two new strategies in classification problems using interval selection by the Successive Projections Algorithm. The first strategy is named Successive Projections Algorithm for selecting intervals in Discriminant Analysis Partial Least Squares (iSPA-PLS-DA), while the second strategy is called Successive Projections Algorithm for selecting intervals in Soft and Independent Modeling by Class Analogy (iSPA-SIMCA). The performance of the proposed algorithms was evaluated in three case studies: classification of vegetable oils according to the type of raw material and the expiration date using data obtained by square wave voltammetry; classification of unadulterated biodiesel/diesel blends (B5) and adulterated with soybean oil (OB5) using spectral data obtained in the ultraviolet-visible region; and classification of vegetable oils with respect to the expiration date using spectral data obtained in the near infrared region. The proposed iSPA-PLS-DA and iSPA-SIMCA algorithms provided good results in the three case studies, with correct classification rates always greater than or equal to those obtained by PLS-DA and SIMCA models using all variables, iPLS-DA and iSIMCA with a single selected interval, as well as SPA-LDA and GA-LDA with selection of individual variables. Therefore, the proposed iSPA-PLS-DA and iSPA-SIMCA algorithms can be considered as promising approaches for use in classification problems employing interval selection. In a more general point of view, the possibility of using interval selection without loss of the classification accuracy can be considered a very useful tool for the construction of dedicated instruments (e.g. LED-based photometers) for use in routine and in situ analysis. / Em Química Analítica tem sido recorrente na literatura o uso de sinais analíticos registrados em múltiplos sensores combinados com posterior modelagem quimiométrica para desenvolvimento de novas metodologias analíticas. Para esta finalidade, geralmente se faz uso de técnicas instrumentais multivariadas como a espectrometrias no ultravioleta-visível ou no infravermelho próximo, voltametria, etc. Neste cenário, o analista se depara com a opção de selecionar variáveis individuais ou intervalos de variáveis de modo de evitar ou diminuir problemas de multicolinearidade. Uma estratégia bem conhecida para seleção de intervalos de variáveis consiste em dividir o conjunto de respostas instrumentais em intervalos de igual largura e selecionar o melhor intervalo com base no critério de desempenho de predição de um único intervalo em regressão por Mínimos Quadrados Parciais (iPLS). Por outro lado, o uso da seleção de intervalo para fins de classificação tem recebido relativamente pouca atenção. Uma prática comum consiste em utilizar o método de regressão iPLS com os índices de classe codificados como variáveis de resposta a serem preditos, que é a idéia básica por trás da versão da Análise Discriminante por Mínimos Quadrados Parciais (PLS-DA) para a classificação. Em outras palavras, a seleção de intervalos para fins de classificação não possui o desenvolvimento de funções nativas (algoritmos). Assim, neste trabalho são propostas duas novas estratégias em problemas de classificação que usam seleção de intervalos de variáveis empregando o Algoritmo das Projeções Sucessivas. A primeira estratégia é denominada de Algoritmo das Projeções Sucessivas para seleção intervalos em Análise Discriminante por Mínimos Quadrados Parciais (iSPA-PLS-DA), enquanto a segunda estratégia é denominada de Algoritmo das Projeções Sucessivas para a seleção de intervalos em Modelagem Independente e Flexível por Analogia de Classe (iSPA-SIMCA). O desempenho dos algoritmos propostos foi avaliado em três estudos de casos: classificação de óleos vegetais com relação ao tipo de matéria-prima e ao prazo de validade utilizando dados obtidos por voltametria de onda quadrada; classificação de misturas biodiesel/diesel não adulteradas (B5) e adulteradas com óleo de soja (OB5) empregando dados espectrais obtidos na região do ultravioleta-visível; e classificação de óleos vegetais com relação ao prazo de validade usando dados espectrais obtidos na região do infravermelho próximo. Os algoritmos iSPA-PLS-DA e iSPA-SIMCA propostos forneceram bons resultados nos três estudos de caso, com taxas de classificação corretas sempre iguais ou superiores àquelas obtidas pelos modelos PLS-DA e SIMCA utilizando todas as variáveis, iPLS-DA e iSIMCA com um único intervalo selecionado, bem como SPA-LDA e GA-LDA com seleção de variáveis individuais. Portanto, os algoritmos iSPA-PLS-DA e iSPA-SIMCA propostos podem ser consideradas abordagens promissoras para uso em problemas de classificação empregando seleção de intervalos de variáveis. Num contexto mais geral, a possibilidade de utilização de seleção de intervalos de variáveis sem perda da precisão da classificação pode ser considerada uma ferramenta bastante útil para a construção de instrumentos dedicados (por exemplo, fotômetros a base de LED) para uso em análise de rotina e de campo.
1258

PI-MQR adaptativo aplicado a um motor de indução trifásico utilizando a plataforma DSPACE1103 / PI-RLS Adaptive applied to an induction motor three-phase using DSPACE1103 platform

Silva, Paulo César da 10 July 2015 (has links)
Made available in DSpace on 2016-12-12T17:38:34Z (GMT). No. of bitstreams: 1 Paulo Cesar da Silva.pdf: 5331875 bytes, checksum: adf5bf8880e8e89421a2fd553c966530 (MD5) Previous issue date: 2015-07-10 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The electrical parameters of three-phase induction motors vary according to their operating point, with the temperature and also with the natural machine degradation. Since the design regulators are typically performed based on linear and simplified equations of the machine, the parametric variation can cause unwanted responses, since the motor behavior is non-linear and time variant. Thus, it is proposed in this work carry the identification of the electrical parameters of the induction motor using the estimator called Least Squares Recursive (RLS). Thus, with the parametric data updated every sampling period can be recalculated in real time the gains of the regulators are designed for controlling the induction machine and make minor mismatches. The experimental results were obtained with the processing performed by dSPACE hardware (DS1103), which has an interface with Matlab/Simulink, facilitating the use by the user and reducing the time taken for testing bench. The results of numerical and practical simulations show a comparison between the mesh proposal, the parametric identification and update of the gains of the controllers (adaptive control) and the mesh with controllers with fixed gains. / Os parâmetros elétricos do motor de indução trifásico variam conforme o seu ponto de operação, com a temperatura e também com a degradação natural da máquina. Visto que o projeto de reguladores são tipicamente realizados com base em equações lineares e simplicadas da máquina, a variação paramétrica pode causar respostas indesejadas, pois o comportamento do motor é não-linear e variante no tempo. Desta forma propõe-se neste trabalho realizar a identificação dos parâmetros elétricos do motor de indução, utilizando o estimador denominado de Mínimos Quadrados Recursivos (MQR). Assim, com os dados paramétricos atualizados a cada período de amostragem, pode-se recalcular em tempo real, os ganhos dos reguladores que são projetados para o controle da máquina de indução e tornar os descasamentos menores. Os resultados experimentais foram obtidos com o processamento realizado pelo hardware dSPACE (DS1103), que possui uma interface com o Matlab/Simulink, facilitando a utilização por parte do usuário e reduzindo o tempo dispendido para os testes em bancada. Os resultados de simulações numéricas e práticos apresentam uma comparação entre a malha proposta, com a identificação paramétrica e atualiza ção dos ganhos dos controladores (controle adaptativo) e a malha com controladores com ganhos fixos.
1259

Analysis, Diagnosis and Design for System-level Signal and Power Integrity in Chip-package-systems

Ambasana, Nikita January 2017 (has links) (PDF)
The Internet of Things (IoT) has ushered in an age where low-power sensors generate data which are communicated to a back-end cloud for massive data computation tasks. From the hardware perspective this implies co-existence of several power-efficient sub-systems working harmoniously at the sensor nodes capable of communication and high-speed processors in the cloud back-end. The package-board system-level design plays a crucial role in determining the performance of such low-power sensors and high-speed computing and communication systems. Although there exist several commercial solutions for electromagnetic and circuit analysis and verification, problem diagnosis and design tools are lacking leading to longer design cycles and non-optimal system designs. This work aims at developing methodologies for faster analysis, sensitivity based diagnosis and multi-objective design towards signal integrity and power integrity of such package-board system layouts. The first part of this work aims at developing a methodology to enable faster and more exhaustive design space analysis. Electromagnetic analysis of packages and boards can be performed in time domain, resulting in metrics like eye-height/width and in frequency domain resulting in metrics like s-parameters and z-parameters. The generation of eye-height/width at higher bit error rates require longer bit sequences in time domain circuit simulation, which is compute-time intensive. This work explores learning based modelling techniques that rapidly map relevant frequency domain metrics like differential insertion-loss and cross-talk, to eye-height/width therefore facilitating a full-factorial design space sweep. Numerical results performed with artificial neural network as well as least square support vector machine on SATA 3.0 and PCIe Gen 3 interfaces generate less than 2% average error with order of magnitude speed-up in eye-height/width computation. Accurate power distribution network design is crucial for low-power sensors as well as a cloud sever boards that require multiple power level supplies. Achieving target power-ground noise levels for low power complex power distribution networks require several design and analysis cycles. Although various classes of analysis tools, 2.5D and 3D, are commercially available, the presence of design tools is limited. In the second part of the thesis, a frequency domain mesh-based sensitivity formulation for DC and AC impedance (z-parameters) is proposed. This formulation enables diagnosis of layout for maximum impact in achieving target specifications. This sensitivity information is also used for linear approximation of impedance profile updates for small mesh variations, enabling faster analysis. To enable designing of power delivery networks for achieving target impedance, a mesh-based decoupling capacitor sensitivity formulation is presented. Such an analytical gradient is used in gradient based optimization techniques to achieve an optimal set of decoupling capacitors with appropriate values and placement information in package/boards, for a given target impedance profile. Gradient based techniques are far less expensive than the state of the art evolutionary optimization techniques used presently for a decoupling capacitor network design. In the last part of this work, the functional similarities between package-board design and radio frequency imaging are explored. Qualitative inverse-solution methods common to the radio frequency imaging community, like Tikhonov regularization and Landweber methods are applied to solve multi-objective, multi-variable signal integrity package design problems. Consequently a novel Hierarchical Search Linear Back Projection algorithm is developed for an efficient solution in the design space using piecewise linear approximations. The presented algorithm is demonstrated to converge to the desired signal integrity specifications with minimum full wave 3D solve iterations.
1260

Progressões e funções: da variação e caracterização das função es do tipo exponencial e logarítmica às técnicas de ajuste de curvas no uso de modelagem matemática

Ferri, Orlando Eduardo da Silva 25 April 2014 (has links)
CAPES / Neste trabalho apresenta-se uma proposta para o ensino de funções exponenciais e logarítmicas, precedido pelo conceito de Progressões que permite ao professor do ensino médio tratar do conceito de função exponenciais e logarítmica de maneira mais clara e construtivista para o aluno. Propõe-se a construção do conhecimento através de atividades de modelagem matemática desenvolvidas a partir do uso de tabelas construídas em planilhas eletrônicas e em um ambiente de geometria dinâmica (GeoGebra), explorando as ideias intuitivas de variação e caracterização dessas funções reais a partir das progressões no domínio discreto. Apresenta-se sugestões de atividades interdisciplinares envolvendo estimativas através do ajuste de curvas. / This work presents a proposal for teaching exponential and logarithmic functions, preceded by the concept of progressions which allows high school teacher dealing with the concept of exponential and logarithmic function more clear and constructive way for the student. Proposes the construction of knowledge through mathematical modeling developed from the use of built in spreadsheets and dynamic geometry (GeoGebra) environment tables activities, exploring the intuitive ideas of variation and characterization of these real functions from progressions in discrete domain. Presents suggestions for interdisciplinary activities involving estimates by adjusting curves.

Page generated in 0.0285 seconds