531 |
Otimização energética em tempo real da operação de sistemas de abastecimento de água / Real-time optimization of water supply system operationCunha, Alice Araújo Rodrigues da 12 May 2009 (has links)
Este trabalho apresenta um modelo computacional para otimização energética de sistemas de abastecimento em tempo real. Tal modelo é composto por três módulos principais: (1) um módulo de simulação hidráulica que descreve o comportamento do sistema - EPANET; (2) um módulo de previsão de demandas que realiza a previsão das demandas futuras aplicável à utilização no tempo real (curto prazo), desenvolvido por Odan (2008); e, por fim, (3) um módulo otimizador estruturado em linguagem C++ que implementa a biblioteca de algoritmos genéticos do MIT - Massachusetts Institute of Technology and Matthew Wall, a GAlib, que permite determinar as rotinas operacionais (acionamento de válvulas e bombas) de forma à minimizar o custo de energia elétrica no sistema. O processo de otimização é divido em duas rotinas, nível estratégico e tempo real. Na otimização em nível estratégico, a partir das curvas típicas de demanda para cada nó de demanda do macro-sistema considerado, determina-se o conjunto de controles que minimizam os custos de energia elétrica, respeitando as restrições hidráulicas do sistema. Para cada conjunto de controles otimizados têm-se os níveis que os reservatórios irão atingir ao final de cada hora durante o horizonte de planejamento considerado, denominados níveis metas. Tais níveis servem de guia para a segunda etapa de otimização. A operação em tempo real se inicia com o recebimento dos dados sobre as condições atuais do sistema: níveis dos reservatórios e demandas da última hora. A partir das demandas informadas, o módulo de previsão de demandas gera todas as demandas para o horizonte de planejamento. Alimenta-se então o otimizador em tempo real com os níveis atuais dos reservatórios, os níveis metas e a previsão de demandas, obtêm-se o conjunto de regras operacionais ótimas para o horizonte de planejamento, sendo que são implementadas apenas as regras para a hora atual. E repete-se todo o processo a cada hora. Este modelo foi aplicado a um sistema de abastecimento de água. Os resultados obtidos demonstraram a eficiência do modelo em achar soluções factíveis de serem implementadas e com redução dos custos com energia elétrica. / This work presents a computational model for real-time optimization of water-distribution networks operation. An integrated software tool has been developed which is composed of three main modules: (i) a hydraulic simulator that performs the extended period simulation of the system (EPANET); (ii) a short-term demand-forecasting model, based on the moving Fourier series; and (iii) an optimization module, using genetic algorithm, to minimize pumping costs. The optimization process is divided in two routines, the off-line optimization and the on-line optimization. The aim of the first routine is to find the ideal operation levels for the reservoirs which are used as guidance for the on-line optimization. The schedules to be implemented in the network are determined, however, by an on-line optimization which runs a new optimization processes at each SCADA (Supervisory Control and Data Acquisition) update. In the off-line optimization, near-optimal pump and valve settings for a selected operating horizon are found on the basis of the typical 24-hour water demand cycle in which each reservoir must also start and end with the same water level. The levels of the reservoirs at the end of each hour in this optimization process, called ideal levels, are considered in the on-line optimization as a constraint that represents a penalty added to the objective function whenever a reservoir level is below the ideal level at the end of each hourly operation. The on-line optimization starts updating the state of the network transmitted from the SCADA system and the demand forecast for the next 24-hour period. Near-optimal pump and valve settings for a selected operating horizon are then determined but only the control settings for the next hourly time step are used to implement the operation. At the next SCADA update (next-time step), the whole process is repeated on a continuous basis and a new operating strategy is computed. In this way, the control process moves forward in time, correcting any discrepancies as it progresses. This integrated software tool has been applied to a small example network. The results obtained from this application have shown that the proposed model offers a practical tool for finding feasible operation strategies for a water pipeline system, obtaining reductions in pumping energy costs.
|
532 |
Zeros de Fisher e aspectos críticos do modelo de Ising dipolar / Fisher\'s zeros and critical aspects of the dipolar Ising modelFonseca, Jacyana Saraiva Marthes 06 June 2011 (has links)
Estudamos o comportamento crítico do modelo de Ising com interação dipolar, em redes bidimensionais regulares. Este modelo apresenta um cenário fenomenologicamente rico devido ao efeito de frustração causado pela competição entre as interações de troca do Ising puro e a interação dipolar. A criticalidade do modelo foi estudada a partir das relações de escala de tamanho finito para os zeros da função de partição no plano complexo da temperatura. Esta abordagem nunca foi utilizada no estudo do modelo em questão. Nosso estudo se baseia em simulações de Monte Carlo usando o algoritmo multicanônico. O objetivo deste trabalho é obter a temperatura crítica em função do acoplamento (razão entre as intensidades dos acoplamentos ferromagnético e dipolar) e construir uma parte do diagrama de fase do modelo. Diferentes partes do diagrama de fase ainda não apresentam indicações conclusivas a respeito da ordem das linhas de transição. Em particular, há evidências na literatura de um ponto tricrítico para no intervalo [0.90,1.00], mas sua localização precisa não é conhecida. Nossas simulações indicam que o ponto tricrítico não se localiza no intervalo acima. Nossos resultados mostraram que, para [0.89,1.10], a fase do tipo faixas com h=1 passa para a fase tetragonal através de uma transição de segunda ordem. A análise de FSS para os zeros da função de partição na variável temperatura, apresenta, para =1.20, uma transição de fase de segunda ordem e para =1.30, uma transição de fase de primeira ordem. Dessa forma, o ponto tricrítico ocorre somente entre =1.20 e 1.30. Realizamos um estudo complementar baseado na abordagem microcanônica e observamos duas transições de fase de segunda ordem para =1.20 e duas transições de fase de primeira ordem para =1.30, que indica a presença da fase nemática intermediária. / We study the critical behavior of the dipolar Ising model on two-dimensional regular lattices. This model presents a phenomenologically rich scenario due to the effect of frustration caused by the competition between the pure Ising interaction and the dipolar one. To study the criticality of this model we apply finite size scaling relations for the partition function zeros in the complex temperature plane. The partition function zeros analysis has never been used before to study such model with long-range interactions. Our study relies on Monte Carlo simulations using the multicanonical algorithm. Our goal is to obtain the critical temperature as a function of the coupling (the ratio between the ferromagnetic and dipolar couplings) to construct a part of the phase diagram. Different parts of the phase diagram do not present a conclusive results about the order of the phase transition lines.In particular, there is evidence of a tricritical point for [0.90,1.00], but its precise location is unknown. Our simulations indicate that the tricritical point is not located in the above range. Our FSS analysis show that for =1.20 the striped-tetragonal transition is a second-order phase transition and for =1.30 it is a first-order one. Thus, the tricritical point must occur between =1.2 and =1.3. We have used a microcanonical approach to study the criticality of this model too. This approach indicates two second-order phase transitions for =1.20 and two first-order phase transitions for =1.30. Therefore, it presents evidences for the presence of an intermediate nematic phase.
|
533 |
Sistema ADAS para identificação de distrações e perturbações do motorista na condução de veículos / ADAS system for recognition of driver\'s distractions and disturbances while drivingBerri, Rafael Alceste 31 January 2019 (has links)
Este trabalho apresenta um sistema que se utiliza de características extraídas de dados provenientes de um sensor Kinect v2 para monitorar o motorista, dados de sensores inerciais, da telemetria do veículo e dados sobre a estrada/faixa de rodagem para reconhecer o estilo de direção, permitindo ao sistema detectar o uso do celular no trânsito, um motorista embriagado e a direção sonolenta, evitando assim, riscos relacionados com a direção. De fato, quando veículos são conduzidos por pessoas em ligações telefônicas, o risco de acidente aumenta de 4 a 6 vezes. Motoristas embriagados causaram 10:497 mortes nas rodovias dos Estados Unidos da América em 2016, segundo o órgão local responsável pela segurança no trânsito (NHTSA). Um Conjunto de Dados Naturalista do Comportamento do Motorista (NDBD) foi criado especificamente para este trabalho e utilizado para o teste e validação do sistema proposto. A solução proposta emprega duas análises dos dados do motorista, os subsistemas de reconhecimento de padrões de Curto e Longo prazos. Assim, pode-se detectar situações de risco na direção. O sistema possui 3 níveis de alerta: sem alerta, alerta baixo e alerta alto. O subsistema de Curto Prazo detecta situações de sem alerta e de algum nível de alerta. Já o subsistema de Longo Prazo é responsável por determinar o nível de alerta: baixo ou alto. Classificadores baseados em Aprendizado de Máquina e Redes Neurais Artificiais (RNA) foram utilizados. Um Algoritmo Genético foi empregado para otimizar e selecionar um conjunto de valores que ajustam a entrada de características, função de ativação dos neurônios e topologia/treino da rede neural. O sistema proposto alcançou 79;5% de acurácia nos frames do NDBD (conjunto de treinamento e validação obtidos utilizando um simulador veicular próprio), para a detecção conjunta de risco em situações de uso de celular, embriaguez ou condução normal. Para o classificador de Curto Prazo, utilizou-se períodos de 5 frames e uma janela de 140 frames para o Longo Prazo. Considerando a detecção individualizada dos problemas de condução, no caso específico da embriaguez (usados dados de embriaguez e direção normal) o sistema obteve 98% de acurácia, e especificamente para o uso de celular obteve 95% de acurácia. Na classificação de sem alerta (situações sem risco), o sistema obteve apenas 1;5% de predições erradas (falsos positivos), contribuindo assim para o conforto do motorista ao utilizar o sistema. / In this work, a system has been developed using features from a frontal Kinect v2 sensor to monitor the driver, from inertial sensors, car telemetry, and road lane data to recognize the driving style, enabling to recognize the use of a cell phone while driving, a drunk driver, and drowsy driving, avoiding driving risks. In fact, cars driven by people on phone calls, increases the risk of crash between 4 and 6 times. Drunk drivers caused 10;497 deaths on USA roads in 2016 according to NHTSA. The Naturalistic Driver Behavior Dataset (NDBD) was created specifically for this work and it was used to test the proposed system. The proposed solution uses two analysis of the drivers data, the Short-Term and Long-Term pattern recognition subsystems, thus it could detect the risk situations while driving. The system has 3 levels of alarm: no alarm, lowest alarm, and highest alarm. Short-Term detects between no alarm or some level alarm. Long-Term is responsible for determining the risk alarm level, low or high. The classifiers are based on Machine Learning and Artificial Neural Networks (ANN), furthermore, the values set to adjust input features, neuron activation functions, and network topology/training parameters were optimized and selected using a Genetic Algorithm. The proposed system achieved 79:5% of accuracy in NDBD frames (training and validation sets obtained using a driving simulator), for joint detection of risk in situations of cellphone usage, drunkenness, or normal driving. For the Short-Term classifier, it was used length periods of 5 frames and a window of 140 frames for Long-Term. Considering the individualized detection of driving problems, in the specific case of drunkenness (using data of drunkenness and normal driving), the system achieved 98% of accuracy, and specifically for cell phone usage 95% of accuracy. The best results achieved obtained only 1:5% of no risk situation having a wrong prediction (false positives with alarm activation), contributing to the driver comfort when he/she is using the system.
|
534 |
Viscosidades de sistemas de interesse para a desterpenação de óleos essenciais: modelagem de dados para a obtenção de novos parâmetros do modelo UNIFAC-VISCO utilizando algoritmo genético / Viscosities of systems of interest for essential oils deterpenation: modeling of data for obtaining new parameters for the UNIFAC-VISCO model using a genetic algorithmFlorido, Priscila Missano 06 March 2014 (has links)
Óleos essenciais, basicamente formados por hidrocarbonetos terpênicos e compostos oxigenados, têm função aromatizante nas indústrias química, farmacêutica e de alimentos. Os compostos terpênicos são instáveis ao calor e sua remoção resulta em um produto mais estável e com maior valor comercial. No processo de desterpenação, a viscosidade é um parâmetro de grande interesse, pois afeta a perda de energia por atrito e os mecanismos de transferência de calor e massa. Devido o grande número de variáveis que podem afetar a viscosidade, como temperatura, pressão e concentração, métodos para estimar esta propriedade apresentam grande importância prática. O objetivo desta dissertação de mestrado foi ajustar o modelo UNIFAC-VISCO aos dados de viscosidade de sistemas similares aos resultantes do processo de desterpenação dos óleos essenciais de bergamota, hortelã e limão por extração líquido-líquido (ELL), a 25 ºC, utilizando etanol hidratado como solvente. O modelo foi programado utilizando a plataforma MATLAB® e a correlação foi realizada utilizando duas abordagens: na primeira, somente foram ajustados parâmetros referentes aos grupos funcionais ainda não descritos na literatura para o UNIFAC-VISCO, resultando em um desvio médio relativo (DMR) igual a 1,70 %; na segunda abordagem, todos os grupos funcionais foram ajustados aos dados experimentais, resultando em um desvio médio relativo (DMR) igual 0,68 %. Os parâmetros UNIFAC-VISCO foram ajustados utilizando um método heurístico o que possibilitou avaliar o desempenho de um método de inteligência computacional. A capacidade preditiva dos parâmetros obtidos foi testada nos sistemas semelhantes aos formados na desterpenação de óleo de eucalipto. Os valores de DMR para estes sistemas foram 3,56 e 1,83%, utilizando os parâmetros obtidos na primeira e na segunda abordagem, respectivamente. Estes resultados mostram que o modelo fornece uma boa estimativa desta propriedade e pode ser uma ferramenta útil para a indústria de alimentos e para o processo de extração, possibilitando a melhoria de processos e permitindo o projeto de equipamentos mais eficientes em escala industrial. / Essential oils, that are primarily composed for terpenoids and oxygenates, have flavoring function in the chemical, pharmaceutical and food industries. Terpenes compounds are unstable to heat and its removal results in a better quality product besides its higher commercial value. In the deterpenation process, the viscosity has a great importance since it affects the loss of energy by friction and the mechanisms of heat and mass transfer. There are a large amount of variables that can affect this parameter such as temperature, pressure and concentration and the use of estimation methods for this property becomes a tool of great practical importance. The aim of this dissertation was to adjust the UNIFAC-VISCO model to the kinematic viscosities of similar systems to those formed after deterpenation process of bergamot, mint and lemon essential oils, by liquid-liquid extraction (LLE) at 25ºC, with aqueous ethanol as solvent. The model was programmed using MATLAB ® platform and the correlation was accomplished using two approaches: in the first one, only parameters related to functional groups with no previous literature references to the UNIFAC-VISCO were adjusted, providing an average relative deviation (ARD) equal to 1.70 %; in the second approach, all functional groups were fitted to the experimental data, which provided an average relative deviation (ARD) equal to 0.68 %. The UNIFAC-VISCO parameters were adjusted by a heuristic method allowing the evaluation of a computational intelligence method performance. The predictive ability of the parameters was evaluated in similar systems to those formed in the deterpenation of eucalyptus essential oil. The ARD values between the experimental and the calculated viscosities were 3.56 and 1.83%, for parameters from first and second approach, respectively. These results show that the model provides a good estimation of this physical property and it can be a good tool for food industry and for extraction process, allowing process improvement and enabling the project of more efficient equipment on industrial scale.
|
535 |
Inferência em modelos de mistura via algoritmo EM estocástico modificado / Inference on Mixture Models via Modified Stochastic EMAssis, Raul Caram de 02 June 2017 (has links)
Apresentamos o tópico e a teoria de Modelos de Mistura de Distribuições, revendo aspectos teóricos e interpretações de tais misturas. Desenvolvemos a teoria dos modelos nos contextos de máxima verossimilhança e de inferência bayesiana. Abordamos métodos de agrupamento já existentes em ambos os contextos, com ênfase em dois métodos, o algoritmo EM estocástico no contexto de máxima verossimilhança e o Modelo de Mistura com Processos de Dirichlet no contexto bayesiano. Propomos um novo método, uma modificação do algoritmo EM Estocástico, que pode ser utilizado para estimar os parâmetros de uma mistura de componentes enquanto permite soluções com número distinto de grupos. / We present the topics and theory of Mixture Models in a context of maximum likelihood and Bayesian inferece. We approach clustering methods in both contexts, with emphasis on the stochastic EM algorithm and the Dirichlet Process Mixture Model. We propose a new method, a modified stochastic EM algorithm, which can be used to estimate the parameters of a mixture model and the number of components.
|
536 |
Aplicac¸ oes do Modelo qGM na Interpretac¸ ao de Algoritmos Qu anticos / THE QGM MODEL APPLICATIONS ON THE INTERPRETATION OF QUANTUM ALGORITHMSAmaral, Rafael Burlamaqui 18 February 2009 (has links)
Made available in DSpace on 2016-03-22T17:26:25Z (GMT). No. of bitstreams: 1
ra.pdf: 2070102 bytes, checksum: 2282c1e42d24f1ae9174e11fd199361e (MD5)
Previous issue date: 2009-02-18 / No desenvolvimento de novas tecnologias de informac¸ ao, salienta-se a relev ancia
da pesquisa direcionada ao conhecimento e a aplicac¸ ao da computac¸ ao qu antica, contribuindo
para compreens ao de quest oes importantes de pesquisa como o fen omeno da interfer
encia e o paralelismo qu antico associado `as transformac¸ oes unit´arias. Com o objetivo
de colaborar com estas ´areas de pesquisa, este trabalho analisa as interpretac¸ oes de algoritmos
qu anticos no modelo qGM (Quantum Geometric Machine Model), para compreens ao
da construc¸ ao da informac¸ ao durante o processo de evoluc¸ ao dos sistemas qu anticos. A
estrutura ordenada do modelo qGM mostra-se capaz de interpretar a construc¸ ao dos processos
e dos estados qu anticos baseada na concepc¸ ao de objetos parciais, considerando a
relac¸ ao de inclus ao como a ordem de informac¸ ao. O trabalho apresenta quatro estudos de
casos, onde a interpretac¸ ao de objetos parciais possibilita uma descric¸ ao contextualizada
para os algoritmos qu anticos relacionado com o fen omeno da interfer encia e no paralelismo
qu antico: (i) o Interfer ometro de Mach-Zenhder relacionado com o fen omeno da
interfer encia; (ii) operador controlado ¯C NOT (iii) o algoritmo de Deutsch; e (iv) o algoritmo
de Grover. Mostrar-se que esta interpretac¸ ao n ao pode ser obtida fora do esquema
conceitual da Teoria dos Dom´ınios
.
|
537 |
ALGORITMO CO-EVOLUTIVO PARA PARTICIONAMENTO DE DADOS E SELEÇÃO DE VARIÁVEIS EM PROBLEMA DE CALIBRAÇÃO MULTIVARIADA.Ramos, Jorcivan Silva 07 July 2015 (has links)
Made available in DSpace on 2016-08-10T10:40:28Z (GMT). No. of bitstreams: 1
Jorcivan Silva Ramos.pdf: 779202 bytes, checksum: e48a074121bf6a4260fb48b0324ff286 (MD5)
Previous issue date: 2015-07-07 / This paper presents the development of a co-evolutionary genetic algorithm for the
selection of samples from a data set and the selection of variables from the samples
selected in the context of multivariate calibration . Each sample is divided into the
calibration set for the preparation of the model and validating the calibration set of
model. The algorithm selects samples variables with the goal of building the calibration
models. The results show that the data sets selected by the proposed algorithm models
to produce better predictive ability of the models reported in the literature. / Esse trabalho apresenta o desenvolvimento de um algoritmo genético co-evolutivo
para a seleção de amostras a partir de um conjunto de dados e a seleção de variáveis
a partir das amostras selecionadas no contexto da calibração multivariada. Cada
amostra é dividida em conjunto de calibração para a confecção do modelo e conjunto
de validação do modelo de calibração. O algoritmo seleciona amostras e variáveis com
o objetivo de construir modelos de calibração. Os resultados mostram que os
conjuntos de dados selecionados pelo algoritmo proposto produzem modelos com
melhor capacidade preditiva do que os modelos relatados na literatura.
|
538 |
PROCEDIMENTO PARA AUTOLOCALIZAÇÃO DE ROBÔS EM CASAS DE VEGETAÇÃO UTILIZANDO DESCRITORES SURF: Implementação Sequencial e ParalelaOrloski, Andrey 04 September 2015 (has links)
Made available in DSpace on 2017-07-21T14:19:25Z (GMT). No. of bitstreams: 1
Andrey Orloski.pdf: 5923583 bytes, checksum: 1a18c76b30193410838467808e3fa40d (MD5)
Previous issue date: 2015-09-04 / This paper describes a procedure for self-localization of mobile and autonomous agrobots in greenhouses, that is, the determination of the robot's position relative to a coordinate system,using procedures and computational resources. The proposed procedure uses computer vision
techniques to recognize markers objects in the greenhouse and, from them, estimate the coordinate of the robot in a parallel plane to the surface of the stove. The detection of the presence of markers in the scene is performed using the SURF algorithm. To enable the estimation of coordinates, based on data contained in a single image, the method of Rahman et al. (2008), which consists in etermining the distance between a camera and a marker
object has been extended to allow the coordinate calculation. The performance of the procedure was evaluated in three experiments. In the first experiment, the objective was to verify, in the laboratory, the influence of image resolution on accuracy. The results indicate
that by reducing the image resolution, the range of the process is impaired for the recognition of the markers. These results also show that by reducing the resolution, the error in estimating the coordinates relative to the distance between the camera and the marker increases. The
second experiment ran a test that evaluates the computational performance of the SURF algorithm, in terms of computing time, in the image processing. This is important because agrobots usually need to perform tasks that require the processing power in real time. The
results of this test indicate that the efficiency of the procedure drops with the increase of image resolution. A second test compared the processing time of two implementations of the algorithm. One explores a sequential version of the SURF algorithm and another uses a parallel implementation. The results of this test suggest that the parallel implementation is more efficient in all tested resolutions, with an almost constant proportionate improvement.The third experiment was performed in a greenhouse to evaluate the performance of the proposed procedure in the environment for which it was designed. Field results were similar to the laboratory, but indicate that lighting variations require parameter settings of the SURF algorithm. / Este trabalho descreve um procedimento para autolocalização de agrobots móveis e autônomos em casas de vegetação. Isto é, a determinação da posição do robô em relação a um sistema de coordenadas, usando procedimentos e recursos computacionais. O procedimento
proposto emprega técnicas de visão computacional para reconhecer objetos marcadores na casa de vegetação e, a partir deles, estimar a coordenada do robô em um plano paralelo a superfície da estufa. A detecção da presença dos marcadores na cena é realizada através do algoritmo SURF. Para viabilizar a estimativa das coordenadas, a partir de dados contidos em uma única imagem, o método de Rahman et al. (2008), que consiste em determinar a distância entre uma câmera e um objeto marcador, foi estendido para permitir o cômputo de coordenadas. O desempenho do procedimento proposto foi avaliado em três experimentos. No primeiro experimento, o objetivo foi verificar, em laboratório, a influência da resolução da
imagem sobre a precisão. Os resultados indicam que, ao reduzir a resolução da imagem, o alcance do procedimento é prejudicado para reconhecimento dos marcadores. Estes resultados também mostram que, ao reduzir a resolução, o erro na estimativa das coordenadas em relação à distância entre a câmera e o marcador aumenta. O segundo experimento executou um teste que avalia o desempenho computacional do algoritmo SURF, em termos de tempo de computação, no processamento das imagens. Isto é importante pois agrobots usualmente
precisam executar tarefas que demandam capacidade de processamento em tempo real. Os resultados deste teste indicam que a eficiência do procedimento cai com o aumento da resolução da imagem. Um segundo teste comparou o tempo de processamento de duas
implementações do algoritmo. Uma que explora uma versão sequencial do algoritmo SURF e outra que usa uma implementação paralela. Os resultados deste teste sugerem que a implementação paralela foi mais eficiente em todas as resoluções testadas, apresentando uma
melhora proporcional quase constante. O terceiro experimento foi realizado em uma casa de vegetação com objetivo de avaliar o desempenho do procedimento proposto no ambiente para o qual foi projetado. Os resultados de campo se mostraram semelhantes aos do laboratório, mas indicam que variações de iluminação exigem ajustes de parâmetros do algoritmo SURF.
|
539 |
Análise dos resultados de ensaios de proficiência via modelos de regressão com variável explicativa aleatória / Analysis of proficiency tests results via regression models with random explanatory variableMontanari, Aline Othon 21 June 2004 (has links)
Em um programa de ensaio de prociência (EP) conduzido pelo Grupo de Motores, um grupo de onze laboratórios da área de temperatura realizaram medições em cinco pontos da escala de um termopar. Neste trabalho, propomos um modelo de regressão com variável explicativa X (aleatória) representando o termopar padrão que denominaremos por artefato e a variável dependente Y representando as medições dos laboratórios. O procedimento para a realização da comparação é simples, ambos termopares são colocados no forno e as diferenças entre as medições são registradas. Para a análise dos dados, vamos trabalhar com a diferença entre a diferença das medições do equipamento do laboratório e o artefato, e o valor de referência (que é determinado por 2 laboratórios que pertencem a Rede Brasileira de Calibração (RBC)). O erro de medição tem variância determinada por calibração, isto é, conhecida. Assim, vamos encontrar aproximações para as estimativas de máxima verossimilhança para os parâmetros do modelo via algoritmo EM. Além disso, propomos uma estratégia para avaliar a consistência dos laboratórios participantes do programa de EP / In a program of proficiency assay, a group of eleven laboratories of the temperature area had carried through measurements in ¯ve points on the scale of the thermopair. In this work, we propose a regression model with a random explanatory variable representing the temperature measured by the standard thermopair, which will be called device. The procedure for the comparison accomplishment is as follows. The device and the laboratory\'s thermopair to be tested are placed in the oven and the difererences between the measurements are registered. For the analysis of the data, the response variable is the diference between those diference and the reference value, which is determined by two laboratories that belong to the Brazilian Net of Calibration (RBC). The measurement error has variance determined by calibration which is known. Therefore, we ¯and the maximum likelihood estimates for the parameters of the model via EM algorithm. We consider a strategy to establish the consistency of the participant laboratories of the program of proficiency assay
|
540 |
Alocação de estudantes aos centros de pós-graduação em economia no Brasil: um experimento natural em organização de mercado / On the allocation of students to postgraduate programs in economics in Brazil: a natural experiment in market organizationBardella, Felipe Palmeira 29 November 2005 (has links)
Apresentamos a teoria sobre mercados de dois lados, centralizados e descentralizados, para analisar o mercado de admissão de estudantes aos Centros de Pós-graduação em Economia no Brasil ao longo dos últimos 15 anos. Iniciamos descrevendo a história da organização deste mercado até a época atual. As falhas do sistema descentralizado e as hipóteses sobre o insucesso do procedimento centralizado de 1997 são discutidas. Observações empíricas são utilizadas para propor um modelo teórico que represente aproximadamente o atual mecanismo descentralizado e explique a aparente duradoura aplicação desse mecanismo. Por fim, tecemos considerações a respeito das possibilidades de aprimoramento deste mercado com modificações do mecanismo existente. / We present the theory of two-sided matching markets, with centralized and decentralized mechanisms, in order to analyze a Brazilian market in which graduated students seek positions in postgraduate programs in economics. We first describe the institutional history of this market. The failures of the decentralized procedure and the hypothesis about the failure of the 1997 centralized mechanism are discussed. Empirical observations are used to propose a theoretical model that represents the actual decentralized matching procedure of the market. Based in this model we explain the apparent long-lasting use of this decentralized mechanism. Finally, we make considerations about the possibilities of developments in this market by modifying the mechanism used today.
|
Page generated in 0.0428 seconds