• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 529
  • 262
  • 220
  • 32
  • 29
  • 19
  • 17
  • 13
  • 11
  • 9
  • 8
  • 8
  • 8
  • 5
  • 4
  • Tagged with
  • 1316
  • 184
  • 154
  • 150
  • 121
  • 113
  • 113
  • 104
  • 100
  • 93
  • 88
  • 85
  • 84
  • 81
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Extensão do Método de Predição do Vizinho mais Próximo para o modelo Poisson misto / An Extension of Nearest Neighbors Prediction Method for mixed Poisson model

Helder Alves Arruda 28 March 2017 (has links)
Várias propostas têm surgido nos últimos anos para problemas que envolvem a predição de observações futuras em modelos mistos, contudo, para os casos em que o problema trata-se em atribuir valores para os efeitos aleatórios de novos grupos existem poucos trabalhos. Tamura, Giampaoli e Noma (2013) propuseram um método que consiste na computação das distâncias entre o novo grupo e os grupos com efeitos aleatórios conhecidos, baseadas nos valores das covariáveis, denominado Método de Predição do Vizinho Mais Próximo ou NNPM (Nearest Neighbors Prediction Method), na sigla em inglês, considerando o modelo logístico misto. O objetivo deste presente trabalho foi o de estender o método NNPM para o modelo Poisson misto, além da obtenção de intervalos de confiança para as predições, para tais fins, foram propostas novas medidas de desempenho da predição e o uso da metodologia Bootstrap para a criação dos intervalos. O método de predição foi aplicado em dois conjuntos de dados reais e também no âmbito de estudos de simulação, em ambos os casos, obtiveram-se bons desempenhos. Dessa forma, a metodologia NNPM apresentou-se como um método de predição muito satisfatório também no caso Poisson misto. / Many proposals have been created in the last years for problems in the prediction of future observations in mixed models, however, there are few studies for cases that is necessary to assign random effects values for new groups. Tamura, Giampaoli and Noma (2013) proposed a method that computes the distances between a new group and groups with known random effects based on the values of the covariates, named as Nearest Neighbors Prediction Method (NNPM), considering the mixed logistic model. The goal of this dissertation was to extend the NNPM for the mixed Poisson model, in addition to obtaining confidence intervals for predictions. To attain such purposes new prediction performance measures were proposed as well as the use of Bootstrap methodology for the creation of intervals. The prediction method was applied in two sets of real data and in the simulation studies framework. In both cases good performances were obtained. Thus, the NNPM proved to be a viable prediction method also in the mixed Poisson case.
362

Análise das equações de Navier-Stokes no escoamento bidimensional em dutos com formulação em variáveis primitivas via GITT / Analysis of the navier-stokes equations in two dimensional flow with primitive variables formulation via gitt

Andrade, Juanice Helena de 30 September 2010 (has links)
Made available in DSpace on 2015-05-08T15:00:09Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 727146 bytes, checksum: 486fc97b94f3c34e9b689dd0ebc1b729 (MD5) Previous issue date: 2010-09-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / In this paper the Generalized Integral Transform Technique is employed to produce hybrid solutions for the velocity and pressure fields of a newtonian fluid in two dimensional flow. The problem is formulated by using primitive variables and the necessary mathematical manipulations were used to obtain the Poisson equation for the pressure field. The momentum equations in the axial direction of flow and Poisson are transformed to remove the transversal dependency. The resulting transformed fields are solved with the IMSL numerical subroutine, DBVPFD. The obtained results for the longitudinal velocity profile at the center of the channel are compared with the available data in the open literature for validation and model fitting. Even so, studies are carried out about the convergence of the solution for the velocity profile in the centerline as well as testing different values of the scale factor of axial coordinate for the choice of a factor which can fit perfectly for comparison with available data. Interest practical datas such as: friction factor and mean velocity are obtained along the duct for a entry condition into the parallel flow channel (v = 0). / No presente trabalho a Técnica da Transformada Integral Generalizada é empregada para produzir soluções híbridas para os campos de velocidade e pressão de um fluido newtoniano no escoamento bidimensional. O problema é formulado a partir da utilização das variáveis primitivas e as manipulações matemáticas necessárias foram usadas para a obtenção da equação de Poisson para o campo de pressão. As equações da quantidade de movimento na direção axial do escoamento e a de Poisson são transformadas para a retirada da dependência transversal. Os campos transformados resultantes são resolvidos com a subrotina numérica do IMSL, DBVPFD. Os resultados obtidos para o perfil de velocidade longitudinal no centro do canal são comparados com os dados disponíveis na literatura aberta para validação e ajustes do modelo. Ainda assim, são realizados estudos de convergência da solução para o perfil de velocidade no centro, bem como testes em diferentes valores do fator de contração de escala da coordenada axial para a escolha de um fator que melhor se ajuste a comparação com os dados disponíveis. Dados de interesses práticos, tais como: fator de atrito e velocidade média são obtidos ao longo do duto para uma condição de entrada no canal do escoamento paralelo (v = 0).
363

Medida aleatoria de Poisson / Medida aleatoria de Poisson

Beltrán, Johel 25 September 2017 (has links)
In this monograph we continue with the inspection initiated in [1] on the fundamental tools introduced in the approach proposed in [2,3] for the study of metastability. We give the definition of the Poisson random measures and prove the main properties that we will subsequently use to construct Markov processes with finite state space. Such construction will allow us to provide a probabilistic proof of the fact that the law of a Markov process solves the martingal problem. / En esta monografía continuamos con el desarrollo iniciado en [1] sobre las herramientas fundamentales usadas en el abordaje propuesto en [2,3] para el estudio de la metaestabilidad. Definimos las medidas aleatorias de Poisson y probamos las principales propiedades que seran usadas para construir procesos de Markov con espacio de estados finito. Esta forma de abordar la propiedad Markoviana nos permitirá dar una demostración probabilística de que la ley de un proceso de Markov resuelve un problema martingala.
364

Detecção e modelagem de padrão espacial em dados binários e de contagem / Detection and modelling of space pattern in binary and counting data

Denise Nunes Viola 19 April 2007 (has links)
A distribuição espacial de insetos e doenças em campos comerciais é importante, por exemplo, para aplicação racional de pesticidas. Entretanto, não tem sido considerada nas recomendações de manejo da cultura, planejamento de experimentos e estudos amostrais, sendo escassa literatura a esse respeito. Os artigos apresentados nessa tese foram motivados por duas situações diferentes, uma envolvendo dados de contagem e a outra, dados binários. Os dois modelos diferem em relação às estratégias da descrição da estrutura de dependência espacial. No primeiro artigo, a variável resposta é contagem. Para caracterizar o padrão espacial da dispersão do tripes do prateamento da cebola foi feito um levantamento anotando-se o número de insetos por fase de desenvolvimento em folhas de plantas de cebola, em diferentes datas e pontos amostrais dentro de quatro propriedades com fazendas vizinhas apresentando diferentes níveis de infestação e métodos de plantio. O teste de aleatorização de Mantel foi utilizado para testar a presença de padrão espacial, que quando detectado foi descrito por um modelo de Poisson misto espacial com componente aleatório geoestatístico. Tal modelo possibilitou a caracterização do padrão espacial bem como a obtenção de mapas de predição dos níveis de susceptibilidade à infestação na área. No segundo artigo a variável resposta é binária e foi feito um estudo de simulação para verificar o comportamento dos estimadores de pseudo-verossimilhança dos parâmetros do modelo autologístico, considerando diferentes estruturas de covariáveis e de vizinhança, três intensidades de infestação de uma praga e cinco valores para o parâmetro de correlação entre os vizinhos. Uma aplicação dos modelos considerados no estudo de simulação é feita a um conjunto de dados provenientes de um experimento com pimentão. Mostra-se que o método de estimação por pseudo-verossimilhança pode ser usado, com certa cautela, quando o interesse está na contribuição das covariáveis, mas não deve ser usado quando o interesse está na estimação da correlação espacial. Um estudo com diferentes porcentagens de dados faltantes foi feito para verificar a influência na estimação do parâmetro. / The spatial distribution of insects and diseases in commercial fields is important for the efficient application of pesticides. However, in the past this has not been considered in crop management recommendations, experiment planning and sampling plans. The papers presented in this thesis were motivated by two different situation, one envolving count data and the other binary data. The two models used differ in relation to the strategies of the description of the spatial dependence structure. In the the first paper the response variable is a count. In order to characterize the spatial distribution pattern of the onion thrips a survey was carried out to record the number of insects in each development phase on onion plant leaves, on different dates and sample locations, in four rural properties with neighboring farms with different infestation levels and planting methods. The Mantel randomization test was used to test for spatial correlation, and when detected this was modelled by a mixed spatial Poisson model with a geostatistic random component. This model has allowed a spatial pattern characterization as well as the production of prediction maps of susceptibility to levels of infestation in the area. In the second paper the response variable is binary. In this paper a simulation study on pseudo-likelihood estimators of autologistic parameters to verify the effect of different covariate and neighbouring structures is described, with three pest infestation levels and five different spatial correlation coefficient values. An application of the methodology is presented using a bell pepper data set. It is shown that the pseudo-likelihood method can be used when a researcher is interested in the effect of covariates, but should not be used for the estimation of the spatial correlation. A study with different percentages of missing data is made to verify the influency on parameter estimation.
365

Uma metodologia semi-parametrica para IBNR (Incurred But Not Reported) / A semi-parametric methodology to IBNR (Incurred But Not Reported)

Nascimento, Fernando Ferraz do 17 March 2006 (has links)
Orientadores: Ronaldo Dias, Nancy Lopes Garcia / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-06T03:32:13Z (GMT). No. of bitstreams: 1 Nascimento_FernandoFerrazdo_M.pdf: 973412 bytes, checksum: 97b1cf4137bd59eb99ae987305700439 (MD5) Previous issue date: 2006 / Resumo: Neste trabalho, comparamos diversas técnicas de previsão de IBNR (Incurred But Not Reported) para dados de um triângulo Run-OjJ, desde as mais simples, como por exemplo as técnicas Chain- Ladder e a técnica da Separação, até as técnicas mais sofisticadas, considerando modelos Log-Normais ou pela distribuição Poisson Composta. Além disso, nosso trabalho enfatiza a necessidade do uso de técnicas não-paramétricas, considerando um modelo de truncamento das variáveis. Foi possível mostrar que, mesmo não tendo nenhuma informação sobre a distribuição dos dados, é possível estimar o IBNR com menor erro e variabilidade do que as técnicas usuais conhecidas. Para fazer as comparações, foram realizadas simulações de sinistros ocorrendo através de um Processo de Poisson não homogêneo, e com dependência no tempo de relato e valor do sinistro. A medida de comparação utilizada foi o Erro Quadrático Médio (EQM) entre os valores simulados e os valores previstos por cada técnica. A abordagem paramétrica, quando os dados provém de uma distribuição Poisson Composta, apresentou o menor EQM dentre todas as técnicas. Entretanto, se não há informação sobre a distribuição dos dados, a técnica de Mista de truncamento foi a melhor entre as não-paramétricas / Abstract: We compare several forecast techniques for IBNR(Incurred But Not Reported) from a Run-Off triangle data, since the most simple techniques like Chain-Ladder and Separation Technique, to the more complex using Log-Normal models and Compound Poisson distribution. Therefore, exist the necessity of the use of Nonparametric techniques, using a model that consider variable Truncation. It was possible shown that, when we don't have any information about the data, it's possible estimate de IBNR forecasting with less mistake and variability than the usual techniques. For make the forecasting, we used claims simulations occurring by a nonhomogeneous Poisson process and with dependence entry the time to report and value paid for one claim. The measure of comparison used was the Mean Square Error (MSE) of simulated values and forecasting values for each technique. The parametric boarding when the data come from a Compound Poisson distribution, was the best MSE entry all techniques. However, when we don't have any information about the data, the Truncation Technique was the best of the nonparametric techniques / Mestrado / Mestre em Estatística
366

Comparação empírica dos modelos Cox, log-binominal e Poisson para estimar razões de prevalência / Empirical comparison of Cox, log-binomial and Poisson models for estimating prevalence ratios

Letícia Maria Silva Coutinho 08 October 2007 (has links)
Introdução: Em estudos de corte transversal com desfechos binários, a associação entre a exposição e o desfecho é estimada pela razão de prevalência (RP). Os modelos de regressão de Cox, log-binomial e Poisson têm sido sugeridos como bons métodos estatísticos para obter estimativas da RP ajustadas para variáveis de confusão. Objetivo: Comparar empiricamente as regressões de Cox, log-binomial, Poisson e logística para desfechos com alta prevalência, prevalência intermediária e baixa prevalência. Metodologia: Os dados foram obtidos de um estudo epidemiológico de corte transversal, de base populacional, sobre prevalência de demência e outros transtornos mentais em idosos residentes em aéreas de baixa renda da cidade de São Paulo. O diagnóstico de demência (prevalência baixa), a ocorrência de transtorno mental comum (prevalência intermediária) e a auto-percepção de saúde ruim (alta prevalência) foram escolhidos como desfechos para o estudo. Valores de referência da estimativa da razão de prevalência (RP) foram obtidos pela estratificação de Mantel-Haenszel. Estimativas da RP ajustada foram calculadas usando modelos de regressão de Cox, log-binomial e Poisson, além do OR bruto e do OR ajustado pela regressão logística. Resultados: As estimativas do ponto e do intervalo obtidas com as regressões de Poisson e Cox, com variância robusta, se aproximaram muito bem dos resultados obtidos pela estratificação de Mantel-Haenszel, independentemente da prevalência inicial do desfecho, e permitiram controlar para covariáveis contínuas. O modelo log-binomial se comportou ligeiramente pior que os modelos de Cox e Poisson quando o desfecho teve uma prevalência alta, com dificuldade de convergência. A regressão logística produziu estimativas do ponto e do intervalo sempre mais elevadas do que aquelas obtidas pelos outros métodos, e estas estimativas eram particularmente mais elevadas quando o desfecho era freqüente. Conclusão: Os modelos de regressão de Cox e Poisson, com variância robusta, são boas alternativas à regressão logística. Quanto ao modelo de regressão log-binomial, deve-se ficar atento às restrições referentes ao seu uso, pois apresenta estimativas um pouco mais distantes das geradas pelos demais métodos quando o risco inicial do desfecho de interesse é alto e apresenta também dificuldade de convergência quando temos uma covariável contínua no modelo. Ao analisar as associações em estudos de corte-transversal, os pesquisadores devem usar métodos de regressão que forneçam estimativas do ponto e do intervalo adequadas independente da prevalência do desfecho em estudo. / Introduction: In cross-sectional studies with binary outcomes, the association between exposure and outcome is estimated with the prevalence ratio (PR). Cox, log-binomial and Poisson regression models have been suggested as statistical methods that yield correct estimates of PR adjusted for confounding variables. Aim: To compare empirically Cox, log-binomial, Poisson and logistic regressions for outcomes with low, intermediate and high prevalence. Methodology: The data came from an epidemiologic population-based cross-sectional study about prevalence of dementia and other mental health problems among older persons from an economically deprived area in the city of Sao Paulo. The diagnosis of dementia (low prevalence), caseness for common mental disorders (intermediate prevalence) and poor self-rated health (high prevalence) were chosen as outcomes of the study. Reference values for point and interval estimates of PR were obtained with the Mantel-Haenszel stratification. Adjusted estimates of PR were then calculated using Cox, log-binomial and Poisson regression models. Crude and adjusted Odds Ratios (OR) were obtained with logistic regression. Results: The point and interval estimates obtained with Poisson and Cox regressions, with robust variance, approximated very well to those obtained with Mantel-Haenszel stratification, independently of the outcome base prevalence, and allowed to control for continuous covariates. The log-binomial model performed slightly worse than the Poisson and Cox models when the outcome had a high prevalence, with difficulty in convergence. Logistic regression produced point and interval estimates that were always higher than those obtained by the other methods, and were particularly higher when the outcome was frequent. Conclusion: The Cox and Poisson models, with robust variance, are good alternatives to logistic regression. Regarding the log-binomial regression model, it is necessary to be alert to restrictions in its use, since it may yield estimates slightly different from those generated by the others methods when the outcome has a high prevalence and also presents difficulty in convergence with the continuous covariate in the model. When analyzing associations in cross-sectional studies, investigators should use regression methods that yield adequate point and interval estimates regardless of the base prevalence of the outcome investigated
367

Uma análise estatística com vistas a previsibilidade de internações por doenças respiratórias em função das condições meteorotrópicas na cidade de São Paulo. / Statistical analysis aiming at the predictability of respiratory diseases internment based on meteorological conditions at São Paulo city

Micheline de Sousa Zanotti Stagliorio Coêlho 14 December 2007 (has links)
O conhecimento antecipado das condições meteorológicas poderá ajudar a sociedade a evitar prejuízos e desperdícios de recursos humanos e materiais. Portanto, o objetivo deste estudo foi obter a partir de uma análise estatística um modelo capaz de predizer internações a partir dos dados de poluição do ar e índices biometeorológicos. Para isso, foram utilizados dados diários de 1997 a 2000, referentes à cidade de São Paulo. Os dados de internações por doenças respiratórias foram divididos em três categorias: AVAS (Afecções Vias Aéreas Superiores), AVAI (Afecções das Vias Aéreas Inferiores) e IP (Influenza e Pneumonia), estes dados foram obtidos junto ao Ministério da Saúde. Os dados referentes à poluição foram obtidos junto à CETESB (Companhia de Tecnologia de Saneamento Ambiental) e os dados meteorológicos foram obtidos da estação meteorológica do Parque Estadual das Fontes do Ipiranga. Os índices de conforto térmico foram descritos com base em variáveis meteorológicas. Através de uma metodologia estatística de Regressão de Poisson e Análise de Componentes Principais (ACP), encontraram-se modelos estatísticos capazes de prever em média internações por doenças respiratórias. Esses modelos foram nomeados MBCS (Modelo Brasileiro de Clima e Saúde). A ACP foi utilizada a fim de corroborar a modelagem de regressão. Os resultados encontrados mostraram associação entre AVAS e SO2, CO (ambos sem defasagem) e com o índice biometeorológico TEv4 (com defasagem de 4 dias). Os resultados chamam atenção para o SO2 que, mesmo muito abaixo do padrão de qualidade do ar recomendado, ainda provoca acréscimos nas internações. Para as AVAI, os resultados mostram associações entre os poluentes MP10, O3 (ambos sem defasagem) e TEv4 (com 3 dias defasamento). Com relação à IP, as variáveis que se mostraram relacionadas foram MP10 (sem defasagem) e TEv4 (com 3 dias defasagem). Para verificar o skill do modelo, utilizou-se o ano de 2001. Os modelos apresentaram erro médio de 15% para AVAS, 30% para AVAI e 44% para IP com relação à previsão das internações. No que diz respeito a ACP, esta concorda com o que foi encontrado na modelagem de Poisson. Porém para AVAI e IP, os escores dos poluentes e dos índices deverão ser usados separadamente. Estes resultados mostram que o MBCS poderá ser utilizado para previsão de internação, contribuindo para políticas públicas e os meios de comunicação, ajudando nas tomadas de decisões e evitando desperdícios econômicos e humanos. / The meteorological condition knowledge can provide society prejudice prevention regarding human and material resources. Therefore, the aim of this study the statistical modeling in order to prevent internment of morbidity based on air pollution and meteorological variability. The whole 1997 to 2000 at the city of São Paulo. The morbidity data was divided in to three categories: AVAS (upper respiratory airway diseases), AVAI (lower respiratory airway diseases) and IP (Influenza and Pneumonia). These data were obtained from Brazilian Heath Ministry. Air pollution data were obtained from CETESB (Environmental agency) and meteorological data from Parque Estadual das Fontes do Ipiranga. Thermal comfort indexes were also used based on meteorological variables. Poisson regression models as well as Principal Component (PC) models were used in order to evaluate the data through statistical methodology. These models were nominated MBCS (Brazilian Climate and Health Model). Scores from PC statistical analysis were also used in order to compare to multiple regression models. As the first results, AVAS modeling presents association with SO2, CO (both without time lag) and the TEv4- a biometeorological index (with 4 days time lag). SO2 presents interesting result due to the fact that it is below the recommended standard, but it still causes AVAS morbidity. Concerning AVAI results, the variables which explain the morbidity were the pollutants MP10, O3 (both without lag) and TEv4 (with 3 days lag). Regarding to the skill of the models, AVAS model presents a 15% average error; AVAI model, 30% and IP model, 44%, during year of 2001. PC analysis corroborated the Poisson models. Regarding PC more weight for AVAS was pollutants. Already AVAI and IP more weight was biometeorological indexes and meteorological variables. The risk results used scores was similar to the MMRP. However for AVAI and IP, the scores of the pollutants and scores of the indexes should be used individually. These results indicate these models can be used as a forecasting internment program, contributing on the public and media decisions, avoiding economical and human unnecessary wastes.
368

Modelagem de dados de eventos recorrentes via processo de Poisson com termo de fragilidade. / Modelling Recurrent Event Data Via Poisson Process With a Frailty Term.

Vera Lucia Damasceno Tomazella 28 July 2003 (has links)
Nesta tese é analisado situações onde eventos de interesse podem ocorrer mais que uma vez para o mesmo indivíduo. Embora os estudos nessa área tenham recebido considerável atenção nos últimos anos, as técnicas que podem ser aplicadas a esses casos especiais ainda são pouco exploradas. Além disso, em problemas desse tipo, é razoável supor que existe dependência entre as observações. Uma das formas de incorporá-la é introduzir um efeito aleatório na modelagem da função de risco, dando origem aos modelos de fragilidade. Esses modelos, em análise de sobrevivência, visam descrever a heterogeneidade não observada entre as unidades em estudo. Os modelos estatísticos apresentados neste texto são fundamentalmente modelos de sobrevivência baseados em processos de contagem, onde é representado o problema como um processo de Poisson homogêneo e não-homogêneo com um termo de fragilidade, para o qual um indivíduo com um dado vetor de covariável x é acometido pela ocorrência de eventos repetidos. Esses modelos estão divididos em duas classes: modelos de fragilidade multiplicativos e aditivos; ambos visam responder às diferentes formas de avaliar a influência da heterogeneidade entre as unidades na função de intensidade dos processos de contagem. Até agora, a maioria dos estudos tem usado a distribuição gama para o termo de fragilidade, a qual é matematicamente conveniente. Este trabalho mostra que a distribuição gaussiana inversa tem propriedade igualmente simples à distribuição gama. Consequências das diferentes distribuições são examinadas, visando mostrar que a escolha da distribuição de fragilidade é importante. O objetivo deste trabalho é propor alguns métodos estatísticos para a análise de eventos recorrentes e verificar o efeito da introdução do termo aleatório no modelo por meio do estudo do custo, da estimação dos outros parâmetros de interesse. Também um estudo de simulação bootstrap é apresentado para fazer inferências dos parâmetros de interesse. Além disso, uma abordagem Bayesiana é proposta para os modelos de fragilidade multiplicativos e aditivos. Métodos de simulações são utilizados para avaliar as quantidades de interesse a posteriori. Por fim para ilustrar a metodologia, considera-se um conjunto de dados reais sobre um estudo dos resultados experimentais de animais cancerígenos. / In this thesis we analyse situations where events of interest may occur more than once for the same individual and it is reasonable to assume that there is dependency among the observations. A way of incorporating this dependency is to introduce a random effect in the modelling include a frailty term in the intensity function. The statistical methods presented here are intensity models based, where we represent the problem as a homogeneous and nonhomogeneous Poisson process with a frailty term for which an individual with given fixed covariate vector x has reccurent events occuring. These models are divided into two classes: multiplicative and additive models, aiming to answer the different ways of assessing the influence of heterogeneity among individuals in the intensity function of the couting processes. Until now most of the studies have used a frailty gamma distribution, due to mathematical convenience. In this work however we show that a frailty gaussian inverse distribution has equally simple proprieties when compared to a frailty gamma distribution. Methods for regression analysis are presented where we verify the effect of the frailty term in the model through of the study of the cost of estimating the other parameters of interest. We also use the simulation bootstrap method to make inference on the parameters of interest. Besides we develop a Bayesian approach for the homogeneous and nonhomogeneous Poisson process with multiplicative and additive frailty. Simulation methods are used to assess the posterior quantities of interest. In order to ilustrate our methodology we considere a real data set on results of an experimental animal carcinogenesis study.
369

Two theoretical studies : limits of the poisson-boltzmann theory and study of platelets in a micro-channel / Deux études théoriques : limites de la théorie de poisson-boltzmann et étude de plaquettes dans un micro-canal

Pujos, Justine 27 November 2014 (has links)
La théorie de Poisson-Boltzmann décrit l’électrostatique de solutions ioniques. Le calcul de l’énergie libre électrostatique présente cependant plusieurs limites.L’énergie libre de Poisson-Boltzmann est concave. Quand le modèle est complété par d’autres degrés de libertés, l’estimation de l’énergie libre devient une recherche de point-de-col, opération numérique complexe. À l’aide de la transformée de Legendre, nous écrivons une fonctionnelle équivalente, convexe et définie localement. Un algorithme classique de minimisation est utilisé, et, comparé à d’autres procédés numériques, il présente une meilleure convergence.La théorie de Poisson-Boltzmann est une approximation de champ moyen. À l’aide de la théorie de champ variationnel, nous ajoutons les fluctuations et les corrélations du champ électrostatique. Les équations sont résolues numériquement. Nous montrons que la constante de couplage possède une limite théorique, au delà de laquelle les équations n’ont pas de solution.Les plaquettes sanguines ont un rôle essentiel dans l’hémostase. Nous étudions le flux de plaquettes dans un micro-canal greffé de protéines liantes. Nous développons deux modèles. L’un considère le roulement des plaquettes, l’autre est centré sur l’échange de cellules entre le volume et la surface. Ces modèles sont en accord avec les résultats expérimentaux mais pas en complète adéquation. Nous en concluons que le comportement de roulement et le mécanisme d’échange devraient être considérés simultanément pour décrire ce système. / Poisson-Boltzmann theory gives a good description of the electrostatics of ionic solutions. The estimation of the electrostatic free energy presents limits of different kinds.The Poisson-Boltzmann free energy is concave. When it is supplemented with other degrees of freedom, finding the free energy translates into a saddle-point search. Using the Legendre transform, we write an equivalent, convex and locally defined functional. A classical minimum search is used and, compared to other numerical schemes, it gives a better convergence.The Poisson-Boltzmann theory is a mean-field approximation. Using the variational field theory, we include the fluctuations and correlations of the electrostatics. The equations are solved numerically. We show that a theoretical limit exists for the coupling constant, beyond which the equations have no solution.Platelets are essential to the stop of blood loss. The flow of platelets in a microfluidic chamber coated with binding proteins is studied. We develop two models. One focuses on the rolling speed, the other on the exchange between the volume and the grafted surface. Both models can match the experiments partially but not thoroughly. We conclude that both behaviors should probably be considered at once to describe the system fully.
370

Optimisation de la chaîne de numérisation 3D : de la surface au maillage semi-régulier / 3D digitization optimization : from surface to semi-regular mesh

Peyrot, Jean-Luc 12 December 2014 (has links)
La numérisation 3D permet de générer des représentations numériques très réalistes et fidèles géométriquement aux surfaces réelles. Cependant, cette fidélité géométrique, obtenue à l'aide d'un sur-échantillonnage de surfaces, augmente considérablement le volume de données générées. Les maillages ainsi produits sont donc très denses, et peu adaptés aux différents supports de visualisation, de transfert, de stockage, etc. La représentation semi-régulière des surfaces permet de diminuer le volume nécessaire à la représentation de ces maillages denses, et possède des qualités bien connues en matière de représentations multi-échelles et de compression. Cette thèse a pour objectif d'optimiser la chaîne de numérisation 3D classique en améliorant l'échantillonnage des surfaces tout en conservant la fidélité géométrique, et en court-circuitant les étapes fastidieuses qui conduisent à une représentation semi-régulière. Pour cela, nous avons intégré dans un système stéréoscopique, l'échantillonnage en disques de Poisson qui, grâce à ses propriétés de bruit bleu, réalise un bon compromis entre sous- et sur-échantillonnage. Ensuite, nous avons généré un mailleur semi-régulier, qui travaille directement sur les images stéréoscopiques, et non sur une version remaillée des nuages de points habituellement générés par ces systèmes. Les résultats expérimentaux montrent que ces deux contributions génèrent de façon efficace des représentations semi-régulières, qui sont géométriquement fidèles aux surfaces réelles, tout en réduisant le volume de données générées. / Nowadays, 3D digitization systems generate numeric representations that are both realistic and of high geometric accuracy with respect to real surfaces. However, this geometric accuracy, obtained by oversampling surfaces, increases significantly the generated amount of data. Consequently, the resulting meshes are very dense, and not suitable to be visualized, transmitted or even stored efficiently. Nevertheless, the semi-regular representation due to its scalable and compact representation, overcomes this problem. This thesis aims at optimizing the classic 3D digitization chain, by first improving the sampling of surfaces while preserving geometric features, and secondly shortening the number of required treatments to obtain such semi-regular meshes. To achieve this goal, we integrated in a stereoscopic system the Poisson-disk sampling that realizes a good tradeoff between undersampling and oversampling, thanks to its blue noise properties. Then, we produced a semi-regular meshing technique that directly works on the stereoscopic images, and not on a meshed version of point clouds, which are usually generated by such 3D scanners. Experimental results prove that our contributions efficiently generate semi-regular representations, which are accurate with respect to real surfaces, while reducing the generated amount of data.

Page generated in 0.0558 seconds