• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 226
  • 129
  • 56
  • 23
  • 14
  • 6
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 514
  • 91
  • 80
  • 80
  • 67
  • 64
  • 55
  • 47
  • 47
  • 43
  • 39
  • 38
  • 36
  • 35
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Novel Electrofluidic Display Devices Enabled by Fluid-Confining Laplace Barriers

Kreit, Eric B. 24 April 2012 (has links)
No description available.
152

Discrete Laplace Operator: Theory and Applications

Ranjan, Pawas 29 August 2012 (has links)
No description available.
153

Stratification in Drying Particle Suspensions

Tang, Yanfei 04 February 2019 (has links)
This thesis is on molecular dynamics studies of drying suspensions of bidisperse nanoparticle mixtures. I first use an explicit solvent model to investigate how the structure of the dry film depends on the evaporation rate of the solvent and the initial volume fractions of the nanoparticles. My simulation results show that the particle mixtures stratify according to their sizes when the suspensions are quickly dried, consistent with the prediction of recent theories. I further show that stratification can be controlled using thermophoresis induced by a thermal gradient imposed on the drying suspension. To model larger systems on longer time scales, I explore implicit solvent models of drying particle suspensions in which the solvent is treated as a uniform viscous background and the liquid-vapor interface is replaced by a potential barrier that confines all the solutes in the solution. Drying is then modeled as a process in which the location of the confining potential is moved. In order to clarify the physical foundation of this moving interface method, I analyze the meniscus on the outside of a circular cylinder and apply the results to understand the capillary force experienced by a spherical particle at a liquid-vapor interface. My analyses show that the capillary force is approximately linear with the displacement of the particle from its equilibrium location at the interface. An analytical expression is derived for the corresponding spring constant that depends on the surface tension and lateral span of the interface and the particle radius. I further show that with a careful mapping, both explicit and implicit solvent models yield similar stratification behavior for drying suspensions of bidisperse particles. Finally, I apply the moving interface method based on an implicit solvent to study the drying of various soft matter solutions, including a solution film of a mixture of polymers and nanoparticles, a suspension droplet of bidisperse nanoparticles, a solution droplet of a polymer blend, and a solution droplet of diblock copolymers. / PHD / Drying is a ubiquitous phenomenon. In this thesis, I use molecular dynamics methods to simulate the drying of a suspension of a bidisperse mixture of nanoparticles that have two different radii. First, I use a model in which the solvent is included explicitly as point particles and the nanoparticles are modeled as spheres with finite radii. Their trajectories are generated by numerically solving the Newtonian equations of motion for all the particles in the system. My simulations show that the bidisperse nanoparticle mixtures stratify according to their sizes after drying. For example, a “small-on-top” stratified film can be produced in which the smaller nanoparticles are distributed on top of the larger particles in the drying film. I further use a similar model to demonstrate that stratification can be controlled by imposing a thermal gradient on the drying suspension. I then map an explicit solvent system to an implicit one in which the solvent is treated as a uniform viscous background and only the nanoparticles are kept. The physical foundation of this mapping is clarified. I compare simulations using the explicit and implicit solvent models and show that similar stratification behavior emerge in both models. Therefore, the implicit solvent model can be applied to study much larger systems on longer time scales. Finally, I apply the implicit solvent model to study the drying of various soft matter solutions, including a solution film of a mixture of polymers and nanoparticles, a droplet of a bidisperse nanoparticle suspension, a solution droplet of a polymer blend, and a droplet of a diblock copolymer solution.
154

Asian Options: Inverse Laplace Transforms and Martingale Methods Revisited

Sudler, Glenn F. 06 August 1999 (has links)
Arithmetic Asian options are difficult to price and hedge, since, at the present, no closed-form analytical solution exists to price them. This difficulty, moreover, has led to the development of various methods and models used to price these instruments. The purpose of this thesis is two-fold. First, we present an overview of the literature. Secondly, we develop a pseudo-analytical method proposed by Geman and Yor and present an accurate and relatively quick algorithm which can be used to price European-style arithmetic Asian options and their hedge parameters. / Master of Science
155

Explicit Eigensolutions to the Laplace Operator

Lewin, Simon, Stjernstoft, Signe January 2024 (has links)
This paper derives explicit eigensolutions of the Laplace operator, whose eigenvalue problem is also called the Helmholtz equation. Specifically, the paper showcases all geometries through which the solutions to the Helmholtz equation can be represented in a finite sinusoidal form. These geometries are the rectangle, the square, the isosceles right triangle, the equilateral triangle, and the hemi-equilateral triangle. As a counterexample, the paper also proves that the parallelogram cannot yield a product form of a solution through the method of separation of variables. The solutions for the isosceles triangle and the hemi-equilateral triangle are derived using symmetric properties of the square and the equilateral triangle.  The paper concludes that symmetry is crucial to solving the Laplacian for these geometries and that this symmetry is also reflected in their respective spectra. However, importantly, the spectrum is unique for the examined geometries.
156

Modèles de copules Archimédiennes pour données de Bernoulli corrélées

Tounkara, Fode 23 April 2018 (has links)
Cette thèse introduit et explore une nouvelle classe de modèles probabilistes pour des données de Bernoulli échangeables en forme de grappe. Dans ces modèles, la probabilité conditionnelle de succès est une fonction de la probabilité marginale de succès et d’un effet aléatoire positif spécifique à chaque grappe. La distribution de l’effet aléatoire contient un paramètre d’association qui est estimé pour donner une mesure de la force de la dépendance résiduelle ignorée par les marges. Nous montrons que la transformée de Laplace de l’effet aléatoire est liée au générateur des modèles de copules Archimédiennes, ce qui nous permet d’avoir un nouvel aperçu de ces modèles. L’approche que nous proposons offre de nombreux avantages. En effet, la famille de copules Archimédiennes fournit une large classe de modèles pour la sur-dispersion dans une expérience de Bernoulli. D’un point de vue statistique, la fonction de vraisemblance marginale pour les données de l’échantillon a une expression explicite, les méthodes du maximum de vraisemblance sont alors faciles à mettre en oeuvre. Nous avons considéré quatre applications de nos modèles. Premièrement, nous construisons un intervalle de confiance par vraisemblance profilée pour le coefficient de corrélation intra-grappe (ICC). La deuxième application concerne l’estimation de la taille d’une population en présence d’hétérogénéité observée et non observée (résiduelle) dans une expérience de capture-recapture. Le troisième problème traite de l’estimation dans de petites régions, et enfin le quatrième indépendant des trois premiers, analyse les caractéristiques socio-économiques des hommes qui ont une préférence à épouser des jeunes filles de moins de 18 ans. Dans la première application, nous considérons le cas le plus simple de nos modèles où aucune covariable n’est disponible puis proposons la méthode du maximum de vraisemblance pour l’estimation du coefficient de corrélation intra-grappe (ICC) à l’aide de plusieurs spécifications de copules Archimédiennes. La sélection d’un modèle particulier est effectuée en utilisant le critère d’information d’Akaike (AIC). La procédure comprend l’estimation du maximum de vraisemblance et la méthode du profil de vraisemblance (ou vraisemblance profilée). Nous avons fait des études de simulation pour mesurer la performance de la méthode d’intervalle par vraisemblance profilée sous nos modèles en termes de taux de couverture et de longueur d’intervalle de confiance, et la sensibilité de notre approche à la spécification d’un modèle de copule. La procédure que nous proposons a aussi été appliquée à des données réelles. Nous comparons notre méthode à celle proposée sous le modèle Béta-binomial, et la méthode d’intervalle de type Wald modifié proposée par Zou and Donner (2004). L’une des conclusions importantes de ces études est que l’intervalle de confiance par vraisemblance profilée obtenu sous nos modèles présente de belles propriétés en termes de taux couverture et de longueur d’intervalle de confiance, même lorsque le nombre de grappes est petit. La sélection de modèle est une étape importante : si le modèle est mal spécifié, alors cela pourrait conduire à des résultats erronés. La seconde application, une extension de la première pour accommoder des covariables au niveau des grappes, concerne la modélisation de l’hétérogéneité dans les probabilités de capture lors d’une expérience de capture-recapture dans une population fermée. Dans ce contexte, nos modèles sont utilisés pour modéliser l’hétérogéneité résiduelle qui n’est pas prise en compte par les covariables mesurées sur des unités capturées. Plusieurs modèles sont disponibles pour l’hétérogénéité non observée et la probabilité de capture marginale est modélisée en utilisant les fonctions de liens Logit et Log-Log complémentaire. Les paramètres sont estimés en utilisant la vraisemblance conditionnelle construite à partir des observations collectées sur les unités capturées au moins une fois. Ceci généralise le modèle de Huggins (1991) qui ne tient pas compte de l’hétérogénéité résiduelle. La sensibilité de l’inférence à la spécification d’un modèle est également étudiée par des simulations. Un exemple numérique est présenté. La troisième application traite de la prédiction dans de petites régions. Nous proposons des techniques de Bayes basées sur nos modèles pour estimer des proportions régionales. L’inférence Bayésienne que nous proposons consiste à trouver la distribution a posteriori de l’effet aléatoire et sa transformée de Laplace sachant les données et les paramètres du modèle. Cette transformée de Laplace est ensuite utilisée pour trouver des estimateurs de Bayes et leurs variances a posteriori pour les vraies proportions. Nous développons une étude de comparaison entre le meilleur prédicteur de Bayes (BP) et le meilleur prédicteur linéaire sans biais (BLUP). Nous avons également étudié l’efficacité du BP obtenu sous nos modèles relativement au BLUP. Les paramètres du modèle sont estimés en utilisant la méthode du maximum de vraisemblance. L’avantage de notre approche est que la fonction de vraisemblance et l’expression du meilleur prédicteur (BP) ont une forme explicite, ce qui facilite la mise en oeuvre de leur évaluation sur le plan numérique. Nous obtenons un prédicteur empirique de Bayes (EBP) en remplaçant les paramètres par leurs estimateurs dans l’expression du BP. Nous utilisons le critère d’information d’Akaike (AIC) pour la selection d’un modèle. Nous utilisons la méthode du jackknife pour estimer l’erreur quadratique moyenne des prédicteurs empiriques. Des résultats empiriques obtenus à partir de données simulées et réelles sont également présentés. Enfin, le quatrième problème traité dans cette thèse, qui est indépendant des trois premiers, concerne l’analyse des caractéristiques socio-économiques des hommes qui ont une préférence à épouser des jeunes filles de moins de 18 ans. Dans ce contexte, nous considérons les données de l’EDS 2006 du Niger et utilisons les copules Archimédiennes bidimentionelles pour modéliser l’association entre le niveau d’éducation (variable discrète) des hommes et leur revenu pré-marital (variable continue). Nous construisons la vraisemblance pour un échantillon issu de ce couple de variables aléatoires mixtes, et déduisons une estimation du paramètre de dépendance en utilisant une procédure semi-paramétrique où les marges sont estimées par leurs équivalents empiriques. Nous utilisons la méthode du jackknife pour estimer l’erreur type. Nous utilisons la méthode de Wald pour tester l’égalité entre l’association des caractéristiques socio-économiques des hommes qui épousent des jeunes filles mineures et celle des hommes qui se marient avec des femmes âgées. Les résultats du test contribuent à la validité de notre théorie selon laquelle les hommes qui épousent des jeunes filles de moins de 18 ans ont un niveau d’éducation et un revenu pré-marital faibles, lorsqu’on les compare aux hommes qui ne le font pas. / This thesis introduces and explores a new class of probability models for exchangeable clustered binary data. In these models, the conditional probability of success is characterized by a function of the marginal probability of success and a positive cluster-specific random effect. The marginal probabilities are modeled using the logit and complementary log-log link functions. The distribution of the random effect contains an association parameter that is estimated to give a measure of the strength of the within-cluster residual dependence that is not accounted for by the margins. We show that the random effect distributions can be related to exchangeable Archimedean copula models, thus giving new insights on such models. The copula approach offers many advantages. Indeed, the family of Archimedean copulas provides a large class of models for over-dispersion in a Bernoulli experiment. From a statistical perspective, the marginal likelihood function for the sample data has an explicit expression, the maximum likelihood methods are then easy to implement and computationally straightforward. Based on the proposed models, four applications are considered. First, we investigate the construction of profile likelihood confidence interval (PLCI) for the intra-cluster correlation coefficient (ICC). The second application is concerned with an heterogeneity in capture probabilities in a mark-recapture study for estimating the size of a closed population. The third contribution deals with the estimation in small areas, the fourth and final, independent of the other three, analyzes the socioeconomic characteristics of men who prefer to marry girls under 18 years old. In the first application, we consider a simple case, without covariates and construct maximum likelihood inference procedures for the intra-cluster correlation using several specifications of Archimedean copulas. The selection of a particular model is carried out using the Akaike information criterion (AIC). Profile likelihood confidence intervals for the ICC are constructed and their performance are assessed in a simulation experiment. The sensitivity of the inference to the specification of the copula family is also investigated through simulations. Numerical examples are presented. We compare our approach with that proposed under the Beta-binomial model and with the modified Wald interval method proposed by Zou and Donner (2004). One of the important findings of these studies is that the profile confidence interval obtained under our models presents nice properties, even when the number of clusters is small. Model selection is an important step: if the model is poorly specified, then this could lead to erroneous results. The second application, an extension of the first one to accommodate cluster level covariates, is concerned with an heterogeneity in capture probabilities in a capture-recapture study for estimating the size of a closed population. Unit level covariates are recorded on the units that are captured and copulas are used to model the residual heterogeneity that is not accounted for by covariates. Several models for the unobserved heterogeneity are available and the marginal capture probability is expressed using the Logit and the complementary Log-Log link functions. The parameters are estimated using a conditional likelihood constructed with the data obtained on the units caught at least once. The population size is estimated using a Horvitz-Thompson estimator constructed using the estimated probabilities that a unit is caught at least once. This generalizes the model of Huggins (1991) that does not account for a residual heterogeneity. The sensitivity of the inference to the specification of a model is also investigated through simulations. A numerical example is presented. The third application uses the models of the first two in order to estimate small area proportions. We apply Bayes techniques using a new class of probability models, to estimate small area proportions. The Bayesian inference under the proposed models consists in obtaining the posterior distribution of the random effect and its Laplace transform. This posterior Laplace transform is then used to find Bayes estimates of small area proportions. We develop a comparison between the Best Predictor (BP) and the Best Linear Unbiased Predictor (BLUP). The model parameters are estimated using the maximum likelihood (ML) method. Under the proposed model, the likelihood function and the best predictor (BP) of small area proportion have closed form expressions. Model parameters are replaced by their ML estimates in the BP to obtain the empirical best predictor (EBP). We use the Akaike information criterion (AIC) for selecting a particular model. We propose the jackknife method to estimate the mean square error of the empirical Bayes predictor. Empirical results obtained from simulated and real data are also presented. The fourth and last problem addressed in this thesis, independently of the others three, investigates socioeconomic characteristics of men who prefer to marry girls under 18 years. We consider the data from the 2006 DHS Niger and use a bivariate Archimedean copula to model the association between education level (discrete) of men and their pre-marital income (continuous). We present the likelihood function for a sample from this pair of mixed random variables, and derive an estimate of the dependence parameter using a semiparametric procedure where margins are estimated by their empirical equivalents. We use the jackknife method to estimate the standard error. We use a Wald-type procedure, to perform a parametric hypothesis test of equality between the association of the socio economic characteristics of men who marry underage girls and that of men who marry older women instead. These test results contribute to the validity of our theory that men who marry girls under 18 years old have a low level of education and income pre-marital, when compared to men who did not.
157

Processus de diffusion discret : opérateur laplacien appliqué à l'étude de surfaces / Digital diffusion processes : discrete Laplace operator for discrete surfaces

Rieux, Frédéric 30 August 2012 (has links)
Le contexte est la géométrie discrète dans Zn. Il s'agit de décrire les courbes et surfaces discrètes composées de voxels: les définitions usuelles de droites et plans discrets épais se comportent mal quand on passe à des ensembles courbes. Comment garantir un bon comportement topologique, les connexités requises, dans une situation qui généralise les droites et plans discrets?Le calcul de données sur ces courbes, normales, tangentes, courbure, ou des fonctions plus générales, fait appel à des moyennes utilisant des masques. Une question est la pertinence théorique et pratique de ces masques. Une voie explorée, est le calcul de masques fondés sur la marche aléatoire. Une marche aléatoire partant d'un centre donné sur une courbe ou une surface discrète, permet d'affecter à chaque autre voxel un poids, le temps moyen de visite. Ce noyau permet de calculer des moyennes et par là, des dérivées. L'étude du comportement de ce processus de diffusion, a permis de retrouver des outils classiques de géométrie sur des surfaces maillées, et de fournir des estimateurs de tangente et de courbure performants. La diversité du champs d'applications de ce processus de diffusion a été mise en avant, retrouvant ainsi des méthodes classiques mais avec une base théorique identique.} motsclefs{Processus Markovien, Géométrie discrète, Estimateur tangentes, normales, courbure, Noyau de diffusion, Analyse d'images / The context of discrete geometry is in Zn. We propose to discribe discrete curves and surfaces composed of voxels: how to compute classical notions of analysis as tangent and normals ? Computation of data on discrete curves use average mask. A large amount of works proposed to study the pertinence of those masks. We propose to compute an average mask based on random walk. A random walk starting from a point of a curve or a surface, allow to give a weight, the time passed on each point. This kernel allow us to compute average and derivative. The studied of this digital process allow us to recover classical notions of geometry on meshes surfaces, and give accuracy estimator of tangent and curvature. We propose a large field of applications of this approach recovering classical tools using in transversal communauty of discrete geometry, with a same theorical base.
158

Opérateur de Laplace–Beltrami discret sur les surfaces digitales / Discrete Laplace--Beltrami Operator on Digital Surfaces

Caissard, Thomas 13 December 2018 (has links)
La problématique centrale de cette thèse est l'élaboration d'un opérateur de Laplace--Beltrami discret sur les surfaces digitales. Ces surfaces proviennent de la théorie de la géométrie discrète, c’est-à-dire la géométrie qui s'intéresse à des sous-ensembles des entiers relatifs. Nous nous plaçons ici dans un cadre théorique où les surfaces digitales sont le résultat d'une approximation, ou processus de discrétisation, d'une surface continue sous-jacente. Cette méthode permet à la fois de prouver des théorèmes de convergence des quantités discrètes vers les quantités continues, mais aussi, par des analyses numériques, de confirmer expérimentalement ces résultats. Pour la discrétisation de l’opérateur, nous faisons face à deux problèmes : d'un côté, notre surface n'est qu'une approximation de la surface continue sous-jacente, et de l'autre côté, l'estimation triviale de quantités géométriques sur la surface digitale ne nous apporte pas en général une bonne estimation de cette quantité. Nous possédons déjà des réponses au second problème : ces dernières années, de nombreux articles se sont attachés à développer des méthodes pour approximer certaines quantités géométriques sur les surfaces digitales (comme par exemple les normales ou bien la courbure), méthodes que nous décrirons dans cette thèse. Ces nouvelles techniques d'approximation nous permettent d'injecter des informations de mesure sur les éléments de notre surface. Nous utilisons donc l'estimation de normales pour répondre au premier problème, qui nous permet en fait d'approximer de façon précise le plan tangent en un point de la surface et, via une méthode d'intégration, palier à des problèmes topologiques liées à la surface discrète. Nous présentons un résultat théorique de convergence du nouvel opérateur discrétisé, puis nous illustrons ensuite ses propriétés à l’aide d’une analyse numérique de l’opérateur. Nous effectuons une comparaison détaillée du nouvel opérateur par rapport à ceux de la littérature adaptés sur les surfaces digitales, ce qui nous permet, au moins pour la convergence, de montrer que seul notre opérateur possède cette propriété. Nous illustrons également l’opérateur via quelques unes de ces applications comme sa décomposition spectrale ou bien encore le flot de courbure moyenne / The central issue of this thesis is the development of a discrete Laplace--Beltrami operator on digital surfaces. These surfaces come from the theory of discrete geometry, i.e. geometry that focuses on subsets of relative integers. We place ourselves here in a theoretical framework where digital surfaces are the result of an approximation, or discretization process, of an underlying smooth surface. This method makes it possible both to prove theorems of convergence of discrete quantities towards continuous quantities, but also, through numerical analyses, to experimentally confirm these results. For the discretization of the operator, we face two problems: on the one hand, our surface is only an approximation of the underlying continuous surface, and on the other hand, the trivial estimation of geometric quantities on the digital surface does not generally give us a good estimate of this quantity. We already have answers to the second problem: in recent years, many articles have focused on developing methods to approximate certain geometric quantities on digital surfaces (such as normals or curvature), methods that we will describe in this thesis. These new approximation techniques allow us to inject measurement information into the elements of our surface. We therefore use the estimation of normals to answer the first problem, which in fact allows us to accurately approximate the tangent plane at a point on the surface and, through an integration method, to overcome topological problems related to the discrete surface. We present a theoretical convergence result of the discretized new operator, then we illustrate its properties using a numerical analysis of it. We carry out a detailed comparison of the new operator with those in the literature adapted on digital surfaces, which allows, at least for convergence, to show that only our operator has this property. We also illustrate the operator via some of these applications such as its spectral decomposition or the mean curvature flow
159

Modélisation et analyse d'un système de dégivrage électromécanique en aéronautique / Modeling and analysis of an electromechanical de-icing system in aeronauticss

Estopier castillo, Melissa 23 October 2018 (has links)
Modélisation et analyse d’un système de dégivrage en aéronautiqueRésuméCe manuscrit de thèse aborde les travaux de modélisation d’une nouvelle technologie électromécanique pour le dégivrage en aéronautique en mode vol.Le principe de fonctionnement de la technologie étudiée repose sur la déformation mécanique des surfaces à dégivrer à partir d’efforts électromagnétiques générés par une excitation en courant électrique de forte intensité. La solution imaginée par le partenaire industriel Zodiac Aerospace, a conduit à un démonstrateur dont les premiers essais ont été lancés préalablement à cette thèse. À partir des résultats obtenus, l’objectif de ces travaux de thèse a été d’obtenir un modèle adapté pour les futures démarches d’optimisation dans le but ultime d’aller vers une solution de dégivrage plus électrique que les solutions existantes, performante, et plus efficace en termes de rendement énergétique.Une modélisation multiphysique a été réalisée. Cette modélisation est constitué de plusieurs sous modèles analytiques qui ont été intégrés sur une plateforme de résolution numérique. La modélisation mécanique met en œuvre une approche de type plaque par éléments bande, qui a été résolu en fonction du temps par une méthode de différences finies. Le modèle mécanique résultant est dit semi-analytique. La modélisation électromagnétique repose sur une définition analytique et a présenté comme difficulté la complexité de la définition géométrique du démonstrateur. Un circuit électrique équivalent du dispositif complet a été identifié et les équations du modèle électrique ont été définies ; ceci a permis de réaliser une analyse énergétique pour comprendre la transformation des forces de nature différente et mettre en évidence la possibilité d’une future optimisation.Les résultats de simulation à partir du modèle final représentent assez bien la dynamique de la déformation mécanique observée expérimentalement mais présentent en revanche des limitations en termes de précision.Mots clé : Dégivrage électromécanique, aéronautique, modélisation multiphysique, déformation de plaques, force de Laplace. / Modeling and analysis of an electromechanical de-icing system in aeronauticsAbstractThis thesis report explains the modeling procedure of a new electromechanical de-icing technology in aeronautics for in-flight application.The operation principle of the technology resides in the mechanical deformation of the working surface caused by the effect of electromagnetic forces generated from a high-intensity current source.The industrial partner Zodiac Aerospace conceived this solution they carried out the construction of a demonstrator and a series of tests prior to this Ph.D. Based on the obtained results, the aim of this project was to achieve an adequate model of the de-icing system that should be suitable for further optimization of the device, such that a more electric de-icing solution will be proposed, with good performance and with higher energetic efficiency.A multiphysiscs model was developed, which comprises multiple analytical submodels that where integrated into a numerical resolution platform. The mechanical submodel implements a strip approach for plates solved via a finite differences method that permits time dependence evaluation, and can be defined as semi analytical. Another submodel is based on the mathematical definition of the electromagnetic behavior, the main complication of which was to consider the complex geometrical definition of the demonstrator. An equivalent electric circuit for the whole system was identified and the equations for an electrical submodel where then established. This allowed the study of the energy transformation and repartition, and reveals the possibility of future optimization.Simulation results from the final model properly reproduce the dynamics of the mechanical deformation response as were observed during the previous experiments, but also reveals some minor accuracy problems.Key words : Electromechanical de-icing, aeronautics, multiphysics modeling, deformation of plates, Laplace force.
160

Reconstrução espectral de tubos de radiação odontológicos usando a transformada inversa de Laplace da curva de atenuação / Spectral Reconstruction of Dental X Ray Tubes Using the Inverse Laplace Transform of the Attenuation Curve.

Malezan, Alex 27 June 2013 (has links)
No estudo de imagens radiográcas, os parâmetros relacionados ao contraste objeto, SC, razão sinal ruído, SNR, e dose, estão vinculados à forma do espectro de raios X utilizado e seu conhecimento permite predizer e otimizar a qualidade da imagem. Neste trabalho foi desenvolvida uma metodologia que permite obter o espectro de tubos de raios X odontológicos de uso clínico de forma indireta. Esta metodologia é baseada na aplicação de um modelo matemático que utiliza a transformada inversa de Laplace da curva de transmissão do feixe para gerar dados sobre a distribuição espectral do mesmo. Com o auxílio de uma câmara de ionização e ltros alumínio de alta pureza, foram levantadas as curvas de transmissão de 8 tubos de raios X disponíveis comercialmente. Para a validação do método foi realizada a espectrometria direta com detector de telureto de cádmio (CdTe), cuja resposta foi determinada por simulação Monte Carlo (MC). A partir reconstrução espectral obtida, foram realizados estudos sobre os parâmetros de qualidade de imagem SNR, contraste objeto, SC, KERMA na entrada da pele. O desempenho dos tubos foi avaliado com base na relação entre SNR e KERMA na entrada da pele. Os resultados mostram que é possível determinar a distribuição espectral de tubos de raios X odontológicos com base no método proposto. A relação proposta entre SNR e KERMA na entrada da pele sugere que tubos com fótons de baixa energia possuem baixo rendimento. / In the study of radiographic images, the parameters related to the subject contrast, SC, signal to noise ratio, SNR, and dose, are linked to the shape of the X-ray spectrum used and their knowledge allows to predict and optimize the image quality. In this work we developed a methodology to obtain the spectrum of dental X-ray tubes of clinical usage in an indirety way. This methodology is based on application of a mathematical model that uses the inverse Laplace transform of the attenuation curve to generate data on the spectral distribution of the beam. With the aid of an ionization chamber and high purity aluminum lters, were raised the transmission curves of 8 X-ray tubes that are available commercially. The method validation was performed with direct spectrometry detector cadmium telluride (CdTe), whose response was determined by Monte Carlo simulation (MC). From reconstruction obtained spectral studies were carried out on the parameters of SNR image quality, contrast object, SC, KERMA entrance skin. The performance of the tubes was evaluated based on the relationship between SNR and KERMA entrance skin. The results show that it is possible to determine the spectral distribution of dental X-ray tubes based on the proposed method. The proposed relationship between SNR and KERMA entrance skin suggests that tubes with low energy photons have a low performance.

Page generated in 0.0423 seconds