381 |
Nonparametric estimation for stochastic delay differential equationsReiß, Markus 13 February 2002 (has links)
Sei (X(t), t>= -r) ein stationärer stochastischer Prozess, der die affine stochastische Differentialgleichung mit Gedächtnis dX(t)=L(X(t+s))dt+sigma dW(t), t>= 0, löst, wobei sigma>0, (W(t), t>=0) eine Standard-Brownsche Bewegung und L ein stetiges lineares Funktional auf dem Raum der stetigen Funktionen auf [-r,0], dargestellt durch ein endliches signiertes Maß a, bezeichnet. Wir nehmen an, dass eine Trajektorie (X(t), -r 0, konvergiert. Diese Rate ist schlechter als in vielen klassischen Fällen. Wir beweisen jedoch eine untere Schranke, die zeigt, dass keine Schätzung eine bessere Rate im Minimax-Sinn aufweisen kann. Für zeit-diskrete Beobachtungen von maximalem Abstand Delta konvergiert die Galerkin-Schätzung immer noch mit obiger Rate, sofern Delta is in etwa von der Ordnung T^(-1/2). Hingegen wird bewiesen, dass für festes Delta unabhängig von T die Rate sich signifikant verschlechtern muss, indem eine untere Schranke von T^(-s/(2s+6)) gezeigt wird. Außerdem wird eine adaptive Schätzung basierend auf Wavelet-Thresholding-Techniken für das assoziierte schlechtgestellte Problem konstruiert. Diese nichtlineare Schätzung erreicht die obige Minimax-Rate sogar für die allgemeinere Klasse der Besovräume B^s_(p,infinity) mit p>max(6/(2s+3),1). Die Restriktion p>=max(6/(2s+3),1) muss für jede Schätzung gelten und ist damit inhärent mit dem Schätzproblem verknüpft. Schließlich wird ein Hypothesentest mit nichtparametrischer Alternative vorgestellt, der zum Beispiel für das Testen auf Gedächtnis verwendet werden kann. Dieser Test ist anwendbar für eine L^2-Trennungsrate zwischen Hypothese und Alternative der Ordnung T^(-s/(2s+2.5)). Diese Rate ist wiederum beweisbar optimal für jede mögliche Teststatistik. Für die Beweise müssen die Parameterabhängigkeit der stationären Lösungen sowie die Abbildungseigenschaften der assoziierten Kovarianzoperatoren detailliert bestimmt werden. Weitere Resultate von allgemeinem Interessen beziehen sich auf die Mischungseigenschaft der stationären Lösung, eine Fallstudie zu exponentiellen Gewichtsfunktionen sowie der Approximation des stationären Prozesses durch autoregressive Prozesse in diskreter Zeit. / Let (X(t), t>= -r) be a stationary stochastic process solving the affine stochastic delay differential equation dX(t)=L(X(t+s))dt+sigma dW(t), t>= 0, with sigma>0, (W(t), t>=0) a standard one-dimensional Brownian motion and with a continuous linear functional L on the space of continuous functions on [-r,0], represented by a finite signed measure a. Assume that a trajectory (X(t), -r 0. This rate is worse than those obtained in many classical cases. However, we prove a lower bound, stating that no estimator can attain a better rate of convergence in a minimax sense. For discrete time observations of maximal distance Delta, the Galerkin estimator still attains the above asymptotic rate if Delta is roughly of order T^(-1/2). In contrast, we prove that for observation intervals Delta, with Delta independent of T, the rate must deteriorate significantly by providing the rate estimate T^(-s/(2s+6)) from below. Furthermore, we construct an adaptive estimator by applying wavelet thresholding techniques to the corresponding ill-posed inverse problem. This nonlinear estimator attains the above minimax rate even for more general classes of Besov spaces B^s_(p,infinity) with p>max(6/(2s+3),1). The restriction p >= 6/(2s+3) is shown to hold for any estimator, hence to be inherently associated with the estimation problem. Finally, a hypothesis test with a nonparametric alternative is constructed that could for instance serve to decide whether a trajectory has been generated by a stationary process with or without time delay. The test works for an L^2-separation rate between hypothesis and alternative of order T^(-s/(2s+2.5)). This rate is again shown to be optimal among all conceivable tests. For the proofs, the parameter dependence of the stationary solutions has to be studied in detail and the mapping properties of the associated covariance operators have to be determined exactly. Other results of general interest concern the mixing properties of the stationary solution, a case study for exponential weight functions and the approximation of the stationary process by discrete time autoregressive processes.
|
382 |
Central limit theorems and confidence sets in the calibration of Lévy models and in deconvolutionSöhl, Jakob 03 May 2013 (has links)
Zentrale Grenzwertsätze und Konfidenzmengen werden in zwei verschiedenen, nichtparametrischen, inversen Problemen ähnlicher Struktur untersucht, und zwar in der Kalibrierung eines exponentiellen Lévy-Modells und im Dekonvolutionsmodell. Im ersten Modell wird eine Geldanlage durch einen exponentiellen Lévy-Prozess dargestellt, Optionspreise werden beobachtet und das charakteristische Tripel des Lévy-Prozesses wird geschätzt. Wir zeigen, dass die Schätzer fast sicher wohldefiniert sind. Zu diesem Zweck beweisen wir eine obere Schranke für Trefferwahrscheinlichkeiten von gaußschen Zufallsfeldern und wenden diese auf einen Gauß-Prozess aus der Schätzmethode für Lévy-Modelle an. Wir beweisen gemeinsame asymptotische Normalität für die Schätzer von Volatilität, Drift und Intensität und für die punktweisen Schätzer der Sprungdichte. Basierend auf diesen Ergebnissen konstruieren wir Konfidenzintervalle und -mengen für die Schätzer. Wir zeigen, dass sich die Konfidenzintervalle in Simulationen gut verhalten, und wenden sie auf Optionsdaten des DAX an. Im Dekonvolutionsmodell beobachten wir unabhängige, identisch verteilte Zufallsvariablen mit additiven Fehlern und schätzen lineare Funktionale der Dichte der Zufallsvariablen. Wir betrachten Dekonvolutionsmodelle mit gewöhnlich glatten Fehlern. Bei diesen ist die Schlechtgestelltheit des Problems durch die polynomielle Abfallrate der charakteristischen Funktion der Fehler gegeben. Wir beweisen einen gleichmäßigen zentralen Grenzwertsatz für Schätzer von Translationsklassen linearer Funktionale, der die Schätzung der Verteilungsfunktion als Spezialfall enthält. Unsere Ergebnisse gelten in Situationen, in denen eine Wurzel-n-Rate erreicht werden kann, genauer gesagt gelten sie, wenn die Sobolev-Glattheit der Funktionale größer als die Schlechtgestelltheit des Problems ist. / Central limit theorems and confidence sets are studied in two different but related nonparametric inverse problems, namely in the calibration of an exponential Lévy model and in the deconvolution model. In the first set-up, an asset is modeled by an exponential of a Lévy process, option prices are observed and the characteristic triplet of the Lévy process is estimated. We show that the estimators are almost surely well-defined. To this end, we prove an upper bound for hitting probabilities of Gaussian random fields and apply this to a Gaussian process related to the estimation method for Lévy models. We prove joint asymptotic normality for estimators of the volatility, the drift, the intensity and for pointwise estimators of the jump density. Based on these results, we construct confidence intervals and sets for the estimators. We show that the confidence intervals perform well in simulations and apply them to option data of the German DAX index. In the deconvolution model, we observe independent, identically distributed random variables with additive errors and we estimate linear functionals of the density of the random variables. We consider deconvolution models with ordinary smooth errors. Then the ill-posedness of the problem is given by the polynomial decay rate with which the characteristic function of the errors decays. We prove a uniform central limit theorem for the estimators of translation classes of linear functionals, which includes the estimation of the distribution function as a special case. Our results hold in situations, for which a square-root-n-rate can be obtained, more precisely, if the Sobolev smoothness of the functionals is larger than the ill-posedness of the problem.
|
383 |
Identification expérimentale de comportements élastoplastiques de matériaux hétérogènes pour des sollicitations complexes / Experimental identification of elastoplastic behavior of heterogeneous materials under complex loadingsMadani, Tarik 17 December 2015 (has links)
Le présent travail de thèse fait suite à une première étude où une stratégie d’identification des paramètres et formes des lois de zones cohésives a été élaborée pour des matériaux homogènes. L’extension au cas de matériaux présentant des hétérogénéités nécessite d’accéder localement aux champs de contraintes.Ainsi, l’objectif principal de cette étude est de mettre au point une méthode de caractérisation locale des propriétés mécaniques et des contraintes. Cette méthode est basée sur l’erreur en relation de comportement combinée à l’exploitation de la richesse des mesures de champs cinématiques planes et plus particulièrement des champs de déformations, obtenus par dérivation numérique des champs de déplacements. Cette mesure cinématique est réalisée par une technique de corrélation d’images numériques enrichie.La méthode d’identification est basée sur la minimisation itérative d’une norme énergétique faisant intervenir le tenseur élastoplastique sécant. Différentes simulations numériques ont illustré la capacité de la procédure à identifier localement des champs de propriétés hétérogènes et sa robustesse et sa stabilité vis-à-vis du bruit de mesure, du choix du jeu de paramètres d’initialisation de l’algorithme et de la finesse du maillage.Pour finir, des essais plans avec différentes géométries d’éprouvettes ont été effectués et un essai a été mis au point pour obtenir de manière maîtrisée un état initial très hétérogène. Les résultats d’identification élastoplastique multilinéaire ont montré la capacité de la méthode à identifier les lois de comportements locales sur ce matériau hétérogène. / The present work follows a first approach where a strategy for identifying the shape and the parameters of cohesive-zone laws has been developed for homogeneous materials. The extension of this method to heterogeneous material requires the knowledge of the local stress state.The study aims at developing a local characterization method for mechanical properties and stresses. This method is based on the constitutive equation gap principles and relies on the knowledge of mechanical kinematic fields and particularly of the strain fields. These fields are obtained by the numerical differentiation of displacement fields measured by digital image correlation.This identification method is based on the iterative minimization of an energy norm involving the secant elastoplastic tensor. Various numerical simulations were used to illustrate the performance of the procedure for locally identifying heterogeneous property fields, and to characterize its robustness and its stability with respect to noise to the values of the algorithm initialization parameter and to the mesh refinement.Finally, various experimental tests with different specimen geometries were performed and a test has been developed to obtain a controlled heterogeneous initial state. The multilinear elastoplastic identification results showed the ability of the method to identify the local behavior properties on heterogeneous materials.
|
384 |
Measuring permeability vs depth in the unlined section of a wellbore using the descent of a fluid column made of two distinct fluids : inversion workflow, laboratory & in-situ tests / Mesure de la perméabilité fonction de la profondeur dans le découvert d’un puits en descendant une colonne composée de deux fluides distinctsManivannan, Sivaprasath 27 November 2018 (has links)
Dans les puits de production d’eau, de pétrole, de gaz et de chaleur géothermique, ou dans les puits d’accès à un stockage d’hydrocarbures, il est précieux de connaître la perméabilité de la formation ou de sa couverture en fonction de la profondeur, soit pour améliorer le modèle de réservoir, soit pour choisir les zones dans lesquelles procéder à des opérations spéciales.On propose une technique qui consiste à balayer la hauteur du découvert par une interface entre deux liquides de viscosités très contrastées. Le débit total qui pénètre la formation à chaque instant est ainsi une fonction de la position de l’interface et de l’historique des pressions dans le puits. On doit alors résoudre un problème inverse : rechercher la perméabilité fonction de la profondeur à partir de l’historique des débits dans le temps. Dans la pratique, le puits est équipé d’un tube central. Le balayage est effectué par injection d’un liquide à pression d’entrée constante dans le tube central et soutirage d’un autre liquide par l’espace annulaire. On mesure les débits d’injection et de soutirage dont la différence est le débit qui entre dans la formation.Pour valider et améliorer cette technique, on a d’abord utilisé une maquette simulant un découvert multi-couches disponible au LMS. On a exploité aussi des essais en place réalisés dans la couverture peu perméable d’un stockage souterrain de gaz. Dans ces essais, un liquide visqueux placé dans le découvert était déplacé par un liquide moins visqueux (méthode dite « opening »). Les couches plus perméables étaient correctement identifiées (Manivannan et al. 2017), mais une estimation quantitative était un défi en raison des phénomènes transitoires qui affectent le voisinage immédiat des puits. De plus, le rayon investigué dans le massif était petit.La thèse a relevé ces défis en proposant un essai légèrement différent et une nouvelle technique d’interprétation. Les essais avec une maquette modifiée ont montré la supériorité d’une méthode « closing » dans laquelle le puits est d’abord rempli du liquide le moins visqueux. On ménage une période de stabilisation avant l’injection du liquide visqueux pour réduire les effets transitoires ; elle permet aussi d’estimer la perméabilité moyenne et l’influence de la zone endommagée à la paroi (le « skin »).Puis on conduit l’essai proprement dit. L’historique des débits mesurés en tête de puits constitue le profil d’injection dont on déduit le profil de perméabilité.. Cette estimation suppose un écoulement monophasique dans chaque couche et la même « skin » pour toute la formation. Les incertitudes principales portent sur les pressions de formation et les variations possibles du « skin ». Elles sont estimées au moyen d’un calcul analytique. On a vérifié sur la maquette que les profils de perméabilité estimés présentent une bonne concordance avec les perméabilités mesurées avant les essais.On a réalisé un essai sur un sondage de 1750 m de long atteignant une couche de sel dont on a correctement estimé la perméabilité moyenne pendant la période de stabilisation. Toutefois elle était si faible (4.0E-21 m²) que l’utilisation de deux fluides n’a pas permis de faire une différence entre les diverses parties du puits. / In wells producing water, oil, gas or geothermal energy, or in access wells to hydrocarbon storage, it is critical to evaluate the permeability of the formation as a function of depth, to improve the reservoir model, and also to identify the zones where additional investigation or special completions are especially useful.A new technique is proposed, consisting of scanning the open hole (uncased section of the wellbore) with an interface between two fluids with a large viscosity contrast. The injection rate into the formation depends on interface location and well pressure history. An inverse problem should be solved: estimate permeability as a function of depth from the evolution of flow rates with time. The wells are usually equipped with a central tube. The scanning is done by injecting a liquid in the central tube at constant wellhead pressure. Injection and withdrawal rates are measured at the wellhead; the difference between these two rates is the formation injection rate.To validate and improve this technique, we used a laboratory model mimicking a multi-layer formation, already available at LMS. We also made use of in-situ tests performed on an ultra-low permeable cap rock above an underground gas storage reservoir. In these tests, a viscous fluid contained in the open hole was displaced by a less-viscous fluid (a method called opening WTLog). The more permeable layers were correctly identified (Manivannan et al. 2017), but a quantitative estimation was challenging due to transient phenomena in the vicinity of the wellbore (near-wellbore zone). In addition, the investigation radius was small.These challenges are addressed by proposing a slightly modified test procedure and a new interpretation workflow. Laboratory tests with a modified test setup showed the advantages of the ‘closing’ method in which the well is filled with a less-viscous fluid at the start of the test. We also added a stabilization period before the injection of viscous fluid to minimize the transient effects; this period is also used to estimate the average permeability of the open hole and the effect of near-wellbore damage (skin).Then the test proper is performed (closing WTLog). The injection profile of the less-viscous fluid is computed from the wellhead flow rate history. A permeability profile is estimated from the injection profile. The permeability estimation considers a monophasic flow in each layer and the same skin value for all the formation layers. Major uncertainties in the permeability estimates are caused by formation pressures and heterogeneities in skin values; they are estimated using an analytical formula. We have verified on the laboratory setup that the estimated permeability profiles are well correlated to the permeabilities measured before the tests.An attempt was made to perform a WTLog in a 1750-m long wellbore opening in a salt formation. The first phase was successful and the average permeability was correctly assessed. However, this permeability was so small (4.0E-21 m² or 4 nD) that the gauges and the flowmeters were not accurate enough to allow a clear distinction between the permeabilities of the various parts of the open hole.
|
385 |
Approches bayésiennes non paramétriques et apprentissage de dictionnaire pour les problèmes inverses en traitement d'image / Bayesian nonparametrics approaches and dictionary learning for inverse problems in image processingDang, Hong-Phuong 01 December 2016 (has links)
L'apprentissage de dictionnaire pour la représentation parcimonieuse est bien connu dans le cadre de la résolution de problèmes inverses. Les méthodes d'optimisation et les approches paramétriques ont été particulièrement explorées. Ces méthodes rencontrent certaines limitations, notamment liées au choix de paramètres. En général, la taille de dictionnaire doit être fixée à l'avance et une connaissance des niveaux de bruit et éventuellement de parcimonie sont aussi nécessaires. Les contributions méthodologies de cette thèse concernent l'apprentissage conjoint du dictionnaire et de ces paramètres, notamment pour les problèmes inverses en traitement d'image. Nous étudions et proposons la méthode IBP-DL (Indien Buffet Process for Dictionary Learning) en utilisant une approche bayésienne non paramétrique. Une introduction sur les approches bayésiennes non paramétriques est présentée. Le processus de Dirichlet et son dérivé, le processus du restaurant chinois, ainsi que le processus Bêta et son dérivé, le processus du buffet indien, sont décrits. Le modèle proposé pour l'apprentissage de dictionnaire s'appuie sur un a priori de type Buffet Indien qui permet d'apprendre un dictionnaire de taille adaptative. Nous détaillons la méthode de Monte-Carlo proposée pour l'inférence. Le niveau de bruit et celui de la parcimonie sont aussi échantillonnés, de sorte qu'aucun réglage de paramètres n'est nécessaire en pratique. Des expériences numériques illustrent les performances de l'approche pour les problèmes du débruitage, de l'inpainting et de l'acquisition compressée. Les résultats sont comparés avec l'état de l'art.Le code source en Matlab et en C est mis à disposition. / Dictionary learning for sparse representation has been widely advocated for solving inverse problems. Optimization methods and parametric approaches towards dictionary learning have been particularly explored. These methods meet some limitations, particularly related to the choice of parameters. In general, the dictionary size is fixed in advance, and sparsity or noise level may also be needed. In this thesis, we show how to perform jointly dictionary and parameter learning, with an emphasis on image processing. We propose and study the Indian Buffet Process for Dictionary Learning (IBP-DL) method, using a bayesian nonparametric approach.A primer on bayesian nonparametrics is first presented. Dirichlet and Beta processes and their respective derivatives, the Chinese restaurant and Indian Buffet processes are described. The proposed model for dictionary learning relies on an Indian Buffet prior, which permits to learn an adaptive size dictionary. The Monte-Carlo method for inference is detailed. Noise and sparsity levels are also inferred, so that in practice no parameter tuning is required. Numerical experiments illustrate the performances of the approach in different settings: image denoising, inpainting and compressed sensing. Results are compared with state-of-the art methods is made. Matlab and C sources are available for sake of reproducibility.
|
386 |
Partial differential equations methods and regularization techniques for image inpainting / Restauration d'images par des méthodes d'équations aux dérivées partielles et des techniques de régularisationTheljani, Anis 30 November 2015 (has links)
Cette thèse concerne le problème de désocclusion d'images, au moyen des équations aux dérivées partielles. Dans la première partie de la thèse, la désocclusion est modélisée par un problème de Cauchy qui consiste à déterminer une solution d'une équation aux dérivées partielles avec des données aux bords accessibles seulement sur une partie du bord de la partie à recouvrir. Ensuite, on a utilisé des algorithmes de minimisation issus de la théorie des jeux, pour résoudre ce problème de Cauchy. La deuxième partie de la thèse est consacrée au choix des paramètres de régularisation pour des EDP d'ordre deux et d'ordre quatre. L'approche développée consiste à construire une famille de problèmes d'optimisation bien posés où les paramètres sont choisis comme étant une fonction variable en espace. Ceci permet de prendre en compte les différents détails, à différents échelles dans l'image. L'apport de la méthode est de résoudre de façon satisfaisante et objective, le choix du paramètre de régularisation en se basant sur des indicateurs d'erreur et donc le caractère à posteriori de la méthode (i.e. indépendant de la solution exacte, en générale inconnue). En outre, elle fait appel à des techniques classiques d'adaptation de maillage, qui rendent peu coûteuses les calculs numériques. En plus, un des aspects attractif de cette méthode, en traitement d'images est la récupération et la détection de contours et de structures fines. / Image inpainting refers to the process of restoring a damaged image with missing information. Different mathematical approaches were suggested to deal with this problem. In particular, partial differential diffusion equations are extensively used. The underlying idea of PDE-based approaches is to fill-in damaged regions with available information from their surroundings. The first purpose of this Thesis is to treat the case where this information is not available in a part of the boundary of the damaged region. We formulate the inpainting problem as a nonlinear boundary inverse problem for incomplete images. Then, we give a Nash-game formulation of this Cauchy problem and we present different numerical which show the efficiency of the proposed approach as an inpainting method.Typically, inpainting is an ill-posed inverse problem for it most of PDEs approaches are obtained from minimization of regularized energies, in the context of Tikhonov regularization. The second part of the thesis is devoted to the choice of regularization parameters in second-and fourth-order energy-based models with the aim of obtaining as far as possible fine features of the initial image, e.g., (corners, edges, … ) in the inpainted region. We introduce a family of regularized functionals with regularization parameters to be selected locally, adaptively and in a posteriori way allowing to change locally the initial model. We also draw connections between the proposed method and the Mumford-Shah functional. An important feature of the proposed method is that the investigated PDEs are easy to discretize and the overall adaptive approach is easy to implement numerically.
|
387 |
Approches "problèmes inverses" régularisées pour l'imagerie sans lentille et la microscopie holographique en ligne / Regularized inverse problems approaches for lensless imaging and in-line holographie microscopyJolivet, Frederic 13 April 2018 (has links)
En imagerie numérique, les approches «problèmes inverses» régularisées reconstruisent une information d'intérêt à partir de mesures et d'un modèle de formation d'image. Le problème d'inversion étant mal posé, mal conditionné et le modèle de formation d'image utilisé peu contraint, il est nécessaire d'introduire des a priori afin de restreindre l'ambiguïté de l'inversion. Ceci permet de guider la reconstruction vers une solution satisfaisante. Les travaux de cette thèse ont porté sur le développement d'algorithmes de reconstruction d'hologrammes numériques, basés sur des méthodes d'optimisation en grande dimension (lisse ou non-lisse). Ce cadre général a permis de proposer différentes approches adaptées aux problématiques posées par cette technique d'imagerie non conventionnelle : la super-résolution, la reconstruction hors du champ du capteur, l'holographie «couleur» et enfin la reconstruction quantitative d'objets de phase (c.a.d. transparents). Dans ce dernier cas, le problème de reconstruction consiste à estimer la transmittance complexe 2D des objets ayant absorbé et/ou déphasé l'onde d'éclairement lors de l'enregistrement de l'hologramme. Les méthodes proposées sont validées à l'aide de simulations numériques puis appliquées sur des données expérimentales issues de l'imagerie sans lentille ou de la microscopie holographique en ligne (imagerie cohérente en transmission, avec un objectif de microscope). Les applications vont de la reconstruction de mires de résolution opaques à la reconstruction d'objets biologiques (bactéries), en passant par la reconstruction de gouttelettes d'éther en évaporation dans le cadre d'une étude de la turbulence en mécanique des fluides. / In Digital Imaging, the regularized inverse problems methods reconstruct particular information from measurements and an image formation model. With an inverse problem that is ill-posed and illconditioned, and with the used image formation mode! having few constraints, it is necessary to introduce a priori conditions in order to restrict ambiguity for the inversion. This allows us to guide the reconstruction towards a satisfying solution. The works of the following thesis delve into the development of reconstruction algorithms of digital holograms based on large-scale optimization methods (smooth and non-smooth). This general framework allowed us to propose different approaches adapted to the challenges found with this unconventional imaging technique: the super-resolution, reconstruction outside the sensor's field, the color holography and finally, the quantitative reconstruction of phase abjects (i.e. transparent). For this last case, the reconstruction problem consists of estimating the complex 2D transmittance of abjects having absorbed and/or dephased the light wave during the recording of the hologram. The proposed methods are validated with the help of numerical simulations that are then applied on experimental data taken from the lensless imaging or from the in-line holographie microscopy (coherent imaging in transmission, with a microscope abject glass). The applications range from the reconstruction of opaque resolution sights, to the reconstruction of biological objects (bacteria), passing through the reconstruction of evaporating ether droplets from a perspective of turbulence study in fluid mechanics.
|
388 |
Computation of Parameters in some Mathematical ModelsWikström, Gunilla January 2002 (has links)
<p>In computational science it is common to describe dynamic systems by mathematical models in forms of differential or integral equations. These models may contain parameters that have to be computed for the model to be complete. For the special type of ordinary differential equations studied in this thesis, the resulting parameter estimation problem is a separable nonlinear least squares problem with equality constraints. This problem can be solved by iteration, but due to complicated computations of derivatives and the existence of several local minima, so called short-cut methods may be an alternative. These methods are based on simplified versions of the original problem. An algorithm, called the modified Kaufman algorithm, is proposed and it takes the separability into account. Moreover, different kinds of discretizations and formulations of the optimization problem are discussed as well as the effect of ill-conditioning.</p><p>Computation of parameters often includes as a part solution of linear system of equations <i>Ax = b</i>. The corresponding pseudoinverse solution depends on the properties of the matrix <i>A</i> and vector <i>b</i>. The singular value decomposition of <i>A</i> can then be used to construct error propagation matrices and by use of these it is possible to investigate how changes in the input data affect the solution <i>x</i>. Theoretical error bounds based on condition numbers indicate the worst case but the use of experimental error analysis makes it possible to also have information about the effect of a more limited amount of perturbations and in that sense be more realistic. It is shown how the effect of perturbations can be analyzed by a semi-experimental analysis. The analysis combines the theory of the error propagation matrices with an experimental error analysis based on randomly generated perturbations that takes the structure of <i>A</i> into account</p>
|
389 |
Computation of Parameters in some Mathematical ModelsWikström, Gunilla January 2002 (has links)
In computational science it is common to describe dynamic systems by mathematical models in forms of differential or integral equations. These models may contain parameters that have to be computed for the model to be complete. For the special type of ordinary differential equations studied in this thesis, the resulting parameter estimation problem is a separable nonlinear least squares problem with equality constraints. This problem can be solved by iteration, but due to complicated computations of derivatives and the existence of several local minima, so called short-cut methods may be an alternative. These methods are based on simplified versions of the original problem. An algorithm, called the modified Kaufman algorithm, is proposed and it takes the separability into account. Moreover, different kinds of discretizations and formulations of the optimization problem are discussed as well as the effect of ill-conditioning. Computation of parameters often includes as a part solution of linear system of equations Ax = b. The corresponding pseudoinverse solution depends on the properties of the matrix A and vector b. The singular value decomposition of A can then be used to construct error propagation matrices and by use of these it is possible to investigate how changes in the input data affect the solution x. Theoretical error bounds based on condition numbers indicate the worst case but the use of experimental error analysis makes it possible to also have information about the effect of a more limited amount of perturbations and in that sense be more realistic. It is shown how the effect of perturbations can be analyzed by a semi-experimental analysis. The analysis combines the theory of the error propagation matrices with an experimental error analysis based on randomly generated perturbations that takes the structure of A into account
|
390 |
CONTRIBUTION TO QUANTITATIVE MICROWAVE IMAGING TECHNIQUES FOR BIOMEDICAL APPLICATIONSHenriksson, Tommy January 2009 (has links)
This dissertation presents a contribution to quantitative microwave imaging for breast tumor detection. The study made in the frame of a joint supervision Ph.D. thesis between University Paris-SUD 11 (France) and Mälardalen University (Sweden), has been conducted through two experimental microwave imaging setups, the existing 2.45 GHz planar camera (France) and the multi-frequency flexible robotic system, (Sweden), under development. In this context a 2D scalar flexible numerical tool based on a Newton-Kantorovich (NK) scheme, has been developed. Quantitative microwave imaging is a three dimensional vectorial nonlinear inverse scattering problem, where the complex permittivity of an object is reconstructed from the measured scattered field, produced by the object. The NK scheme is used in order to deal with the nonlinearity and the ill-posed nature of this problem. A TM polarization and a two dimensional medium configuration have been considered in order to avoid its vectorial aspect. The solution is found iteratively by minimizing the square norm of the error with respect to the scattered field data. Consequently, the convergence of such iterative process requires, at least two conditions. First, an efficient calibration of the experimental system has to be associated to the minimization of model errors. Second, the mean square difference of the scattered field introduced by the presence of the tumor has to be large enough, according to the sensitivity of the imaging system. The existing planar camera associated to a flexible 2D scalar NK code, are considered as an experimental platform for quantitative breast imaging. A preliminary numerical study shows that the multi-view planar system is quite efficient for realistic breast tumor phantoms, according to its characteristics (frequency, planar geometry and water as a coupling medium), as long as realistic noisy data are considered. Furthermore, a multi-incidence planar system, more appropriate in term of antenna-array arrangement, is proposed and its concept is numerically validated. On the other hand, an experimental work which includes a new fluid-mixture for the realization of a narrow band cylindrical breast phantom, a deep investigation in the calibration process and model error minimization, is presented. This conducts to the first quantitative reconstruction of a realistic breast phantom by using multi-view data from the planar camera. Next, both the qualitative and quantitative reconstruction of 3D inclusions into the cylindrical breast phantom, by using data from all the retina, are shown and discussed. Finally, the extended work towards the flexible robotic system is presented. / A dissertation prepared through an international convention for a joint supervision thesis with Université Paris-SUD 11, France / Microwaves in biomedicine
|
Page generated in 0.0662 seconds