• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 112
  • 20
  • 15
  • 11
  • 6
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 210
  • 66
  • 42
  • 24
  • 22
  • 22
  • 21
  • 20
  • 20
  • 19
  • 18
  • 18
  • 18
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Sequential stopping under different environments of weak information

Dendievel, Rémi 10 November 2016 (has links) (PDF)
Notre thèse s’articule autour du thème de l’utilisation optimale de l’information contenue dans un modèle probabiliste flexible. Dans le premier chapitre, nous couvrons des résultats bien connus des martingales comme le théorème de convergence dit L1 des martingales et le théorème d’arrêt. Nous discutons de problèmes ouverts similaires au «last arrival problem» (Bruss et Yor, 2012) qui sont des vrais défis du point de vue théorique et nous ne pouvons que conjecturer la stratégie optimale.Dans les chapitres suivants, nous résolvons des extensions de problèmes d’arrêt optimal proposés par R. R. Weber (U. Cambridge), basés sur le «théorème des odds» (Bruss, 2000). En résumé, il s’agit d’effectuer une seule action (un seul arrêt) lorsque deux suites d’observations indépendantes sont observées simultanément. Nous donnons la solution à ces problèmes pour un nombre (fixé) choisi de processus.Le chapitre suivant passe en revue la plupart des développements récents (depuis 2000) réalisés autour du «théorème des odds» (Bruss, 2000). Le matériel présenté fut publié (2013), il a donc été mis à jour dans cette thèse pour inclure les derniers résultats depuis cette date.Puis nous réservons un chapitre pour une solution explicite pour un cas particulier du Problème d’arrêt optimal de Robbins. Ce chapitre est basé sur un article publié par l’auteur en collaboration avec le professeur Swan (Université de Liège). Ce chapitre offre une belle illustration des difficultés rencontrées lorsque trop d’information sur les variables est contenue dans le modèle. La solution optimale de ce problème dans le cas général n’est pas connue. Par contre, contre-intuitivement, dans le «last arrival problem» mentionné plus haut, moins d’information permet, comme nous le montrons, de trouver en effet la solution optimale.La thèse contient un dernier chapitre sur un problème de nature plus combinatoire que nous pouvons lier à la théorie des graphes dans une certaine mesure. Nous étudions le processus de création d’un graphe aléatoire particulier et les propriétés des cycles créés par celui-ci. Le problème est séquentiel et permet d’envisager des problèmes d’arrêt intéressants. Cette étude a des conséquences en théorie des graphes, en analyse combinatoire ainsi qu’en science de la chimie combinatoire pour les applications. Un de nos résultats est analogue au résultat de Janson (1987) relatif au premier cycle créé pendant la création de graphes aléatoires. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
142

Variantní řešení silnice I/57 v úseku Semetín-Bystřička / Variant solution I/57 in section Semetín-Bystřička

Kovářová, Veronika January 2013 (has links)
The subject of my thesis is a variant I/57 in the section Semetín-Bystřička. The proposed route of communication, was part of an existing communications maintained for its full utilization. Were drawn four proposed variants of the solution, 3 variants are trying their best to use existing communication Jablůnka the village, one suggested option B that leads outside the existing road.
143

Etude des propriétés de transport et d'équilibration de la matière nucléaire dans le domaine de l'énergie de Fermi / Study of the transport and equilibration properties of the nuclear matter in the Fermi energy domain

Henri, Maxime 19 October 2018 (has links)
L’équation d’état de la matière nucléaire est un outil primordial dans la description des collisions entreions lourds, mais également dans la description de la formation d’objets ou de phénomènes astrophysiques(structure des étoiles à neutrons, fusion d’étoiles à neutron). Établir l’équation d’état de la matière nucléairerequiert de définir de manière précise les conditions thermodynamiques (densité, température, asymétrie pro-ton/neutron) dans lesquelles le systèmes évolue. Dans ce travail, nous abordons la problématique de l’étatd’équilibration maximal qui est atteint dans les collisions entre ions lourds, en terme d’énergie et d’isospin.Pour cela, nous utilisons la base de données expérimentale du multi-détecteur INDRA construite par lacollaboration au cours de ces 25 dernières années, en nous intéressant plus particulièrement aux collisionscentrales dans le domaine de l’énergie de Fermi, entre 10 et 100 MeV/nucléon. Nous présentons ainsi dansce document, comment à l’aide de simulation dédiées, il nous a été possible de relier le pouvoir d’arrêt de lamatière nucléaire à la section efficace de collision nucléon-nucléon dans la matière nucléaire. Nous apportonségalement des éléments de réponse au regard du transport de l’isospin dans les collisions centrales à l’aidedes rapports isobariques A = 3 construits à partir des tritons et des hélium-3. Ces différents résultats nouspermettent de mettre en avant le nouveau dispositif expérimental mis en place par les collaborations INDRAet FAZIA : le multi-détecteur FAZIA. Ce dernier est le résultat d’une période de recherche et développementde dix ans, ayant abouti à un multi-détecteur embarquant son électronique numérique sous vide, avec desperformances d’identification accrues (mesure de la charge Z et de la masse A jusqu’à Z = 25) par rapportaux multi-détecteurs des générations précédentes. / The nuclear matter equation of the state is an essential tool in the description of heavy ion collisions,but also in the description of the formation of astrophysical objects or phenomena (neutron star structure,neutron stars fusion). Establishing the nuclear matter equation of state requires a proper definition of thethermodynamic conditions (density, temperature, proton/neutron asymmetry) in which the system evolves.In this work, we address the issue of equilibration reached in heavy ion collisions, in terms of energy andisospin. To do this, we use the experimental database of the INDRA array built by the collaboration over thepast 25 years, focusing on central collisions in the Fermi energy domain, between 10 and 100 MeV/nucleon.In this document, we present how, with the help of dedicated simulations, it has been possible to link thestopping power of nuclear matter to the in-medium nucleon-nucleon cross-section. We also provide someanswers regarding isospin transport in central collisions using the isobaric ratios A = 3 based on the tritonsand helium-3 particles. These different results allow us to highlight the new experimental apparatus devel-loped by the INDRA and FAZIA collaborations : the FAZIA array. The latter is the result of a ten-yearperiod of research and development, resulting in an array embedded its digital electronic under vacuum, withincreased identification performance (measurement of the Z charge and A mass up to Z = 25) compared tothe previous generations arrays.
144

Contributions to the Theory of Piecewise Deterministic Markov Processes and Applications to Generalized Age Processes and Storage Models

Löpker, Andreas 09 January 2006 (has links)
Eine Klasse von Markovprozessen mit deterministischem Pfaden und zufälligen Sprüngen wird unter Zuhilfenahme von Martingalen und des erweiterten infinitesimalen Generators untersucht. Dabei steht die Berechnung des Erwartungswertes und der Laplacetransformierten bestimmter Stoppzeiten im Vordergrund. Des weiteren wird die Frage untersucht, wann die in Frage kommenden Prozesse über stationäre Verteilungen verfügen und wie diese im Existenzfall beschaffen sind. Die Methoden werden am Beispiel eines verallgemeinerten Altersprozesses und eines Lager- bzw. Dammprozesses vorgeführt.
145

Discrétisation de processus à des temps d’arrêt et Quantification d'incertitude pour des algorithmes stochastiques / Discretization of processes at stopping times and Uncertainty quantification of stochastic approximation limits

Stazhynski, Uladzislau 12 December 2018 (has links)
Cette thèse contient deux parties qui étudient deux sujets différents. Les Chapitres 1-4 sont consacrés aux problèmes de discrétisation de processus à des temps d’arrêt. Dans le Chapitre 1 on étudie l'erreur de discrétisation optimale pour des intégrales stochastiques par rapport à une semimartingale brownienne multidimensionnelle continue. Dans ce cadre on établit une borne inférieure trajectorielle pour la variation quadratique renormalisée de l'erreur. On fournit une suite de temps d’arrêt qui donne une discrétisation asymptotiquement optimale. Cette suite est définie comme temps de sortie d'ellipsoïdes aléatoires par la semimartingale. Par rapport aux résultats précédents on permet une classe de semimartingales assez large. On démontre qui la borne inférieure est exacte. Dans le Chapitre 2 on étudie la version adaptative au modèle de la discrétisation optimale d’intégrales stochastique. Dans le Chapitre 1 la construction de la stratégie optimale utilise la connaissance du coefficient de diffusion de la semimartingale considérée. Dans ce travail on établit une stratégie de discrétisation asymptotiquement optimale qui est adaptative au modèle et n'utilise pas aucune information sur le modèle. On démontre l'optimalité pour une classe de grilles de discrétisation assez générale basée sur les technique de noyau pour l'estimation adaptative. Dans le Chapitre 3 on étudie la convergence en loi des erreurs de discrétisation renormalisées de processus d’Itô pour une classe concrète et assez générale de grilles de discrétisation données par des temps d’arrêt. Les travaux précédents sur le sujet considèrent seulement le cas de dimension 1. En plus ils concentrent sur des cas particuliers des grilles, ou démontrent des résultats sous des hypothèses abstraites. Dans notre travail on donne explicitement la distribution limite sous une forme claire et simple, les résultats sont démontré dans le cas multidimensionnel pour le processus et pour l'erreur de discrétisation. Dans le Chapitre 4 on étudie le problème d'estimation paramétrique pour des processus de diffusion basée sur des observations à temps d’arrêt. Les travaux précédents sur le sujet considèrent que des temps d'observation déterministes, fortement prévisibles ou aléatoires indépendants du processus. Sous des hypothèses faibles on construit une suite d'estimateurs consistante pour une classe large de grilles d'observation données par des temps d’arrêt. On effectue une analyse asymptotique de l'erreur d'estimation. En outre, dans le cas du paramètre de dimension 1, pour toute suite d'estimateurs qui vérifie un TCL sans biais, on démontre une borne inférieure uniforme pour la variance asymptotique; on montre que cette borne est exacte. Les Chapitres 5-6 sont consacrés au problème de quantification d'incertitude pour des limites d'approximation stochastique. Dans le Chapitre 5 on analyse la quantification d'incertitude pour des limites d'approximation stochastique (SA). Dans notre cadre la limite est définie comme un zéro d'une fonction donnée par une espérance. Cette espérance est prise par rapport à une variable aléatoire pour laquelle le modèle est supposé de dépendre d'un paramètre incertain. On considère la limite de SA comme une fonction de cette paramètre. On introduit un algorithme qui s'appelle USA (Uncertainty for SA). C'est une procédure en dimension croissante pour calculer les coefficients de base d'expansion de chaos de cette fonction dans une base d'un espace de Hilbert bien choisi. La convergence de USA dans cet espace de Hilbert est démontré. Dans le Chapitre 6 on analyse le taux de convergence dans L2 de l'algorithme USA développé dans le Chapitre 5. L'analyse est non trivial à cause de la dimension infinie de la procédure. Le taux obtenu dépend du modèle et des paramètres utilisés dans l'algorithme USA. Sa connaissance permet d'optimiser la vitesse de croissance de la dimension dans USA. / This thesis consists of two parts which study two separate subjects. Chapters 1-4 are devoted to the problem of processes discretization at stopping times. In Chapter 1 we study the optimal discretization error of stochastic integrals, driven by a multidimensional continuous Brownian semimartingale. In this setting we establish a path wise lower bound for the renormalized quadratic variation of the error and we provide a sequence of discretization stopping times, which is asymptotically optimal. The latter is defined as hitting times of random ellipsoids by the semimartingale at hand. In comparison with previous available results, we allow a quite large class of semimartingales and we prove that the asymptotic lower bound is attainable. In Chapter 2 we study the model-adaptive optimal discretization error of stochastic integrals. In Chapter 1 the construction of the optimal strategy involved the knowledge about the diffusion coefficient of the semimartingale under study. In this work we provide a model-adaptive asymptotically optimal discretization strategy that does not require any prior knowledge about the model. In Chapter 3 we study the convergence in distribution of renormalized discretization errors of Ito processes for a concrete general class of random discretization grids given by stopping times. Previous works on the subject only treat the case of dimension 1. Moreover they either focus on particular cases of grids, or provide results under quite abstract assumptions with implicitly specified limit distribution. At the contrast we provide explicitly the limit distribution in a tractable form in terms of the underlying model. The results hold both for multidimensional processes and general multidimensional error terms. In Chapter 4 we study the problem of parametric inference for diffusions based on observations at random stopping times. We work in the asymptotic framework of high frequency data over a fixed horizon. Previous works on the subject consider only deterministic, strongly predictable or random, independent of the process, observation times, and do not cover our setting. Under mild assumptions we construct a consistent sequence of estimators, for a large class of stopping time observation grids. Further we carry out the asymptotic analysis of the estimation error and establish a Central Limit Theorem (CLT) with a mixed Gaussian limit. In addition, in the case of a 1-dimensional parameter, for any sequence of estimators verifying CLT conditions without bias, we prove a uniform a.s. lower bound on the asymptotic variance, and show that this bound is sharp. In Chapters 5-6 we study the problem of uncertainty quantification for stochastic approximation limits. In Chapter 5 we analyze the uncertainty quantification for the limit of a Stochastic Approximation (SA) algorithm. In our setup, this limit is defined as the zero of a function given by an expectation. The expectation is taken w.r.t. a random variable for which the model is assumed to depend on an uncertain parameter. We consider the SA limit as a function of this parameter. We introduce the so-called Uncertainty for SA (USA) algorithm, an SA algorithm in increasing dimension for computing the basis coefficients of a chaos expansion of this function on an orthogonal basis of a suitable Hilbert space. The almost-sure and Lp convergences of USA, in the Hilbert space, are established under mild, tractable conditions. In Chapter 6 we analyse the L2-convergence rate of the USA algorithm designed in Chapter 5.The analysis is non-trivial due to infinite dimensionality of the procedure. Moreover, our setting is not covered by the previous works on infinite dimensional SA. The obtained rate depends non-trivially on the model and the design parameters of the algorithm. Its knowledge enables optimization of the dimension growth speed in the USA algorithm, which is the key factor of its efficient performance.
146

Reducing Training Time in Text Visual Question Answering

Behboud, Ghazale 15 July 2022 (has links)
Artificial Intelligence (AI) and Computer Vision (CV) have brought the promise of many applications along with many challenges to solve. The majority of current AI research has been dedicated to single-modal data processing meaning they use only one modality such as visual recognition or text recognition. However, real-world challenges are often a combination of different modalities of data such as text, audio and images. This thesis focuses on solving the Visual Question Answering (VQA) problem which is a significant multi-modal challenge. VQA is defined as a computer vision system that when given a question about an image will answer based on an understanding of both the question and image. The goal is improving the training time of VQA models. In this thesis, Look, Read, Reason and Answer (LoRRA), which is a state-of-the-art architecture, is used as the base model. Then, Reduce Uni-modal Biases (RUBi) is applied to this model to reduce the importance of uni- modal biases in training. Finally, an early stopping strategy is employed to stop the training process once the model accuracy has converged to prevent the model from overfitting. Numerical results are presented which show that training LoRRA with RUBi and early stopping can converge in less than 5 hours. The impact of batch size, learning rate and warm up hyper parameters is also investigated and experimental results are presented. / Graduate
147

Early stopping for iterative estimation procedures

Stankewitz, Bernhard 07 June 2024 (has links)
Diese Dissertation ist ein Beitrag zum Forschungsfeld Early stopping im Kontext iterativer Schätzverfahren. Wir betrachten Early stopping dabei sowohl aus der Perspektive impliziter Regularisierungsverfahren als auch aus der Perspektive adaptiver Methoden Analog zu expliziter Regularisierung reduziert das Stoppen eines Schätzverfahrens den stochastischen Fehler/die Varianz des endgültigen Schätzers auf Kosten eines zusätzlichen Approximationsfehlers/Bias. In diesem Forschungsbereich präsentieren wir eine neue Analyse des Gradientenabstiegsverfahrens für konvexe Lernprobleme in einem abstrakten Hilbert-Raum. Aus der Perspektive adaptiver Methoden müssen iterative Schätzerverfahren immer mit einer datengetriebenen letzten Iteration m kombiniert werden, die sowohl under- als auch over-fitting verhindert. In diesem Forschungsbereichpräsentieren wir zwei Beiträge: In einem statistischen inversen Problem, das durch iteratives Trunkieren der Singulärwertzerlegung regularisiert wird, untersuchen wir, unter welchen Umständen optimale Adaptiertheit erreicht werden kann, wenn wir an der ersten Iteration m stoppen, an der die geglätteten Residuen kleiner sind als ein kritischer Wert. Für L2-Boosting mittels Orthogonal Matching Pursuit (OMP) in hochdimensionalen linearen Modellen beweisen wir, dass sequenzielle Stoppverfahren statistische Optimalität garantieren können. Die Beweise beinhalten eine subtile punktweise Analyse einer stochastischen Bias-Varianz-Zerlegung, die durch den Greedy-Algorithmus, der OMP unterliegt, induziert wird. Simulationsstudien zeigen, dass sequentielle Methoden zu deutlich reduzierten Rechenkosten die Leistung von Standardalgorithmen wie dem kreuzvalidierten Lasso oder der nicht-sequentiellen Modellwahl über ein hochdimensionales Akaike- Kriterium erbringen können. / This dissertation contributes to the growing literature on early stopping in modern statistics and machine learning. We consider early stopping from the perspective of both implicit regularization and adaptive estimation. From the former, analogous to an explicit regularization method, halting an iterative estimation procedure reduces the stochastic error/variance of the final estimator at the cost of some bias. In this area, we present a novel analysis of gradient descent learning for convex loss functions in an abstract Hilbert space setting, which combines techniques from inexact optimization and concentration of measure. From the perspective of adaptive estimation, iterative estimation procedures have to be combined with a data-driven choice m of the effectively selected iteration in order to avoid under- as well as over-fitting. In this area, we present two contributions: For truncated SVD estimation in statistical inverse problems, we examine under what circumstances optimal adaptation can be achieved by early stopping at the first iteration at which the smoothed residuals are smaller than a critical value. For L2-boosting via orthogonal matching pursuit (OMP) in high dimensional linear models, we prove that sequential early stopping rules can preserve statistical optimality in terms of a general oracle inequality for the empirical risk and recently established optimal convergence rates for the population risk.
148

Robust Control for Hybrid, Nonlinear Systems

Chudoung, Jerawan 20 April 2000 (has links)
We develop the robust control theories of stopping-time nonlinear systems and switching-control nonlinear systems. We formulate a robust optimal stopping-time control problem for a state-space nonlinear system and give the connection between various notions of lower value function for the associated game (and storage function for the associated dissipative system) with solutions of the appropriate variational inequality (VI). We show that the stopping-time rule can be obtained by solving the VI in the viscosity sense. It also happens that a positive definite supersolution of the VI can be used for stability analysis. We also show how to solve the VI for some prototype examples with one-dimensional state space. For the robust optimal switching-control problem, we establish the Dynamic Programming Principle (DPP) for the lower value function of the associated game and employ it to derive the appropriate system of quasivariational inequalities (SQVI) for the lower value vector function. Moreover we formulate the problem in the <I>L</I>₂-gain/dissipative system framework. We show that, under appropriate assumptions, continuous switching-storage (vector) functions are characterized as viscosity supersolutions of the SQVI, and that the minimal such storage function is equal to the lower value function for the game. We show that the control strategy achieving the dissipative inequality is obtained by solving the SQVI in the viscosity sense; in fact this solution is also used to address stability analysis of the switching system. In addition we prove the comparison principle between a viscosity subsolution and a viscosity supersolution of the SQVI satisfying a boundary condition and use it to give an alternative derivation of the characterization of the lower value function. Finally we solve the SQVI for a simple one-dimensional example by a direct geometric construction. / Ph. D.
149

Dual-energy cone-beam CT for proton therapy / Tomodensitométrie conique bi-énergie pour la proton thérapie

Vilches Freixas, Gloria 27 October 2017 (has links)
La proton thérapie est une modalité de traitement du cancer qu’utilise des faisceaux de protons. Les systèmes de planification de traitement actuels se basent sur une image de l’anatomie du patient acquise par tomodensitométrie. Le pouvoir d’arrêt des protons relatif à l’eau (Stopping Power Ratio en Anglais, SPR) est déterminé à partir des unités Hounsfield (Hounsfield Units en Anglais, HU) pour calculer la dose absorbée au patient. Les protons sont plus vulnérables que les photons aux modifications du SPR du tissu dans la direction du faisceau dues au mouvement, désalignement ou changements anatomiques. De plus, les inexactitudes survenues de la CT de planification et intrinsèques à la conversion HU-SPR contribuent énormément à l’incertitude de la portée des protons. Dans la pratique clinique, au volume de traitement s’ajoutent des marges de sécurité pour tenir en compte ces incertitudes en détriment de perdre la capacité d’épargner les tissus autour de la tumeur. L’usage de l’imagerie bi-énergie en proton thérapie a été proposé pour la première fois en 2009 pour mieux estimer le SPR du patient par rapport à l’imagerie mono-énergie. Le but de cette thèse est d’étudier la potentielle amélioration de l’estimation du SPR des protons en utilisant l’imagerie bi-énergie, pour ainsi réduire l’incertitude dans la prédiction de la portée des protons dans le patient. Cette thèse est appliquée à un nouveau système d’imagerie, l’Imaging Ring (IR), un scanner de tomodensitométrie conique (Cone-Beam CT en Anglais, CBCT) développé pour la radiothérapie guidée par l’image. L’IR est équipé d’une source de rayons X avec un système d’alternance rapide du voltage, synchronisé avec une roue contenant des filtres de différents matériaux que permet des acquisitions CBCT multi-énergie. La première contribution est une méthode pour calibrer les modèles de source et la réponse du détecteur pour être utilisés en simulations d’imagerie X. Deuxièmement, les recherches ont évalué les facteurs que peuvent avoir un impact sur les résultats du procès de décomposition bi-énergie, dès paramètres d’acquisition au post-traitement. Les deux domaines, image et basée en la projection, ont été minutieusement étudiés, avec un spéciale accent aux approches basés en la projection. Deux nouvelles bases de décomposition ont été proposées pour estimer le SPR, sans avoir besoin d’une variable intermédiaire comme le nombre atomique effectif. La dernière partie propose une estimation du SPR des fantômes de caractérisation tissulaire et d’un fantôme anthropomorphique à partir d’acquisitions avec l’IR. Il a été implémentée une correction du diffusé, et il a été proposée une routine pour interpoler linéairement les sinogrammes de basse et haute énergie des acquisitions bi-énergie pour pouvoir réaliser des décompositions en matériaux avec données réelles. Les valeurs réconstruits du SPR ont été comparées aux valeurs du SPR expérimentales déterminés avec un faisceau d’ions de carbone. / Proton therapy is a promising radiation treatment modality that uses proton beams to treat cancer. Current treatment planning systems rely on an X-ray computed tomography (CT) image of the patient's anatomy to design the treatment plan. The proton stopping-power ratio relative to water (SPR) is derived from CT numbers (HU) to compute the absorbed dose in the patient. Protons are more vulnerable than photons to changes in tissue SPR in the beam direction caused by movement, misalignment or anatomical changes. In addition, inaccuracies arising from the planning CT and intrinsic to the HU-SPR conversion greatly contribute to the proton range uncertainty. In clinical practice, safety margins are added to the treatment volume to account for these uncertainties at the expense of losing organ-sparing capabilities. The use of dual-energy (DE) in proton therapy was first suggested in 2009 to better estimate the SPR with respect to single-energy X-ray imaging. The aim of this thesis work is to investigate the potential improvement in determining proton SPR using DE to reduce the uncertainty in predicting the proton range in the patient. This PhD work is applied to a new imaging device, the Imaging Ring (IR), which is a cone-beam CT (CBCT) scanner developed for image-guided radiotherapy (IGRT). The IR is equipped with a fast kV switching X-ray source, synchronized with a filter wheel, allowing for multi-energy CBCT imaging. The first contribution of this thesis is a method to calibrate a model for the X-ray source and the detector response to be used in X-ray image simulations. It has been validated experimentally on three CBCT scanners. Secondly, the investigations have evaluated the factors that have an impact on the outcome of the DE decomposition process, from the acquisition parameters to the post-processing. Both image- and projection-based decomposition domains have been thoroughly investigated, with special emphasis on projection-based approaches. Two novel DE decomposition bases have been proposed to estimate proton SPRs, without the need for an intermediate variable such as the effective atomic number. The last part of the thesis proposes an estimation of proton SPR maps of tissue characterization and anthropomorphic phantoms through DE-CBCT acquisitions with the IR. A correction for X-ray scattering has been implemented off-line, and a routine to linearly interpolate low-energy and high-energy sinograms from sequential and fast-switching DE acquisitions has been proposed to perform DE material decomposition in the projection domain with real data. DECT-derived SPR values have been compared with experimentally-determined SPR values in a carbon-ion beam.
150

Contribution à l’étude des processus markoviens déterministes par morceaux : étude d’un cas-test de la sûreté de fonctionnement et problème d’arrêt optimal à horizon aléatoire

Gonzalez, Karen 03 December 2010 (has links)
Les Processus Markoviens Déterministes par Morceaux (PDMP) ont été introduits dans la littérature par M.H.A Davis comme une classe générale de modèles stochastiques. Les PDMP forment une famille de processus markoviens qui décrivent une trajectoire déterministe ponctuée par des sauts aléatoires. Dans une première partie, les PDMP sont utilisés pour calculer des probabilités d'événements redoutés pour un cas-test de la fiabilité dynamique (le réservoir chauffé) par deux méthodes numériques différentes : la première est basée sur la résolution du système différentieldécrivant l'évolution physique du réservoir et la seconde utilise le calcul de l'espérancede la fonctionnelle d'un PDMP par un système d'équations intégro-différentielles.Dans la seconde partie, nous proposons une méthode numérique pour approcher lafonction valeur du problème d'arrêt optimal pour un PDMP. Notre approche estbasée sur la quantification de la position après saut et le temps inter-sauts de lachaîne de Markov sous-jacente au PDMP, et la discréetisation en temps adaptée à latrajectoire du processus. Ceci nous permet d'obtenir une vitesse de convergence denotre schéma numérique et de calculer un temps d'arrêt ε-optimal. / Piecewise Deterministic Markov Processes (PDMP's) have been introduced inthe literature by M.H.A. Davis as a general class of stochastics models. PDMP's area family of Markov processes involving deterministic motion punctuated by randomjumps. In a first part, PDMP's are used to compute probabilities of top eventsfor a case-study of dynamic reliability (the heated tank system) with two di#erentmethods : the first one is based on the resolution of the differential system giving thephysical evolution of the tank and the second uses the computation of the functionalof a PDMP by a system of integro-differential equations. In the second part, wepropose a numerical method to approximate the value function for the optimalstopping problem of a PDMP. Our approach is based on quantization of the post-jump location and inter-arrival time of the Markov chain naturally embedded in thePDMP, and path-adapted time discretization grids. It allows us to derive boundsfor the convergence rate of the algorithm and to provide a computable ε-optimalstopping time.

Page generated in 0.092 seconds