• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 77
  • 11
  • 2
  • Tagged with
  • 211
  • 91
  • 46
  • 33
  • 33
  • 33
  • 33
  • 32
  • 32
  • 30
  • 26
  • 25
  • 24
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Numerical Methods for Multi-Marginal Optimal Transportation / Méthodes numériques pour le transport optimal multi-marges

Nenna, Luca 05 December 2016 (has links)
Dans cette thèse, notre but est de donner un cadre numérique général pour approcher les solutions des problèmes du transport optimal (TO). L’idée générale est d’introduire une régularisation entropique du problème initial. Le problème régularisé correspond à minimiser une entropie relative par rapport à une mesure de référence donnée. En effet, cela équivaut à trouver la projection d’un couplage par rapport à la divergence de Kullback-Leibler. Cela nous permet d’utiliser l’algorithme de Bregman/Dykstra et de résoudre plusieurs problèmes variationnels liés au TO. Nous nous intéressons particulièrement à la résolution des problèmes du transport optimal multi-marges (TOMM) qui apparaissent dans le cadre de la dynamique des fluides (équations d’Euler incompressible à la Brenier) et de la physique quantique (la théorie de fonctionnelle de la densité ). Dans ces cas, nous montrons que la régularisation entropique joue un rôle plus important que de la simple stabilisation numérique. De plus, nous donnons des résultats concernant l’existence des transports optimaux (par exemple des transports fractals) pour le problème TOMM. / In this thesis we aim at giving a general numerical framework to approximate solutions to optimal transport (OT) problems. The general idea is to introduce an entropic regularization of the initialproblems. The regularized problem corresponds to the minimization of a relative entropy with respect a given reference measure. Indeed, this is equivalent to find the projection of the joint coupling with respect the Kullback-Leibler divergence. This allows us to make use the Bregman/Dykstra’s algorithm and solve several variational problems related to OT. We are especially interested in solving multi-marginal optimal transport problems (MMOT) arising in Physics such as in Fluid Dynamics (e.g. incompressible Euler equations à la Brenier) and in Quantum Physics (e.g. Density Functional Theory). In these cases we show that the entropic regularization plays a more important role than a simple numerical stabilization. Moreover, we also give some important results concerning existence and characterization of optimal transport maps (e.g. fractal maps) for MMOT .
202

Estimation distribuée adaptative sur les réseaux multitâches / Distributed adaptive estimation over multitask networks

Nassif, Roula 30 November 2016 (has links)
L’apprentissage adaptatif distribué sur les réseaux permet à un ensemble d’agents de résoudre des problèmes d’estimation de paramètres en ligne en se basant sur des calculs locaux et sur des échanges locaux avec les voisins immédiats. La littérature sur l’estimation distribuée considère essentiellement les problèmes à simple tâche, où les agents disposant de fonctions objectives séparables doivent converger vers un vecteur de paramètres commun. Cependant, dans de nombreuses applications nécessitant des modèles plus complexes et des algorithmes plus flexibles, les agents ont besoin d’estimer et de suivre plusieurs vecteurs de paramètres simultanément. Nous appelons ce type de réseau, où les agents doivent estimer plusieurs vecteurs de paramètres, réseau multitâche. Bien que les agents puissent avoir différentes tâches à résoudre, ils peuvent capitaliser sur le transfert inductif entre eux afin d’améliorer les performances de leurs estimés. Le but de cette thèse est de proposer et d’étudier de nouveaux algorithmes d’estimation distribuée sur les réseaux multitâches. Dans un premier temps, nous présentons l’algorithme diffusion LMS qui est une stratégie efficace pour résoudre les problèmes d’estimation à simple-tâche et nous étudions théoriquement ses performances lorsqu’il est mis en oeuvre dans un environnement multitâche et que les communications entre les noeuds sont bruitées. Ensuite, nous présentons une stratégie de clustering non-supervisé permettant de regrouper les noeuds réalisant une même tâche en clusters, et de restreindre les échanges d’information aux seuls noeuds d’un même cluster / Distributed adaptive learning allows a collection of interconnected agents to perform parameterestimation tasks from streaming data by relying solely on local computations and interactions with immediate neighbors. Most prior literature on distributed inference is concerned with single-task problems, where agents with separable objective functions need to agree on a common parameter vector. However, many network applications require more complex models and flexible algorithms than single-task implementations since their agents involve the need to estimate and track multiple objectives simultaneously. Networks of this kind, where agents need to infer multiple parameter vectors, are referred to as multitask networks. Although agents may generally have distinct though related tasks to perform, they may still be able to capitalize on inductive transfer between them to improve their estimation accuracy. This thesis is intended to bring forth advances on distributed inference over multitask networks. First, we present the well-known diffusion LMS strategies to solve single-task estimation problems and we assess their performance when they are run in multitask environments in the presence of noisy communication links. An improved strategy allowing the agents to adapt their cooperation to neighbors sharing the same objective is presented in order to attain improved learningand estimation over networks. Next, we consider the multitask diffusion LMS strategy which has been proposed to solve multitask estimation problems where the network is decomposed into clusters of agents seeking different
203

Modélisation et identification de paramètres pour les empreintes des faisceaux de haute énergie. / Modelling and parameter identification for energy beam footprints

Bashtova, Kateryna 05 December 2016 (has links)
Le progrès technologique nécessite des techniques de plus en plus sophistiquées et précises de traitement de matériaux. Nous étudions le traitement de matériaux par faisceaux de haute énergie : un jet d’eau abrasif, une sonde ionique focalisée, un laser. L’évolution de la surface du matériau sous l’action du faisceau de haute énergie est modélisée par une EDP. Cette équation contient l’ensemble des coefficients inconnus - les paramètres de calibration de mo- dèle. Les paramètres inconnus peuvent être calibrés par minimisation de la fonction coût, c’est-à-dire, la fonction qui décrit la différence entre le résultat de la modélisation et les données expérimentales. Comme la surface modélisée est une solution du problème d’EDP, cela rentre dans le cadre de l’optimisation sous contrainte d’EDP. L’identification a été rendue bien posée par la régularisation du type Tikhonov. Le gradient de la fonction coût a été obtenu en utilisant les deux méthodes : l’approche adjointe et la différen- ciation automatique. Une fois la fonction coût et son gradient obtenus, nous avons utilisé un minimiseur L-BFGS pour réaliser la minimisation.Le problème de la non-unicité de la solution a été résolu pour le problème de traitement par le jet d’eau abrasif. Des effets secondaires ne sont pas inclus dans le modèle. Leur impact sur le procédé de calibration a été évité. Ensuite, le procédé de calibration a été validé pour les données synthétiques et expérimentales. Enfin, nous avons proposé un critère pour distinguer facilement entre le régime thermique et non- thermique d’ablation par laser. / The technological progress demands more and more sophisticated and precise techniques of the treatment of materials. We study the machining of the material with the high energy beams: the abrasive waterjet, the focused ion beam and the laser. Although the physics governing the energy beam interaction with material is very different for different application, we can use the same approach to the mathematical modeling of these processes.The evolution of the material surface under the energy beam impact is modeled by PDE equation. This equation contains a set of unknown parameters - the calibration parameters of the model. The unknown parameters can be identified by minimization of the cost function, i.e., function that describes the differ- ence between the result of modeling and the corresponding experimental data. As the modeled surface is a solution of the PDE problem, this minimization is an example of PDE-constrained optimization problem. The identification problem was regularized using Tikhonov regularization. The gradient of the cost function was obtained both by using the variational approach and by means of the automatic differentiation. Once the cost function and its gradient calculated, the minimization was performed using L-BFGS minimizer.For the abrasive waterjet application the problem of non-uniqueness of numerical solution is solved. The impact of the secondary effects non included into the model is avoided as well. The calibration procedure is validated on both synthetic and experimental data.For the laser application, we presented a simple criterion that allows to distinguish between the thermal and non-thermal laser ablation regimes.
204

Optimization framework for large-scale sparse blind source separation / Stratégies d'optimisation pour la séparation aveugle de sources parcimonieuses grande échelle

Kervazo, Christophe 04 October 2019 (has links)
Lors des dernières décennies, la Séparation Aveugle de Sources (BSS) est devenue un outil de premier plan pour le traitement de données multi-valuées. L’objectif de ce doctorat est cependant d’étudier les cas grande échelle, pour lesquels la plupart des algorithmes classiques obtiennent des performances dégradées. Ce document s’articule en quatre parties, traitant chacune un aspect du problème: i) l’introduction d’algorithmes robustes de BSS parcimonieuse ne nécessitant qu’un seul lancement (malgré un choix d’hyper-paramètres délicat) et fortement étayés mathématiquement; ii) la proposition d’une méthode permettant de maintenir une haute qualité de séparation malgré un nombre de sources important: iii) la modification d’un algorithme classique de BSS parcimonieuse pour l’application sur des données de grandes tailles; et iv) une extension au problème de BSS parcimonieuse non-linéaire. Les méthodes proposées ont été amplement testées, tant sur données simulées que réalistes, pour démontrer leur qualité. Des interprétations détaillées des résultats sont proposées. / During the last decades, Blind Source Separation (BSS) has become a key analysis tool to study multi-valued data. The objective of this thesis is however to focus on large-scale settings, for which most classical algorithms fail. More specifically, it is subdivided into four sub-problems taking their roots around the large-scale sparse BSS issue: i) introduce a mathematically sound robust sparse BSS algorithm which does not require any relaunch (despite a difficult hyper-parameter choice); ii) introduce a method being able to maintain high quality separations even when a large-number of sources needs to be estimated; iii) make a classical sparse BSS algorithm scalable to large-scale datasets; and iv) an extension to the non-linear sparse BSS problem. The methods we propose are extensively tested on both simulated and realistic experiments to demonstrate their quality. In-depth interpretations of the results are proposed.
205

Apprentissage basé sur le Qini pour la prédiction de l’effet causal conditionnel

Belbahri, Mouloud-Beallah 08 1900 (has links)
Les modèles uplift (levier en français) traitent de l'inférence de cause à effet pour un facteur spécifique, comme une intervention de marketing. En pratique, ces modèles sont construits sur des données individuelles issues d'expériences randomisées. Un groupe traitement comprend des individus qui font l'objet d'une action; un groupe témoin sert de comparaison. La modélisation uplift est utilisée pour ordonner les individus par rapport à la valeur d'un effet causal, par exemple, positif, neutre ou négatif. Dans un premier temps, nous proposons une nouvelle façon d'effectuer la sélection de modèles pour la régression uplift. Notre méthodologie est basée sur la maximisation du coefficient Qini. Étant donné que la sélection du modèle correspond à la sélection des variables, la tâche est difficile si elle est effectuée de manière directe lorsque le nombre de variables à prendre en compte est grand. Pour rechercher de manière réaliste un bon modèle, nous avons conçu une méthode de recherche basée sur une exploration efficace de l'espace des coefficients de régression combinée à une pénalisation de type lasso de la log-vraisemblance. Il n'y a pas d'expression analytique explicite pour la surface Qini, donc la dévoiler n'est pas facile. Notre idée est de découvrir progressivement la surface Qini comparable à l'optimisation sans dérivée. Le but est de trouver un maximum local raisonnable du Qini en explorant la surface près des valeurs optimales des coefficients pénalisés. Nous partageons ouvertement nos codes à travers la librairie R tools4uplift. Bien qu'il existe des méthodes de calcul disponibles pour la modélisation uplift, la plupart d'entre elles excluent les modèles de régression statistique. Notre librairie entend combler cette lacune. Cette librairie comprend des outils pour: i) la discrétisation, ii) la visualisation, iii) la sélection de variables, iv) l'estimation des paramètres et v) la validation du modèle. Cette librairie permet aux praticiens d'utiliser nos méthodes avec aise et de se référer aux articles méthodologiques afin de lire les détails. L'uplift est un cas particulier d'inférence causale. L'inférence causale essaie de répondre à des questions telle que « Quel serait le résultat si nous donnions à ce patient un traitement A au lieu du traitement B? ». La réponse à cette question est ensuite utilisée comme prédiction pour un nouveau patient. Dans la deuxième partie de la thèse, c’est sur la prédiction que nous avons davantage insisté. La plupart des approches existantes sont des adaptations de forêts aléatoires pour le cas de l'uplift. Plusieurs critères de segmentation ont été proposés dans la littérature, tous reposant sur la maximisation de l'hétérogénéité. Cependant, dans la pratique, ces approches sont sujettes au sur-ajustement. Nous apportons une nouvelle vision pour améliorer la prédiction de l'uplift. Nous proposons une nouvelle fonction de perte définie en tirant parti d'un lien avec l'interprétation bayésienne du risque relatif. Notre solution est développée pour une architecture de réseau de neurones jumeaux spécifique permettant d'optimiser conjointement les probabilités marginales de succès pour les individus traités et non-traités. Nous montrons que ce modèle est une généralisation du modèle d'interaction logistique de l'uplift. Nous modifions également l'algorithme de descente de gradient stochastique pour permettre des solutions parcimonieuses structurées. Cela aide dans une large mesure à ajuster nos modèles uplift. Nous partageons ouvertement nos codes Python pour les praticiens désireux d'utiliser nos algorithmes. Nous avons eu la rare opportunité de collaborer avec l'industrie afin d'avoir accès à des données provenant de campagnes de marketing à grande échelle favorables à l'application de nos méthodes. Nous montrons empiriquement que nos méthodes sont compétitives avec l'état de l'art sur les données réelles ainsi qu'à travers plusieurs scénarios de simulations. / Uplift models deal with cause-and-effect inference for a specific factor, such as a marketing intervention. In practice, these models are built on individual data from randomized experiments. A targeted group contains individuals who are subject to an action; a control group serves for comparison. Uplift modeling is used to order the individuals with respect to the value of a causal effect, e.g., positive, neutral, or negative. First, we propose a new way to perform model selection in uplift regression models. Our methodology is based on the maximization of the Qini coefficient. Because model selection corresponds to variable selection, the task is haunting and intractable if done in a straightforward manner when the number of variables to consider is large. To realistically search for a good model, we conceived a searching method based on an efficient exploration of the regression coefficients space combined with a lasso penalization of the log-likelihood. There is no explicit analytical expression for the Qini surface, so unveiling it is not easy. Our idea is to gradually uncover the Qini surface in a manner inspired by surface response designs. The goal is to find a reasonable local maximum of the Qini by exploring the surface near optimal values of the penalized coefficients. We openly share our codes through the R Package tools4uplift. Though there are some computational methods available for uplift modeling, most of them exclude statistical regression models. Our package intends to fill this gap. This package comprises tools for: i) quantization, ii) visualization, iii) variable selection, iv) parameters estimation and v) model validation. This library allows practitioners to use our methods with ease and to refer to methodological papers in order to read the details. Uplift is a particular case of causal inference. Causal inference tries to answer questions such as ``What would be the result if we gave this patient treatment A instead of treatment B?" . The answer to this question is then used as a prediction for a new patient. In the second part of the thesis, it is on the prediction that we have placed more emphasis. Most existing approaches are adaptations of random forests for the uplift case. Several split criteria have been proposed in the literature, all relying on maximizing heterogeneity. However, in practice, these approaches are prone to overfitting. In this work, we bring a new vision to uplift modeling. We propose a new loss function defined by leveraging a connection with the Bayesian interpretation of the relative risk. Our solution is developed for a specific twin neural network architecture allowing to jointly optimize the marginal probabilities of success for treated and control individuals. We show that this model is a generalization of the uplift logistic interaction model. We modify the stochastic gradient descent algorithm to allow for structured sparse solutions. This helps fitting our uplift models to a great extent. We openly share our Python codes for practitioners wishing to use our algorithms. We had the rare opportunity to collaborate with industry to get access to data from large-scale marketing campaigns favorable to the application of our methods. We show empirically that our methods are competitive with the state of the art on real data and through several simulation setting scenarios.
206

Beyond-mean-field corrections and effective interactions in the nuclear many-body problem / Des corrections au-delà de champ moyen et des interactions efficaces dans le problème à N corps nucléaire

Moghrabi, Kassem 12 September 2013 (has links)
Les approches basées sur les modèles de champ moyen reproduisent avec succès certaines propriétés nucléaires comme les masses et les rayons, dans le cadre des théories de la fonctionnelle de la densité pour l'énergie (EDF). Cependant, plusieurs corrélations complexes sont absentes dans les théories de champ moyen et un certain nombre d'observables liées aux propriétés à une particule et collectives des systèmes nucléoniques ne peuvent pas être prédites avec précision. La nécessité de fournir une description précise des données disponibles ainsi que des prévisions fiables dans les régions exotiques de la carte nucléaire motive l'utilisation de modèles plus sophistiqués, qui vont au-delà du champ moyen. Des corrélations et des corrections d'ordre supérieur (au-delà du premier ordre, qui représente l'approximation de champ moyen) sont introduites dans ces modèles. Un aspect crucial dans ces calculs est le choix de l'interaction efficace qui doit être utilisée quand on va au-delà du premier ordre (les interactions efficaces existantes sont généralement ajustées avec des calculs de champ moyen). Dans la première partie de la thèse, nous traitons l'équation d'état de la matière nucléaire, évaluée jusqu'au deuxième ordre avec la force phénoménologique de Skyrme. Nous analysons la divergence ultraviolette qui est liée à la portée nulle de l'interaction et nous introduisons des interactions régularisées de type Skyrme qui peuvent être utilisées au deuxième ordre. Des procédures de régularisation avec un cutoff et des techniques de régularisation dimensionnelle sont analysées et appliquées. Dans le cas de la régularisation dimensionnelle, des connexions sont naturellement établies entre le cadre EDF et des techniques employées dans les théories de champ effectives. Dans la deuxième partie de la thèse, nous vérifions si les interactions régularisées introduites pour la matière nucléaire peuvent être utilisées également pour les noyaux finis. A titre d'illustration, cette analyse est effectuée dans le modèle de couplage particule vibration, qui représente un exemple de modèle qui va au-delà de l'approximation de champ moyen, où une divergence ultraviolette apparaît si des forces de portée nulle sont utilisées. Ces premières applications suggèrent plusieurs directions à explorer pour fournir à plus long terme des interactions régularisées qui sont bien adaptés pour les calculs au-delà du champ moyen pour les noyaux finis. Les conclusions et des perspectives sont illustrées à la fin du manuscrit. / Mean-field approaches successfully reproduce nuclear bulk properties like masses and radii within the Energy Density Functional (EDF) framework. However, complex correlations are missing in mean-field theories and several observables related to single-particle and collective nuclear properties cannot be predicted accurately. The necessity to provide a precise description of the available data as well as reliable predictions in the exotic regions of the nuclear chart motivates the use of more sophisticated beyond-mean-field models. Correlations and higher-order corrections (beyond the leading mean-field order) are introduced. A crucial aspect in these calculations is the choice of the effective interaction to be used when one goes beyond the leading order (available effective interactions are commonly adjusted at the mean-field level). In the first part, we deal with the equation of state of nuclear matter evaluated up to the second order with the phenomenological Skyrme force. We analyze the ultraviolet divergence that is related to the zero range of the interaction and we introduce Skyrme-type regularized interactions that can be used at second order for matter. Cutoff regularization and dimensional regularization techniques are explored and applied. In the latter case, connections are naturally established between the EDF framework and some techniques employed in Effective Field Theories. In the second part, we check whether the regularized interactions introduced for nuclear matter can be employed also for finite nuclei. As an illustration, this analysis is performed within the particle-vibration model that represents an example of beyond mean-field models where an ultraviolet divergence appears if zero-range forces are used. These first applications suggest several directions to be explored to finally provide regularized interactions that are specially tailored for beyond-mean-field calculations for finite nuclei. Conclusions and perspectives are finally illustrated.
207

Contribution à l'analyse mathématique et à la résolution numérique d'un problème inverse de scattering élasto-acoustique

Estecahandy, Elodie 19 September 2013 (has links) (PDF)
La détermination de la forme d'un obstacle élastique immergé dans un milieu fluide à partir de mesures du champ d'onde diffracté est un problème d'un vif intérêt dans de nombreux domaines tels que le sonar, l'exploration géophysique et l'imagerie médicale. A cause de son caractère non-linéaire et mal posé, ce problème inverse de l'obstacle (IOP) est très difficile à résoudre, particulièrement d'un point de vue numérique. De plus, son étude requiert la compréhension de la théorie du problème de diffraction direct (DP) associé, et la maîtrise des méthodes de résolution correspondantes. Le travail accompli ici se rapporte à l'analyse mathématique et numérique du DP élasto-acoustique et de l'IOP. En particulier, nous avons développé un code de simulation numérique performant pour la propagation des ondes associée à ce type de milieux, basé sur une méthode de type DG qui emploie des éléments finis d'ordre supérieur et des éléments courbes à l'interface afin de mieux représenter l'interaction fluide-structure, et nous l'appliquons à la reconstruction d'objets par la mise en oeuvre d'une méthode de Newton régularisée.
208

Décomposition Modale Empirique : Contribution à la Modélisation Mathématique et Application en Traitement du Signal et de l'Image

Niang, Oumar 20 September 2007 (has links) (PDF)
La Décomposition Modale Empirique (EMD), est une méthode de décomposition multi-résolution de signaux en fonctions Modes Intrinsèques (IMF) et cela, de manière auto-adaptative. En la couplant avec la transformée de Hilbert, elle devient une méthode d'analyse Temps-Fréquence , la transformée de Hilbert-Huang, permettant d'étudier bon nombre de classes de signaux. Malgré ces nombreuses applications, l'une des plus importantes limites de l'EMD est son manque de formalisme mathématique. A la place d'une interpolation par splines cubiques utilisée dans l'EMD classique, nous avons estimé l'enveloppe moyenne par une solution d'un système d'EDP. Par une méthode variationnelle, nous avons établi un cadre théorique pour prouver les résultats de convergence, d'existence de modes et la propriété de presque orthogonalité de l'EMD. La comparaison avec des bancs de filtres itératifs et les ondelettes, montre l'aspect multi-résolution de l'EMD. Deux nouvelles applications en traitement du signal et de l'image sont présentées : l'extraction des intermittences et mode mixing et la restauration par shrinkage par EMD. Enfin le modèle peut servir de base pour l'étude de l'unicité de la décomposition.
209

Régularisations de Faible Complexité pour les Problèmes Inverses

Vaiter, Samuel 10 July 2014 (has links) (PDF)
Cette thèse se consacre aux garanties de reconstruction et de l'analyse de sensibilité de régularisation variationnelle pour des problèmes inverses linéaires bruités. Il s'agit d'un problème d'optimisation convexe combinant un terme d'attache aux données et un terme de régularisation promouvant des solutions vivant dans un espace dit de faible complexité. Notre approche, basée sur la notion de fonctions partiellement lisses, permet l'étude d'une grande variété de régularisations comme par exemple la parcimonie de type analyse ou structurée, l'antiparcimonie et la structure de faible rang. Nous analysons tout d'abord la robustesse au bruit, à la fois en termes de distance entre les solutions et l'objet original, ainsi que la stabilité de l'espace modèle promu. Ensuite, nous étudions la stabilité de ces problèmes d'optimisation à des perturbations des observations. À partir d'observations aléatoires, nous construisons un estimateur non biaisé du risque afin d'obtenir un schéma de sélection de paramètre.
210

Iterative tomographic X-Ray phase reconstruction / Reconstruction tomographique itérative de phase

Weber, Loriane 30 September 2016 (has links)
L’imagerie par contraste de phase suscite un intérêt croissant dans le domaine biomédical, puisqu’il offre un contraste amélioré par rapport à l’imagerie d’atténuation conventionnelle. En effet, le décalage en phase induit par les tissus mous, dans la gamme d’énergie utilisée en imagerie, est environ mille fois plus important que leur atténuation. Le contraste de phase peut être obtenu, entre autres, en laissant un faisceau de rayons X cohérent se propager librement après avoir traversé un échantillon. Dans ce cas, les signaux obtenus peuvent être modélisés par la diffraction de Fresnel. Le défi de l’imagerie de phase quantitative est de retrouver l’atténuation et l’information de phase de l’objet observé, à partir des motifs diffractés enregistrés à une ou plusieurs distances. Ces deux quantités d’atténuation et de phase, sont entremêlées de manière non-linéaire dans le signal acquis. Dans ces travaux, nous considérons les développements et les applications de la micro- et nanotomographie de phase. D’abord, nous nous sommes intéressés à la reconstruction quantitative de biomatériaux à partir d’une acquisition multi-distance. L’estimation de la phase a été effectuée via une approche mixte, basée sur la linéarisation du modèle de contraste. Elle a été suivie d’une étape de reconstruction tomographique. Nous avons automatisé le processus de reconstruction de phase, permettant ainsi l’analyse d’un grand nombre d’échantillons. Cette méthode a été utilisée pour étudier l’influence de différentes cellules osseuses sur la croissance de l’os. Ensuite, des échantillons d’os humains ont été observés en nanotomographie de phase. Nous avons montré le potentiel d’une telle technique sur l’observation et l’analyse du réseau lacuno-canaliculaire de l’os. Nous avons appliqué des outils existants pour caractériser de manière plus approfondie la minéralisation et les l’orientation des fibres de collagènes de certains échantillons. L’estimation de phase, est, néanmoins, un problème inverse mal posé. Il n’existe pas de méthode de reconstruction générale. Les méthodes existantes sont soit sensibles au bruit basse fréquence, soit exigent des conditions strictes sur l’objet observé. Ainsi, nous considérons le problème inverse joint, qui combine l’estimation de phase et la reconstruction tomographique en une seule étape. Nous avons proposé des algorithmes itératifs innovants qui couplent ces deux étapes dans une seule boucle régularisée. Nous avons considéré un modèle de contraste linéarisé, couplé à un algorithme algébrique de reconstruction tomographique. Ces algorithmes sont testés sur des données simulées. / Phase contrast imaging has been of growing interest in the biomedical field, since it provides an enhanced contrast compared to attenuation-based imaging. Actually, the phase shift of the incoming X-ray beam induced by an object can be up to three orders of magnitude higher than its attenuation, particularly for soft tissues in the imaging energy range. Phase contrast can be, among others existing techniques, achieved by letting a coherent X-ray beam freely propagate after the sample. In this case, the obtained and recorded signals can be modeled as Fresnel diffraction patterns. The challenge of quantitative phase imaging is to retrieve, from these diffraction patterns, both the attenuation and the phase information of the imaged object, quantities that are non-linearly entangled in the recorded signal. In this work we consider developments and applications of X-ray phase micro and nano-CT. First, we investigated the reconstruction of seeded bone scaffolds using sed multiple distance phase acquisitions. Phase retrieval is here performed using the mixed approach, based on a linearization of the contrast model, and followed by filtered-back projection. We implemented an automatic version of the phase reconstruction process, to allow for the reconstruction of large sets of samples. The method was applied to bone scaffold data in order to study the influence of different bone cells cultures on bone formation. Then, human bone samples were imaged using phase nano-CT, and the potential of phase nano-imaging to analyze the morphology of the lacuno-canalicular network is shown. We applied existing tools to further characterize the mineralization and the collagen orientation of these samples. Phase retrieval, however, is an ill-posed inverse problem. A general reconstruction method does not exist. Existing methods are either sensitive to low frequency noise, or put stringent requirements on the imaged object. Therefore, we considered the joint inverse problem of combining both phase retrieval and tomographic reconstruction. We proposed an innovative algorithm for this problem, which combines phase retrieval and tomographic reconstruction into a single iterative regularized loop, where a linear phase contrast model is coupled with an algebraic tomographic reconstruction algorithm. This algorithm is applied to numerical simulated data.

Page generated in 0.1088 seconds