• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 172
  • 159
  • 26
  • 17
  • 6
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 376
  • 190
  • 143
  • 91
  • 88
  • 71
  • 61
  • 57
  • 51
  • 48
  • 45
  • 41
  • 40
  • 38
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Réseaux à grand nombre de microphones : applicabilité et mise en œuvre / Implementation and applicability of very large microphone arrays

Vanwynsberghe, Charles 12 December 2016 (has links)
L'apparition récente de microphones numériques MEMS a ouvert de nouvelles perspectives pour le développement de systèmes d'acquisition acoustiques massivement multi-canaux de grande envergure. De tels systèmes permettent de localiser des sources acoustiques avec de bonnes performances. En revanche, de nouvelles contraintes se posent. La première est le flux élevé de données issues de l'antenne, devant être traitées en un temps raisonnable. La deuxième contrainte est de connaître la position des nombreux microphones déployés in situ. Ce manuscrit propose des méthodes répondant à ces deux contraintes. Premièrement, une étude du système d'acquisition est présentée. On montre que les microphones MEMS sont adaptés pour des applications d'antennerie. Ensuite, un traitement en temps réel des signaux acquis via une implémentation parallèle sur GPU est proposé. Cette stratégie répond au problème de flux de données. On dispose ainsi d'un outil d'imagerie temps réel de sources large bande, permettant d'établir un diagnostic dynamique de la scène sonore.Deuxièmement, différentes méthodes de calibration géométrique pour la détermination de la position des microphones sont exposées. Dans des conditions réelles d'utilisation, les méthodes actuelles sont inefficaces pour des antennes étendues et à grand nombre de microphones. Ce manuscrit propose des techniques privilégiant la robustesse du processus de calibration. Les méthodes proposées couvrent différents environnements acoustiques réels, du champ libre au champ réverbérant. Leur efficacité est prouvée par différentes campagnes expérimentales. / Recently, digital MEMS microphones came out and have opened new perspectives. One of them is the design of large-aperture and massively multichannel acoustical acquisition systems. Such systems meet good requirements for efficient source localization. However, new problems arise. First, an important data flow comes from the array, and must be processed fast enough. Second, if the large array is set up in situ, retrieving the position of numerous microphones becomes a challenging task. This thesis proposes methods addressing these two problems. The first part exhibits the description of the acquisition system, which has been developed during the thesis. First, we show that MEMS microphone characteristics are suitable for array processing applications. Then, real-time processing of channel signals is achieved by a parallel GPU implementation. This strategy is one solution to the heavy data flow processing issue. In this way, a real-time acoustic imaging tool was developed, and enables a dynamic wide-band diagnosis, for an arbitrary duration.The second part presents several robust geometric calibration methods: they retrieve microphone positions, based only on the array acoustic signals. Indeed, in real-life conditions, the state of the art methods are inefficient with large arrays. This thesis proposes techniques that guarantee the robustness of the calibration process. The proposed methods allow calibration in the different existing soundscapes, from free field to reverberant field. Various experimental scenarios prove the efficiency of the methods.
272

Étude du problème inverse d'un modèle d'intrusion saline / Study of inverse problem for a seawater intrusion model

Moustafa, Hayat 12 March 2015 (has links)
Cette thèse porte sur l’étude d’un problème inverse de sources pour un modèle bidimensionnel d’intrusion saline. Dans un premier temps, nous nous intéressons à la modélisation du phénomène d’intrusion saline dans un aquifère côtier non confiné. En tenant compte des hypothèses particulières, nous obtenons dans le cas stationnaire une équation elliptique de la charge hydraulique dont le second membre est constitué des sources ponctuelles. L’étude du problème direct consiste à analyser le modèle dérivé et à établir un résultat d’existence et d’unicité d’une solution. Ensuite, dans la partie problème inverse, il s’agit de l’identification de termes sources à partir des mesures locales. Nous traitons les trois questions relatives à ce problème inverse, l’identifiabilité, l’identification et la stabilité. Concernant l’identification, nous formulons le problème inverse comme un problème de contrôle avec une fonctionnelle coût qui calcule l’écart quadratique entre les mesures expérimentales et celles obtenues par la résolution du problème direct. L’optimisation de cette fonction nécessite le calcul de son gradient que nous obtenons par la méthode de sensibilités et par la méthode de l’état adjoint. Quant à la stabilité, nous établissons deux types d’estimations, logarithmiques et lipschitziennes, pour les positions et les intensités de sources dans le cas de l’équation elliptique obtenue et en considérant toujours des mesures intérieures. De plus, nous avons généralisé les résultats des estimations lipschitziennes pour l’équation elliptique de la forme –Δu+k2u=F. La dernière partie de la thèse est destinée à montrer les résultats de l’identification numérique en fonction des paramètres intervenant dans le modèle principal. / This thesis deals with the study of an inverse source problem for a two dimensional seawater intrusion model. First, we focus on the modeling of the seawater intrusion phenomenon in a costal unconfined aquifer. Then considering some specific assumptions, we obtain, in the steady state, an elliptic equation of the hydraulic head with a left hand side formed by point wise sources. The study of the direct problem aims to analyze the derived model and to establish a result of existence and uniqueness of solution. The inverse problem concerns the identification of sources from local measurements. We are interested in the study of uniqueness, identification and stability.Concerning the identification, we transform the inverse problem to a control problem with a cost functional computing the quadratic error between the experimental measures and those obtained by solving the direct problem. To optimize this function, we need to compute its gradient and this can be done by the sensibility and the adjoint methods. Moreover, regarding the stability, we establish two types of estimates, logarithmic and lipschitz, for sources positions and intensities in the case of the elliptic equation assuming interior observations. Furthermore, we have generalized the results of Lipschitz estimates for the elliptic equation –Δu+k2u=F. The last part of the thesis is intended to show the results of the numerical identification based on parameters involved in the main model.
273

Reconstruction en tomographie dynamique par approche inverse sans compensation de mouvement / Reconstruction in dynamic tomography by an inverse approach without motion compensation

Momey, Fabien 20 June 2013 (has links)
La tomographie est la discipline qui cherche à reconstruire une donnée physique dans son volume, à partir de l’information indirecte de projections intégrées de l’objet, à différents angles de vue. L’une de ses applications les plus répandues, et qui constitue le cadre de cette thèse, est l’imagerie scanner par rayons X pour le médical. Or, les mouvements inhérents à tout être vivant, typiquement le mouvement respiratoire et les battements cardiaques, posent de sérieux problèmes dans une reconstruction classique. Il est donc impératif d’en tenir compte, i.e. de reconstruire le sujet imagé comme une séquence spatio-temporelle traduisant son “évolution anatomique” au cours du temps : c’est la tomographie dynamique. Élaborer une méthode de reconstruction spécifique à ce problème est un enjeu majeur en radiothérapie, où la localisation précise de la tumeur dans le temps est un prérequis afin d’irradier les cellules cancéreuses en protégeant au mieux les tissus sains environnants. Des méthodes usuelles de reconstruction augmentent le nombre de projections acquises, permettant des reconstructions indépendantes de plusieurs phases de la séquence échantillonnée en temps. D’autres compensent directement le mouvement dans la reconstruction, en modélisant ce dernier comme un champ de déformation, estimé à partir d’un jeu de données d’acquisition antérieur. Nous proposons dans ce travail de thèse une approche nouvelle ; se basant sur la théorie des problèmes inverses, nous affranchissons la reconstruction dynamique du besoin d’accroissement de la quantité de données, ainsi que de la recherche explicite du mouvement, elle aussi consommatrice d’un surplus d’information. Nous reconstruisons la séquence dynamique à partir du seul jeu de projections courant, avec pour seules hypothèses a priori la continuité et la périodicité du mouvement. Le problème inverse est alors traité rigoureusement comme la minimisation d’un terme d’attache aux données et d’une régularisation. Nos contributions portent sur la mise au point d’une méthode de reconstruction adaptée à l’extraction optimale de l’information compte tenu de la parcimonie des données — un aspect typique du problème dynamique — en utilisant notamment la variation totale (TV) comme régularisation. Nous élaborons un nouveau modèle de projection tomographique précis et compétitif en temps de calcul, basé sur des fonctions B-splines séparables, permettant de repousser encore la limite de reconstruction imposée par la parcimonie. Ces développements sont ensuite insérés dans un schéma de reconstruction dynamique cohérent, appliquant notamment une régularisation TV spatio-temporelle efficace. Notre méthode exploite ainsi de façon optimale la seule information courante à disposition ; de plus sa mise en oeuvre fait preuve d’une grande simplicité. Nous faisons premièrement la démonstration de la force de notre approche sur des reconstructions 2-D+t à partir de données simulées numériquement. La faisabilité pratique de notre méthode est ensuite établie sur des reconstructions 2-D et 3-D+t à partir de données physiques “réelles”, acquises sur un fantôme mécanique et sur un patient / Computerized tomography (CT) aims at the retrieval of 3-D information from a set of projections acquired at different angles around the object of interest (OOI). One of its most common applications, which is the framework of this Ph.D. thesis, is X-ray CT medical imaging. This reconstruction can be severely impaired by the patient’s breath (respiratory) motion and cardiac beating. This is a major challenge in radiotherapy, where the precise localization of the tumor is a prerequisite for cancer cells irradiation with preservation of surrounding healthy tissues. The field of methods dealing with the reconstruction of a dynamic sequence of the OOI is called Dynamic CT. Some state-of-the-art methods increase the number of projections, allowing an independent reconstruction of several phases of the time sampled sequence. Other methods use motion compensation in the reconstruction, by a beforehand estimation on a previous data set, getting the explicit motion through a deformation model. Our work takes a different path ; it uses dynamic reconstruction, based on inverse problems theory, without any additional information, nor explicit knowledge of the motion. The dynamic sequence is reconstructed out of a single data set, only assuming the motion’s continuity and periodicity. This inverse problem is considered as a minimization of an error term combined with a regularization. One of the most original features of this Ph.D. thesis, typical of dynamic CT, is the elaboration of a reconstruction method from very sparse data, using Total Variation (TV) as a very efficient regularization term. We also implement a new rigorously defined and computationally efficient tomographic projector, based on B-splines separable functions, outperforming usual reconstruction quality in a data sparsity context. This reconstruction method is then inserted into a coherent dynamic reconstruction scheme, applying an efficient spatio-temporal TV regularization. Our method exploits current data information only, in an optimal way ; moreover, its implementation is rather straightforward. We first demonstrate the strength of our approach on 2-D+t reconstructions from numerically simulated dynamic data. Then the practical feasibility of our method is established on 2-D and 3-D+t reconstructions of a mechanical phantom and real patient data
274

Synthèse de nanoparticules à transition de spin et étude des propriétés, application en électronique moléculaire / Spin crossover nanoparticles synthesis and study of the properties, application in molecular electronic

Etrillard, Céline 20 December 2011 (has links)
L’objet de cette étude est d’utiliser la technique des micelles inverses pour synthétiser des nanoparticules à transition de spin, de taille et de forme contrôlées afin d’en permettre l’utilisation en électronique moléculaire. Dans la première partie, nous avons déterminé les paramètres de synthèse influençant la taille et la forme des particules d’un complexe à transition de spin à fort potentiel d’application. Dans un deuxième temps, nous avons utilisé ces paramètres sur trois autres complexes afin de comprendre la relation entre les paramètres de la synthèse et la morphologie des particules. Les nanoparticules ainsi synthétisées constituent la base d’une discussion sur l’existence d’un lien entre la taille/forme des particules et les propriétés de transition de spin. Enfin, la dernière partie de ce travail est consacrée à l’utilisation de ces matériaux en électronique moléculaire, et l’observation des propriétés de photoconductivité et photovoltaïque à l’échelle des nanoparticules. / The aim of this project is to use the reverse micelles technique to synthesize spin crossover (SCO) nanoparticles with controlled size and shape in order to use them in molecular electronic applications. In the first part, we have determined the synthesis parameters that influence the particles size and shape of an attractive spin crossover complex, due to his potential application. In a second time, we used the determined parameters on three other SCO complexes to generalize the relationship between the synthesis parameters and the particles morphology. All the as-prepared nanoparticles are the basis of a discussion about the existence of a link between the size and/or shape of the particles and the SCO properties. The last part of this work is dedicated to the utilization of this materials in molecular electronic, and the observation of photovoltaic and photoconductive properties at the nanoparticles scale.
275

Mesures optiques de profils de turbulence pour les futurs systèmes d'optique adaptative et d'observation / Optical measurements of turbulence profiles for future adaptive optics and observation systems

Nguyen, Khanh Linh 18 December 2018 (has links)
La connaissance de la turbulence atmosphérique en visée horizontale permet de mieux appréhender la physique des flux de chaleur à l’interface sol-atmosphère. Elle permet également, en visée verticale, d’améliorer les performances des futurs systèmes d’optique adaptative grand-champ pour l’observation astronomique. Le profil de Cn² caractérise localement la force de la turbulence. La méthode CO-SLIDAR, développée par l’ONERA, permet de réaliser des profils de Cn² le long de la ligne de visée du télescope à partir des pentes et de scintillations mesurées par un Analyseur de Shack-Hartmann sur source double. Cette méthode a été validée en visée verticale mais n’avait pas encore montré son efficacité en visée horizontale. Les deux expériences à Lannemezan et à Châtillon-Meudon ont vu la mise en place d'un nouveau profilomètre Shack-Hartmann Infrarouge : le SCINDAR. Elles ont été réalisées sur des surfaces respectivement hétérogène et homogène par morceaux, et elles participent à la validation de la méthode pour des applications agronomiques et écologiques. Mon étude consiste à améliorer le traitement du signal du profilomètre SCINDAR et à valider la méthode CO-SLIDAR pour des mesures de la turbulence atmosphérique proche du sol. Cette méthode a été adaptée en utilisant un formalisme de propagation en onde sphérique. L'étude a permis d'identifier et prendre en compte des sources d'erreur dans le traitement : à savoir la vibration de la machine à froid de l'analyseur de front d'onde cryogénique du SCINDAR et l'étendue des sources dans les fonctions de poids du modèle direct posé pour le traitement des données. Mon étude se consacre à l’amélioration du traitement des données du SCINDAR et à la validation expérimentale des profils de Cn² obtenus avec des mesures de Cn² acquises par des scintillomètres. J'ai construit tout d'abord une base de données de pentes et scintillations de qualité vérifiée. Pour l'inversion des données, j'ai choisi la régularisation L1L2 qui est adaptée pour des mesures de Cn² proches du sol. La méthode de réglage des hyperparamètres de cette régularisation est non-supervisée. Elle permet d’augmenter la fiabilité et la précision de l’estimation du profil de Cn² de façon pragmatique à l'aide des erreurs relatives sur les paramètres turbulents macroscopiques. Le profilomètre SCINDAR avec la méthode CO-SLIDAR ainsi améliorée produit finalement des profils de Cn² d'excellente qualité. Ces profils sont comparés avec succès aux mesures des scintillomètres. L’ensemble de ces travaux constitue l'adaptation de la méthode CO-SLIDAR pour des mesures de la turbulence proche du sol. / The knowledge of atmospheric turbulence in horizontal aim allows to better understand the physics of the heat fluxes at the ground-atmosphere interface. It also allows, in vertical aim, to improve the performance of future wide-field adaptive optics systems for astronomical observation. The profile of Cn²locally characterizes the force of turbulence. The CO-SLIDAR method, developed by ONERA, allows profiles of Cn² along the line of sight of the telescope, from the slopes and scintillations of a double source measured by Shack-Hartmann analyzer. This method was validated in vertical aim but had not yet shown its effectiveness in horizontal aim. The two experiments in Lannemezan and Châtillon-Meudon introduced a new Shack-Hartmann Infrared profilometer: the SCINDAR. They were carried out on heterogeneous and piecewise homogeneous surfaces respectively, and they participate in the validation of the method for agronomic and ecological applications. My study consists of improving SCINDAR profilometer signal processing and validating the CO-SLIDAR method for near-ground atmospheric turbulence measurements. This method has been adapted using a spherical wave propagation formalism. The study identified and took into account sources of error in processing: the cold machine vibration of the SCINDAR cryogenic wavefront analyzer and the extent of the sources in the weight functions of the direct model set for data processing. My study focuses on improvement of the SCINDAR data processing and experimental validation profiles Cn² obtained with Cn² measurements acquired by scintillometers. I first built a database of slopes and scintillations of verified quality. For the inversion of the data, I chose the L1L2 regularization which is suitable for near-ground Cn² measurements. The method of setting the hyperparameters of this regularization is unsupervised. It makes it possible to increase the reliability and the accuracy of the Cn² profile estimation in a pragmatic way using the relative errors of the macroscopic turbulent parameters. The SCINDAR profilometer with the improved CO-SLIDAR method finally produces Cn² profiles of excellent quality. These profiles are successfully compared to scintillometer measurements. All of this work constitues the adaptation of the CO-SLIDAR method for measurements of near-ground turbulence.
276

Identification de paramètres et analyses de sensibilité pour un modèle d'usinage par jet d'eau abrasif / Identification of unknown model parameters and sensitivity analysis for abrasive waterjet milling process

Groza, Vladimir 09 November 2016 (has links)
Ce travail fait partie du projet Marie-Curie ITN STEEP, dans le domaine des faisceaux énergétiques. Nous étudions ici l'identification de paramètres pour un modèle générique d'usinage par jet d'eau abrasif. L'étude de ce problème trouve son origine dans les applications industrielles d'usinage, où la nécessité de modéliser et prédire la surface finale avec une très grande précision est essentielle en l'absence de connaissance des paramètres du modèle Nous proposons ici une méthode d'identification des paramètres du modèle basée sur la minimisation d'une fonction coût, mesurant la différence entre la solution numérique et les observations expérimentales. L'approche variationnelle, basée sur le Lagrangien, permet de considérer l'adjoint, et l'utilisation d'un logiciel de différentiation automatique (TAPENADE) conduit à une identification rapide et précise des paramètres, quelles que soient la complexité et la taille du problème étudié. La qualité de l'identification peut être fortement instable et dépendre largement des données expérimentales en cas de bruit. Nous introduisons alors des termes de régularisation permettant de gérer la présence d'erreurs de mesure. Plusieurs cas d'usinage par jet abrasif sont considérés: problème stationnaire, jet qui se déplace à vitesse constante, ou en accélérant, utilisation synthétiques ou réelles L'étude de sensibilité montre la robustesse de l'approche, qui permet d'obtenir de très bons résultats acceptables d'un point de vue industriel / This work is part of STEEP Marie-Curie ITN project, covering the research in field of energy beam processing. We focus on the identification of unknown parameters of the proposed generic Abrasive WaterJet Milling (AWJM) model. The necessity of studying this problem comes from the industrial milling applications where the possibility to predict and model the final surface with high accuracy is one of the primary tasks in the absence of any knowledge of the model parameters that should be used. We propose the method of the model parameters identification by minimizing a cost function, measuring the difference between experimental observation and numerical solution. The variational approach based on corresponding Lagrangian allows to obtain the adjoint state and the involvement of the automatic differentiation software tool (TAPENADE) leads to fast and efficient parameters identification. In fact the parameter identification problem is highly unstable and strictly depends on quality of input data. Regularization terms could be effectively used to deal with the presence of measurement errors. Various cases of the AWJM process such as a stationary problem and moving with constant feed speed or acceleration are studied based on both artificial and real experimental data. The sensitivity study related to these particular problems demonstrates the strong capability of the proposed approach to obtain acceptable
277

Contribution à la résolution de problèmes inverses sous contraintes et application de méthodes de conception robuste pour le dimensionnement de pièces mécaniques de turboréacteurs en phase avant-projets. / Contribution to solving inverse problems under constraints and application of robust design methods for the design of mechanical parts of preliminary design stage

Biret, Maëva 18 November 2016 (has links)
L'objectif de ce travail est de proposer une nouvelle démarche pour améliorer et accélérer les études de dimensionnement des pièces de turboréacteurs en avant-projets. Il s'agit de fournir une méthodologie complète pour la conception robuste sous contraintes. Cette méthodologie consiste en trois étapes : la réduction de la dimension et la méta-modélisation, la conception robuste sous contraintes puis la résolution de problèmes inverses sous contraintes. Ce sont les trois principaux sujets abordés dans cette thèse. La réduction de la dimension est un pré-traitement indispensable à toute étude. Son but est de ne conserver, pour une sortie choisie du système, que les entrées influentes. Ceci permet de réduire la taille du domaine d'étude afin de faciliter la compréhension du système et diminuer les temps de calculs des études. Les méthodes de méta-modélisations contribuent également à ces deux objectifs. L'idée est de remplacer le code de calculs coûteux par un modèle rapide à évaluer et qui représente bien la relation entre la sortie étudiée et les entrées du système. La conception robuste sous contraintes est une optimisation bi-objectifs où les différentes sources d'incertitudes du système sont prises en compte. Il s'agit, dans un premier temps, de recenser et modéliser les incertitudes puis de choisir une méthode de propagation de ces incertitudes dans le code de calculs. Ceci permet d'estimer les moments (moyenne et écart-type) de la loi de la sortie d'intérêt. L'optimisation de ces moments constitue les deux objectifs de la conception robuste. En dernier lieu, il s'agit de choisir la méthode d'optimisation multi-objectifs qui sera utilisée pour obtenir l'optimum robuste sous contraintes. La partie innovante de cette thèse porte sur le développement de méthodes pour la résolution de problèmes inverses mal posés. Ce sont des problèmes pour lesquels il peut y avoir une infinité de solutions constituant des ensembles non convexes et même disjoints. L'inversion a été considérée ici comme un complément à l'optimisation robuste dans laquelle l'optimum obtenu ne satisfaisait pas une des contraintes. Les méthodes d'inversion permettent alors de résoudre ce problème en trouvant plusieurs combinaisons des entrées qui satisfont la contrainte sous la condition de rester proche de l'optimum robuste. Le but est d'atteindre une valeur cible de la contrainte non satisfaite tout en respectant les autres contraintes du système auxquelles on ajoute la condition de proximité à l'optimum. Appliquée au dimensionnement d'un compresseur HP en avants-projets, cette méthodologie s'inscrit dans l'amélioration et l'accélération des études marquées par de nombreux rebouclages chronophages en termes de ressources informatiques et humaines. / The aim of this PhD dissertation is to propose a new approach to improve and accelerate preliminary design studies for turbofan engine components. This approach consists in a comprehensive methodology for robust design under constraints, following three stages : dimension reduction and metamodeling, robust design under constraints and finally inverse problem solving under constraints. These are the three main subjects of this PhD dissertation. Dimension reduction is an essential pre-processing for any study. Its aim is to keep only inputs with large effects on a selected output. This selection reduces the size of the domain on which is performed the study which reduces its computational cost and eases the (qualitative) understanding of the system of interest. Metamodeling also contributes to these two objectives by replacing the time-consuming computer code by a faster metamodel which approximates adequately the relationship between system inputs and the studied output. Robust design under constraints is a bi-objectives optimization where different uncertainty sources are included. First, uncertainties must be collected and modeled. Then a propagation method of uncertainties in the computation code must be chosen in order to estimate moments (mean and standard deviation) of output distribution. Optimization of these moments are the two robust design objectives. Finally, a multi-objectives optimization method has to be chosen to find a robust optimum under constraints. The development of methods to solve ill-posed inverse problems is the innovative part of this PhD dissertation. These problems can have infinitely many solutions constituting non convex or even disjoint sets. Inversion is considered here as a complement to robust design in the case where the obtained optimum doesn't satisfy one of the constraints. Inverse methods then enable to solve this problem by finding several input datasets which satisfy all the constraints and a condition of proximity to the optimum. The aim is to reach a target value of the unsatisfied constraint while respecting other system constraints and the optimum proximity condition. Applied to preliminary design of high pressure compressor, this methodology contributes to the improvement and acceleration of studies currently characterized by a numerous of loopbacks which are expensive in terms of cpu-time and human resources.
278

Variability modeling and numerical biomarkers design in cardiac electrophysiology / Modélisation de la variabilité et design de biomarqueurs numériques en électrophysiologie cardiaque

Tixier, Eliott 18 December 2017 (has links)
Cette thèse de doctorat est consacrée à l'étude de la variabilité observée dans les mesures d'électrophysiologie (i.e. l'activité électrique des tissus biologiques) cardiaque et à la conception de biomarqueurs numériques extraits de ces mesures. Les applications potentielles sont nombreuses, pouvant aller d'une meilleure compréhension des modèles électrophysiologiques existants à l'évaluations des effets nocifs de médicaments en passant par le diagnostic de pathologies cardiaques. Les modèles d'électrophysiologie cardiaque présentés dans ce travail sont, soit des équations différentielles ordinaires (EDOs), soit des équations aux dérivées partielles (EDPs), selon qu'ils concernent l'échelle cellulaire ou l'échelle du tissu. Dans les deux cas, ces modèles sont hautement non linéaires et nécessitent d'intenses ressources computationnelles. Nous adoptons l'approche suivante : de prime abord, nous développons des outils numériques afin de répondre à des problèmes généraux, au-delà de l'électrophysiologie. Puis, nous appliquons ces outils à des mesures synthétiques d'électrophysiologie dans différents scénarios réalistes et, lorsque cela est possible, à des mesures expérimentales. Dans la première partie de cette thèse, nous présentons une méthode générale pour estimer la densité de probabilité de paramètres incertains de modèles basés sur des EDOs ou des EDPs. La méthode est non intrusive et repose sur des évaluations "hors-ligne" du modèle direct, ce qui la rend en pratique computationellement moins dispendieuse que d'autres approches plus sophistiquées. La méthode est illustrée avec des mesures synthétiques et expérimentales d'électrophysiologie. Dans la seconde partie de cette thèse, nous présentons une méthode de sélectionde biomarqueurs à partir des sorties de modèles en vue d'effectuer des tâches de classification ou de résoudre des problèmes d'estimation de paramètres. La méthode repose sur la résolution d'un problème d'optimisation creux. La méthode est illustrée avec des modèles simples et ensuite appliquée à des mesures synthétiques, incluant des enregistrements d'électrocardiogramme, et à des données expérimentales obtenues à partir de mesures de matrices de microélectrodes. / This PhD thesis is dedicated to the study of the variability observed in cardiac electrophysiology (i.e. the electrical activity of biological tissues) measurements and to the design of numerical biomarkers extracted from these measurements. The potential applications are numerous, ranging from a better understanding of existing electrophysiology models to the assessment of adverse effects of drugs or the diagnosis of cardiac pathologies. The cardiac electrophysiology models considered in the present work are either ODEs or PDEs depending on whether we focus on the cell scale or the tissue scale. In both cases, these models are highly non-linear and computationally intensive. We proceed as follows: first we develop numerical tools that address general issues and that are applicable beyond the scope of cardiac electrophysiology. Then, we apply those tools to synthetic electrophysiology measurements in various realistic scenarios and, when available, to real experimental data. In the first part of this thesis, we present a general method for estimating the probability density function (PDF) of uncertain parameters of models based on ordinary differential equations (ODEs) or partial differential equations (PDEs). The method is non-instrusive and relies on offline evaluations of the forward model, making it computationally cheap in practice compared to more sophisticated approaches. The method is illustrated with generic PDE and ODE models. It is then applied to synthetic and experimental electrophysiology measurements. In the second part of this thesis, we present a method to extract and select biomarkers from models outputs in view of performing classication tasks or solving parameter identification problems. The method relies on the resolution of a sparse optimization problem. The method is illustrated with simple models and then applied to synthetic measurements, including electrocardiogram recordings, and to experimental data obtained from micro-electrode array measurements.
279

Super-resolution in wave imaging / Super-résolution en imagerie par ondes

Wintz, Timothée 26 June 2017 (has links)
Les différentes modalités d’imagerie par ondes présentent chacune des limitations en termes de résolution ou de contraste. Dans ce travail, nous modélisons l’imagerie ultrasonore ultrarapide et présentons des méthodes de reconstruction qui améliorent la précision de l’imagerie ultrasonore. Nous introduisons deux méthodes qui permettent d’augmenter le contraste et de mesurer la position super-résolue et la vitesse dans les vaisseaux sanguins. Nous présentons aussi une méthode de reconstruction des paramètres microscopiques en tomographie d’impédance électrique en utilisant des mesures multifréquence et en s’aidant de la théorie de l’homogénéisation. / Different modalities in wave imaging each present limitations in terms of resolution or contrast. In this work, we present a mathematical model of the ultrafast ultrasound imaging modality and reconstruction methods which can improve contrast and resolution in ultrasonic imaging. We introduce two methods which allow to improve contrast and to locate blood vessels belowthe diffraction limit while simultaneously estimating the blood velocity. We also present a reconstruction method in electrical impedance tomography which allows reconstruction of microscopic parameters from multi-frequency measurements using the theory of homogenization.
280

Approches tomographiques structurelles pour l'analyse du milieu urbain par tomographie SAR THR : TomoSAR / Structural tomographic approaches for urban area analysis using high resolution SAR tomography : TomoSAR

Rambour, Clément 18 February 2019 (has links)
La tomographie SAR exploite plusieurs acquisitions d'une même zone acquises d'un point de vue légerement différent pour reconstruire la densité complexe de réflectivité au sol. Cette technique d'imagerie s'appuyant sur l'émission et la réception d'ondes électromagnétiques cohérentes, les données analysées sont complexes et l'information spatiale manquante (selon la verticale) est codée dans la phase. De nombreuse méthodes ont pu être proposées pour retrouver cette information. L'utilisation des redondances naturelles à certains milieux n'est toutefois généralement pas exploitée pour améliorer l'estimation tomographique. Cette thèse propose d'utiliser l'information structurelle propre aux structures urbaines pour régulariser les densités de réflecteurs obtenues par cette technique. / SAR tomography consists in exploiting multiple images from the same area acquired from a slightly different angle to retrieve the 3-D distribution of the complex reflectivity on the ground. As the transmitted waves are coherent, the desired spatial information (along with the vertical axis) is coded in the phase of the pixels. Many methods have been proposed to retrieve this information in the past years. However, the natural redundancies of the scene are generally not exploited to improve the tomographic estimation step. This Ph.D. presents new approaches to regularize the estimated reflectivity density obtained through SAR tomography by exploiting the urban geometrical structures.

Page generated in 0.1045 seconds