• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 5
  • Tagged with
  • 12
  • 12
  • 6
  • 6
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

La caractérisation du speckle sur des images échocardiographiques afin de définir des indices diagnostiques de l'amylose cardiaque et personnaliser un modèle numérique du coeur / Speckle Characterisation in Echocardiographic Images to Aid in the Diagnosis of Cardiac Amyloidosis

Damerjian, Vera 05 December 2016 (has links)
L’Hypertrophie Ventriculaire Gauche (HVG) est actuellement mise en évidence par échographie. Cet examen fournit des informations anatomo-fonctionnelles mais ne permet pas de déterminer l’étiologie des HVG, ce qui engendre de graves erreurs de diagnostic et de prise en charge thérapeutique. Les HVG sont classiquement séparées en 2 catégories :1. pathologies hypertrophiques induites par la modification structurelle et fonctionnelle des cardiomyocites qui tend à compenser des insuffisances cardiaques liées par exemple à des problèmes d’hypertension artérielle, de rétrécissement aortique ou de CardioMyopathies Hypertrophiques sarcomériques ;2. pathologies infiltratives correspondant au dépôt de protéines dans la matriceextracellulaire principalement dues à différentes formes d’amyloses cardiaquesNotre hypothèse est que les différents mécanismes physiopathologiques (hypertrophique ou infiltratif) pourraient se traduire dans l’image par des propriétés spécifiques du speckle échographique. Nous avons donc développé un travail d’analyse de la texture de ces images afin de discriminer les différentes HVG.Dans cette étude, la base de données de 4795 images est divisée en une base d’apprentissage de 3770 images et une base de test de 1025 images. L’analyse de texture des images est faite par les ondelettes de Gabor avec 8 orientations, 7 tailles et 5 niveaux de décomposition. Ensuite, les caractéristiques statistiques de premier et deuxième ordre sont extraites des images. Le nombre des caractéristiques est réduit pour la base d’apprentissage en appliquant l’Analyse en Composantes Principales (ACP) suivie par l’analyse discriminante linéaire (ADL) pour une séparation supervisée des classes. Les caractéristiques extraites pour la base de test sont projetées sur les vecteurs propres sélectionnés au cours de l’apprentissage. L’ADL est appliquée à ce niveau pour la classification des données du test et la qualité de cette classification est évaluée. Les résultats obtenus sont bons (qualité totale de classification de 95,51%) et sont suivis d’une étape de cross-validation afin de vérifier la robustesse de notre méthode. A cette étape, les bases de données de l’apprentissage et du test sont mélangées et 50 combinaisons différentes sont évaluées. La même méthode décrite précédemment est appliquée. La cross-validation montre une variation de la qualité de classification (entre 30% et 99.96%) probablement due à l’hétérogénéité des caractéristiques texturelles pour les patients d’une même classe que l’on peut expliquer par des degrés différents d’avancement dans la pathologie.Ces travaux montrent qu’une analyse de texture des images échocardiographiques peut permettre de déterminer des bio-marqueurs aptes à discriminer différentes cardiopathies qui s’expriment par une HVG. Ce résultat peut avoir des retombées très importantes dans la détection précoce des amyloses cardiaques, maladies engendrant un fort taux de mortalité souvent dû à un retard de diagnostic et prise en charge des patients par un centre expert / Left-Ventricular Hypertrophy (LVH) is currently detected through echocardiography. The latter imaging modality provides anatomical and functional information. However, it does not allow the determination of the HVG etiology. This can, in turn, lead to dangerous errors in the diagnosis and treatment planning of the disease. LVH pathologies are separated into two categories:- Hypertrophic pathology caused by the structural and functional modification of cardiomyocytes that lead to cardiac failure related, for example, to arterial hypertension problems, aortic narrowing or sarcomeric hypertrophic cardiomyopathies.- Infiltrative pathologies corresponding to protein deposits on the extracellular matrix, mainly due to different forms of cardiac amyloidosisOur hypothesis is that different physiopathological mechanisms (hypertrophic or infiltrative) can be translated in the image through properties specific to echographic speckle. We have therefore developed the work of texture analysis of such images in order to discriminate the different types of LVH.In this study, the database of 4795 images is divided into a learning database of 3770 images and another testing database of 1025 images. The textural analysis of these images is done using Gabor wavelets with 8 orientations, 7 sizes and 5 decomposition levels. Next, the statistical characteristics of first and second orders are extracted from the filtered images. The number of characteristics is reduced for the learning database by applying Principal Component Analysis (PCA) followed by Linear Discriminant Analysis (LDA) for a supervised separation of the classes. The extracted characteristics for the test database are projected on the eigenvectors selected in the learning step. LDA is applied at this level for the test data classification, and the quality of this classification is evaluated. The obtained results are good (total classification quality of 95.51%). A step of cross-validation follows in order to verify the robustness of our method. At this stage, the learning and testing databases are mixed, and 50 different combinations are evaluated. The same method described previously is then applied. The cross-validation shows a variation in the classification quality (between 30% and 99.96%) probably due to the heterogeneity of the texture characteristics for the patients of the same class explained by different disease advancement stages.This work shows that the textural analysis of echocardiographic images can permit the determination of bio-markers suitable to discriminate different LVH cardiopathies. Our results can have a very important impact on the early detection of cardiac amyloidosis, a pathology causing a considerable rate of mortality often due to a belated diagnosis and support by the centers of expertise
2

Mechanical modeling and numerical methods for poromechanics : Application to myocardium perfusion / Modélisation mécanique et méthodes numériques pour la poromécanique : Applications à la perfusion du myocarde

Burtschell, Bruno 30 September 2016 (has links)
Cette thèse est dédiée au développement de méthodes numériques pour la poromécanique, et à leur application dans un contexte de modélisation cardiaque.Elle est motivée par la prise en compte, dans les modèles de coeur humain, du réseau coronarien qui perfuse le myocarde, afin de mieux décrire les maladies vasculaires coronariennes.Nous appuyant sur des travaux existants, nous proposons un modèle de coeur perfusé, ainsi qu'une réduction 0D permettant de reproduire, à moindre coût de calcul, un cycle cardiaque réaliste avec masse et pression de perfusion. Le modèle mis au point nous permet de reproduire des phénomènes physiologiques auparavant inaccessibles dans les modèles, et d'une grande importance pour des applications cliniques, tels que la vasodilatation et les pathologies coronariennes.L'intégration d'un compartiment poreux pour représenter le myocarde perfusé dans les modèles 3D représente un défi technique d'un autre ordre. Nous inspirant des schémas en temps de type splitting établis en interaction fluide-structure pour modéliser les vaisseaux sanguins, nous proposons une discrétisation semi-implicite d'une formulation générale de poromécanique, satisfaisant un bilan d'énergie au niveau discret. Afin d'illustrer et valider notre démarche, l'environnement de calcul élément finis FreeFem++ nous permet de reproduire des cas tests classiques de gonflement et de drainage de milieux poreux en 2D, puis de vérifier le bilan énergétique discret.Enfin, motivés par l'étude de la discrétisation spatiale de notre problème, nous établissons dans un cadre linéaire un résultat de convergence totale du schéma sous conditions. Cela nous permet de proposer une méthode d'implémentation facile à mettre en oeuvre et présentant de bons résultats de stabilité. FreeFem++ nous permet à nouveau de valider nos résultats en illustrant les pathologies numériques associées à l'incompressibilité, et leur traitement efficace par les stratégies proposées, dans le cadre linéaire puis dans une situation plus générale. / This thesis is dedicated to the development of numerical methods for poromechanics, and to their application in a cardiac modeling context. It is motivated by the introduction into existing cardiac models of the coronary network that perfuses the myocardium, to better describe coronary vascular diseases.Drawing our inspiration from existing works, we propose a perfused heart model, and a 0D reduction allowing the cost-effective reproduction of a realistic cardiac cycle with perfusion mass and pressure. The model derived illustrates physiological phenomena inaccessible in former models, and with great clinical application potential, such as vasodilatation and coronary diseases.The integration of a porous compartment to represent the perfused myocardium within 3D models is more challenging. Relying on splitting time schemes established for fluid-structure interaction to model blood vessels, we propose a semi-implicit discretization of a general poromechanics formulation, satisfying a discrete energy balance. In order to illustrate and validate our approach, we reproduce in the finite element software FreeFem++ classical swelling and drainage 2D test cases, and we monitor the discrete energy balance.Finally, motivated by the study of spatial discretization aspects of our problem, we establish in a linear framework a conditional total convergence result. This enables us to propose a computational method easy to implement and presenting good stability results. FreeFem++ enables us again to validate our results, illustrating numerical pathologies associated with incompressibility, and their efficient treatment with the proposed strategies, first in a linear framework and then in a more general situation.
3

Assimilation de données par filtrage pour les systèmes hyperboliques du second ordre - Applications à la mécanique cardiaque

Moireau, Philippe 12 December 2008 (has links) (PDF)
L'objectif est de formuler des méthodes d'assimilation de données adaptées à la simulation du comportement mécanique du coeur tout au long d'un battement cardiaque, afin de bénéficier du développement des techniques d'imagerie et de l'intérêt croissant des cliniciens pour la simulation numérique. Nous présentons une stratégie originale par filtrage, adaptée à l'estimation de systèmes mécaniques, et plus généralement de systèmes hyperboliques du second ordre, avec des conditions initiales et des paramètres inconnus. La trajectoire est estimée via des observateurs de Luenberger efficaces exploitant la stabilisation par feedback à des fins d'estimation. A la différence d'approches Kalmaniennes classiques, ces filtres peuvent être numériquement adaptés à des systèmes issus de la discrétisation d'EDPs, et la stabilité exponentielle du système de l'erreur d'observation assure la convergence de l'estimateur. Ainsi, nous analysons en particulier la stratégie collocalisée du "Direct Velocity Feedback" utilisée en contrôle des structures. Nous formulons aussi une méthode originale dans le cas de mesures de positions, et par extension de contours dans une image. Pour les paramètres, nous étendons ensuite l'estimateur en ajoutant une dynamique paramétrique fictive. Les observateurs d'état précédents restreignent alors l'incertitude à l'espace paramétrique afin d'y appliquer des filtres de rang réduit H2 ou Hinfini. La convergence de l'estimateur en résultant est mathématiquement démontrée, et illustrée en estimant des paramètres distribués de type raideurs et contractilités, avec la perspective d'aide au diagnostic de régions infarcies du muscle cardiaque.
4

Réduction de modèles complexes pour la simulation et l'estimation Application à la modélisation cardiaque

Gariah, Asven 09 November 2011 (has links) (PDF)
Ce mémoire analyse et valide des applications possibles de méthodes de réduction de modèle pour la simulation directe, et la résolution de problèmes inverses d'estimation de paramètres sur des modèles complexes. Il se concentre sur la réduction par proper orthogonal decomposition (POD), et ses extensions. On démontre d'abord de nouvelles estimations a priori pour l'erreur de réduction sur des problèmes abstraits types (paraboliques et hyperboliques, linéaires ou avec non-linéarités lipschitziennes), validées dans de nombreux cas non linéaires. On évite notamment le problème de contrôle des termes d'ordre élevé par l'exploitation d'une suite spécifique de normes de projecteurs. Puis, pour couvrir les systèmes dépendant de paramètres, et par des résultats d'interpolation, on adapte la méthode précédente en réduction par multi-POD. On étend aussi, au prix d'un terme additif, les estimations a priori précédentes pour l'erreur maximum de réduction sur une plage paramétrique donnée. On illustre la puissance de la méthode sur le système électrophysiologique de FitzHugh-Nagumo, fortement sensible aux variations paramétriques. On valide enfin numériquement les versions réduites, toujours avec la réduction par multi-POD, de problèmes d'estimation de paramètres : de type variationnel avec le système de FitzHugh-Nagumo, et de type séquentiel (filtrage " kalmanien ") avec un modèle mécanique de coeur (multiéchelles, 3D, grandes déformations). En particulier, la méthode présente une efficacité et une robustesse similaires à celles obtenues pour les problèmes directs.
5

Simulation de modèles personnalisés du coeur pour la prédiction de thérapies cardiaques

Marchesseau, Stéphanie 28 January 2013 (has links) (PDF)
La compréhension clinique et le traitement des maladies cardiovasculaires est extrêmement complexe. Pour chaque patient, les cardiologues sont confrontés à des difficultés pour déterminer la pathologie, choisir une thérapie ou encore sélectionner les patients susceptibles de bien répondre à un traitement donné. Afin de fournir une aide additionnelle aux cardiologues, de nombreuses équipes de recherche étudient la possibilité de planifier de telles thérapies grâce à des modèles biophysiques du cœur. Ils formulent l'hypothèse que l'on peut combiner les données fonctionnelles et anatomiques afin de créer des modèles cardiaques personnalisés à chaque patient qui auraient le potentiel de prédire les bénéfices des différentes thérapies. Les simulations électromécaniques du cœur sont basées sur des modèles informatiques qui peuvent représenter la géométrie, le mouvement et la propagation d'ondes électriques pendant un cycle cardiaque avec suffisamment de précision. L'intégration d'information anatomique, mécanique et électrophysiologique pour un patient donné est essentielle pour construire ce type de modèle.Dans cette thèse, nous présentons tout d'abord les méthodes de personnalisations géométriques, cinématiques et électrophysiologiques nécessaires à toutes modélisations mécaniques. Nous utilisons ensuite le modèle électromécanique de Bestel-Clément-Sorine qui a déjà prouvé avoir un bon réalisme sans être trop complexe au vu des données disponibles. Nous commençons par détailler la nouvelle implémentation de ce modèle dans une plateforme efficace de simulation médicale ayant l'avantage d'être libre et interactive, puis nous analysons les résultats de la simulation par une étude de sensibilité complète.Dans un deuxième temps, nous étudions la possibilité de personnaliser les paramètres mécaniques de ce modèle à partir d'images médicales (IRM). Pour cela, nous proposons en premier lieu une méthode automatique de calibration qui estime les paramètres mécaniques globaux à partir de courbes de pressions et volumes. Cette technique testée sur 6 volontaires et 2 cas pathologiques nous a permis de faire une étude de spécificité qui consiste à déterminer les paramètres pertinents capables de différencier les cas pathologiques des cas sains.Une fois initialisés à ces valeurs calibrées, les paramètres sont personnalisés localement avec un algorithme d'optimisation plus complexe. Le " Reduced Order Unscented Kalman Filtering " est utilisé pour estimer les contractilités de toutes les zones AHA du ventricule gauche à partir des volumes régionaux extraits des séquences d'images IRM. Cette stratégie de personnalisation a été validée et testée sur plusieurs cas pathologiques et volontaires. Ces différentes contributions ont montré des résultats prometteurs tout au long de cette thèse et certains sont déjà utilisés pour quelques études de recherche.
6

Personnalisation robuste de modèles 3D électromécaniques du cœur. Application à des bases de données cliniques hétérogènes et longitudinales / Robust personalisation of 3D electromechanical cardiac models. Application to heterogeneous and longitudinal clinical databases

Molléro, Roch 19 December 2017 (has links)
La modélisation cardiaque personnalisée consiste à créer des simulations 3D virtuelles de cas cliniques réels pour aider les cliniciens à prédire le comportement du cœur ou à mieux comprendre certaines pathologies. Dans cette thèse nous illustrons d'abord la nécessité d'une approche robuste d'estimation des paramètres, dans un cas ou l'incertitude dans l'orientation des fibres myocardiques entraîne une incertitude dans les paramètres estimés qui est très large par rapport à leur variabilité physiologique. Nous présentons ensuite une approche originale multi-échelle 0D/3D pour réduire le temps de calcul, basée sur un couplage multi-échelle entre les simulations du modèle 3D et d'une version "0D" réduite de ce modèle. Ensuite, nous dérivons un algorithme rapide de personnalisation multi-échelle pour le modèle 3D. Dans un deuxième temps, nous construisons plus de 140 simulations 3D personnalisées, dans le cadre de deux études impliquant l'analyse longitudinale de la fonction cardiaque : d'une part, l'analyse de l'évolution de cardiomyopathies à long terme, d'autre part la modélisation des changements cardiovasculaires pendant la digestion. Enfin, nous présentons un algorithme pour sélectionner automatiquement des directions observables dans l'espace des paramètres à partir d'un ensemble de mesures, et calculer des probabilités "a priori" cohérentes dans ces directions à partir des valeurs de paramètres dans la population. Cela permet en particulier de contraindre l'estimation de paramètres dans les cas où des mesures sont manquantes. Au final nous présentons des estimations cohérentes de paramètres dans une base de données de 811 cas avec le modèle 0D et 137 cas du modèle 3D. / Personalised cardiac modeling consists in creating virtual 3D simulations of real clinical cases to help clinicians predict the behaviour of the heart, or better understand some pathologies from the estimated values of biophysical parameters. In this work we first motivate the need for a consistent parameter estimation framework, from a case study were uncertainty in myocardial fibre orientation leads to an uncertainty in estimated parameters which is extremely large compared to their physiological variability. To build a consistent approach to parameter estimation, we then tackle the computational complexity of 3D models. We introduce an original multiscale 0D/3D approach for cardiac models, based on a multiscale coupling to approximate outputs of a 3D model with a reduced "0D" version of the same model. Then we derive from this coupling an efficient multifidelity optimisation algorithm for the 3D model. In a second step, we build more than 140 personalised 3D simulations, in the context of two studies involving the longitudinal analysis of the cardiac function: on one hand the analysis of long-term evolution of cardiomyopathies under therapy, on the other hand the modeling of short-term cardiovascular changes during digestion. Finally we present an algorithm to automatically detect and select observable directions in the parameter space from a set of measurements, and compute consistent population-based priors probabilities in these directions, which can be used to constrain parameter estimation for cases where measurements are missing. This enables consistent parameter estimations in a large databases of 811 cases with the 0D model, and 137 cases of the 3D model.
7

Simulation de modèles personnalisés du coeur pour la prédiction de thérapies cardiaques / Simulation of patient-specific cardiac models for therapy planning

Marchesseau, Stephanie 28 January 2013 (has links)
La compréhension clinique et le traitement des maladies cardiovasculaires est extrêmement complexe. Pour chaque patient, les cardiologues sont confrontés à des difficultés pour déterminer la pathologie, choisir une thérapie ou encore sélectionner les patients susceptibles de bien répondre à un traitement donné. Afin de fournir une aide additionnelle aux cardiologues, de nombreuses équipes de recherche étudient la possibilité de planifier de telles thérapies grâce à des modèles biophysiques du cœur. Ils formulent l'hypothèse que l'on peut combiner les données fonctionnelles et anatomiques afin de créer des modèles cardiaques personnalisés à chaque patient qui auraient le potentiel de prédire les bénéfices des différentes thérapies. Les simulations électromécaniques du cœur sont basées sur des modèles informatiques qui peuvent représenter la géométrie, le mouvement et la propagation d'ondes électriques pendant un cycle cardiaque avec suffisamment de précision. L'intégration d'information anatomique, mécanique et électrophysiologique pour un patient donné est essentielle pour construire ce type de modèle.Dans cette thèse, nous présentons tout d'abord les méthodes de personnalisations géométriques, cinématiques et électrophysiologiques nécessaires à toutes modélisations mécaniques. Nous utilisons ensuite le modèle électromécanique de Bestel-Clément-Sorine qui a déjà prouvé avoir un bon réalisme sans être trop complexe au vu des données disponibles. Nous commençons par détailler la nouvelle implémentation de ce modèle dans une plateforme efficace de simulation médicale ayant l'avantage d'être libre et interactive, puis nous analysons les résultats de la simulation par une étude de sensibilité complète.Dans un deuxième temps, nous étudions la possibilité de personnaliser les paramètres mécaniques de ce modèle à partir d'images médicales (IRM). Pour cela, nous proposons en premier lieu une méthode automatique de calibration qui estime les paramètres mécaniques globaux à partir de courbes de pressions et volumes. Cette technique testée sur 6 volontaires et 2 cas pathologiques nous a permis de faire une étude de spécificité qui consiste à déterminer les paramètres pertinents capables de différencier les cas pathologiques des cas sains.Une fois initialisés à ces valeurs calibrées, les paramètres sont personnalisés localement avec un algorithme d'optimisation plus complexe. Le « Reduced Order Unscented Kalman Filtering » est utilisé pour estimer les contractilités de toutes les zones AHA du ventricule gauche à partir des volumes régionaux extraits des séquences d'images IRM. Cette stratégie de personnalisation a été validée et testée sur plusieurs cas pathologiques et volontaires. Ces différentes contributions ont montré des résultats prometteurs tout au long de cette thèse et certains sont déjà utilisés pour quelques études de recherche. / The clinical understanding and treatment of cardiovascular diseases is highly complex. For each patient, cardiologists face issues in determining the pathology, choosing a therapy or selecting suitable patients for the therapy. In order to provide additional guidance to cardiologists, many research groups are investigating the possibility to plan such therapies based on biophysical models of the heart. The hypothesis is that one may combine anatomical and functional data to build patient-specific cardiac models that could have the potential to predict the benefits of different therapies. Cardiac electromechanical simulations are based on computational models that can represent the heart geometry, motion and electrophysiology patterns during a cardiac cycle with sufficient accuracy. Integration of anatomical, mechanical and electrophysiological information for a given subject is essential to build such models.In this thesis, we first introduce the geometry, kinematics and electrophysiology personalizations that are necessary inputs to mechanical modeling. We propose to use the Bestel-Cl'ement-Sorine electromechanical model of the heart, which is sufficiently accurate without being over-parametrized for the available data. We start by presenting a new implementation of this model in an efficient opensource framework for interactive medical simulation and we analyze the resulting simulations through a complete sensitivity analysis.In a second step, the goal is to personalize the mechanical parameters from medical images (MRI data). To this end, we first propose an automatic calibration algorithm that estimates global mechanical parameters from volume and pressure curves. This technique was tested on 7 volunteers and 2 heart failure cases and allowed to perform a preliminary specificity study that intends to determine the relevant parameters able to differentiate the pathological cases from the control cases.Once initialized with the calibrated values, the parameters are then locally personalized with a more complex optimization algorithm. Reduced Order Unscented Kalman Filtering is used to estimate the contractilities on all of the AHA zones of the Left Ventricle, matching the regional volumes extracted from cine MRI data. This personalization strategy was validated and tested on several pathological and healthy cases. These contributions have led to promising results through this thesis and some are already used for various research studies.
8

Caractérisation et traitement du substrat électrique pour la thérapie de resynchronisation cardiaque / Characterization and treatment of the electrical substrate for cardiac resynchronization therapy

Ploux, Sylvain 29 October 2014 (has links)
L'objectif de ce travail était de mieux appréhender les mécanismes impliqués dans la réponse à la resynchronisation biventriculaire (BIV) en insistant sur la caractérisation du substrat électrique éligible à la thérapie et l'intérêt de la resynchronisation électrique. Nous avons démontré qu'il existe une relation forte entre l'asynchronisme électrique de base défini tant par l'ECG de surface que par cartographie détaillée de l'activation ventriculaire (ECM) et la réponse hémodynamique à la stimulation BIV. Par rapport à l'ECG de surface, l'ECM permet une caractérisation plus fine de l'asynchronisme électrique ventriculaire avec une meilleure prédiction de la réponse clinique à la stimulation BIV. La présence d'un asynchronisme de base minimum, en particulier d'un retard d'activation ventriculaire gauche (VG) par rapport au ventricule droit (typiquement >SOms), est un prérequis à l'efficacité de la thérapie. Les patients avec bloc de branche gauche présentent un haut degré d'asynchronisme et la stimulation BIV agit sur ce substrat par resynchronisation de l'activation électrique. A contrario, la stimulation BIV dégrade la séquence d'activation ainsi que l'hémodynamique des patients à QRS fins (dyssynchronie iatrogène). Les patients présentant un trouble de conduction aspécifique présentent des degrés variables d'asynchronie électrique et en conséquence des réponses contrastées à la stimulation BIV. De même, l'analyse ECM de l'asynchronisme des patients chroniquement stimulés sur le ventricule droit a permis de mettre en évidence des degrés variables de retard d'activation du VG. Si la resynchronisation électrique est garante d'une amélioration de la fonction cardiaque, d'autres mécanismes sont impliqués telle la redistribution du travail segmentaire au sein du myocarde ventriculaire. L'efficacité de la stimulation mono-VG implique une participation accrue du ventricule droit au travail global (interaction ventriculaire). / We aimed to characterize the electrical substrate amenable to biventricular pacing (BVP) and to assess the actual value of electrical resynchronization. We showed, both with respect to surface ECG and detailed ventricular electrocardiographic mapping (ECM), a strong relationship between the baseline electrical dyssnchrony and the hemodynamic response to BIV pacing. Compared with standard ECG, ECM allows a more detailed analysis of the ventricular dyssynchrony and better predicts clinical outcomes after BVP. A minimal amount of electrical dyssynchrony, in particular a sufficient LV activation delay relative to right ventricular activation, is a prerequisite to the hemodynamic response to BVP. Due to their advanced electrical dyssynchrony, patients with left bundle branch block present potential for BVP positive response which acts by electrical resynchronization. Conversely, BVP worsens the electrical activation (iatrogenic dyssynchrony) and hemodynamics in patients with narrow QRS suffering from insufficient electrical dyssynchrony at baseline. Patients with unspecified conduction disorders show variable levels of electrical dyssynchrony and as a consequence mixed results to BVP. Similarly, ECM reveals a variable degree of left ventricular activation delay in patients chronically paced in the right ventricle. Beside the electrical resynchronization, other mechanisms are involved in the cardiac pump function improvement such as the redistribution of the mechanical work over the right and left ventricles. Through ventricular interaction, the RV myocardium importantly contributes to the improvement in LV pump function induced by single site LV pacing.
9

Modélisation et simulation de l'IRM de diffusion des fibres myocardiques

Wang, Lihui 21 January 2013 (has links) (PDF)
L'imagerie par résonance magnétique de diffusion (l'IRMd) est actuellement la seule technique non-invasive pour étudier l'architecture tridimensionnelle des fibres myocardiques du cœur humain à la fois ex vivo et in vivo. Cependant, il est difficile de savoir comment les caractéristiques de diffusion calculées à partir des images de diffusion reflètent les propriétés des microstructures du myocarde à cause de l'absence de la vérité-terrain sans parler de l'influence de divers facteurs tels que la résolution spatiale, le bruit et les artéfacts. L'objectif principal de cette thèse est donc de développer des simulateurs de l'IRM de diffusion basés sur des modèles réalistes afin de simuler, en intégrant différentes modalités d'imagerie, les images pondérées en diffusion des fibres myocardiques à la fois ex vivo et in vivo, et de proposer un outil générique permettant d'évaluer la qualité de l'imagerie et les algorithmes de traitement d'images. Pour atteindre cet objectif, le présent travail se focalise sur quatre parties principales. La première partie concerne la formulation de la théorie de simulation IRMd pour la génération d'images de diffusion et pour les applications sur les modèles simples de fibres cardiaques chez l'homme, et essaie de comprendre la relation sous-jacente entre les propriétés mesurées de la diffusion et les caractéristiques à la fois physiques et structurelles des fibres cardiaques. La seconde partie porte sur la simulation des images de résonance magnétique de diffusion à différentes échelles en s'appuyant sur des données du cœur humain issues de l'imagerie par lumière polarisée. En comparant les propriétés de diffusion à différentes échelles, la relation entre la variation de la microstructure et les propriétés de diffusion observée à l'échelle macroscopique est étudiée. La troisième partie consacre à l'analyse de l'influence des paramètres d'imagerie sur les propriétés de diffusion en utilisant une théorie de simulation améliorée. La dernière partie a pour objectif de modéliser la structure des fibres cardiaques in vivo et de simuler les images de diffusion correspondantes en combinant la structure des fibres cardiaques et le mouvement cardiaque connu a priori. Les simulateurs proposés nous fournissent un outil générique pour générer des images de diffusion simulées qui peuvent être utilisées pour évaluer les algorithmes de traitement d'images, pour optimiser le choix des paramètres d'IRM pour les fibres cardiaque aussi bien ex vivo que in vivo, et pour étudier la relation entre la structure de fibres microscopique et les propriétés de diffusion macroscopiques.
10

Étude de la Dynamique des Ondes Spirales à l'Échelle Cellulaire par Modèles Expérimental et Numérique

Xu, Binbin 12 July 2012 (has links) (PDF)
Parmi les causes de décès d'origine cardiaque, les troubles du rythme occupent une place majeure, particulièrement les troubles auriculaires. Cette situation alarmante a motivé une recherche intense, mais qui est limitée par la disponibilité de modèles expérimentaux permettant de reproduire les mécanismes cellulaires de déclenchement et d'extensions de ces anomalies. Qu'ils surviennent sur un cœur sain ou pathologique, qu'ils soient bénins ou potentiellement dangereux (risque de mort subite), les troubles du rythme constituent un chapitre important de la cardiologie. Ils posent d'importants problèmes d'ordre diagnostique, pronostique, et thérapeutique. Ils peuvent se produire au niveau atrial (nœud auriculo-ventriculaire, plus tronc du faisceau de HIS avant sa division) ou ventriculaire (après la division du faisceau de HIS en ses deux branches droite et gauche), et ils obéissent à différents mécanismes, au premier rang desquels les réentrées et les hyperautomatismes. Cette thèse s'intéresse à l'étude et la modélisation des troubles du rythme cardiaque à l'échelle cellulaire. Ainsi la problématique de la thèse peut être résumée succinctement par ces quelques mots clés : système non-linéaire, modèles cardiaques, ondes spirales, défibrillation.... Une des questions qui a été soulevée est : comment optimiser le processus de défibrillation pour qu'il soit le moins contraignant pour le patient ? Nous avons commencé par nous intéresser à la défibrillation par stimulation électrique. La stimulation externe peut terminer la fibrillation mais peut aussi éventuellement générer de nouvelles ondes dans le tissu cardiaque. Ce dernier effet de stimulation semble inévitable, si l'énergie de stimulation dépasse certains seuils. Nous nous sommes posé alors une question: comment peut-on terminer la fibrillation en appliquant une stimulation sous le seuil pour éviter d'engendrer d'autres problèmes. Après quelques pistes de réflexion, nous nous sommes orientés vers une stratégie hybride de stimulation qui permet d'atteindre cet objectif. En parallèle de ces travaux, nous avons travaillé aussi sur un système expérimental à base de MEA (Multi Electrodes Array). Ce système nous permet d'acquérir des signaux de cellules cardiaques de rats nouveau-nés en culture in vitro. Etant donné que les données recueillies peuvent être bruitées et erronées, nous avons utilisé des ondelettes pour le débruitage et la méthode de décomposition par les valeurs singulières pour éliminer les mauvais signaux. Comme mentionné précédemment, la stimulation peut provoquer de nouvelles ondes dans le tissu, ceci a été observé expérimentalement sous forme d'ondes spirales. Les prochains travaux serviront à approfondir " la stimulation hybride " au niveau théorique. Ensuite en profitant de notre plateforme MEA, nous allons tester la stratégie de défibrillation par stimulation hybride au niveau expérimental.

Page generated in 0.5166 seconds