• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 14
  • 1
  • 1
  • Tagged with
  • 48
  • 48
  • 23
  • 19
  • 14
  • 13
  • 12
  • 11
  • 9
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Rehaussement des primitives de contours à l'aide d'une segmentation multi-échelle en arbre quaternaire

Bergeron, Vincent 13 April 2018 (has links)
Ce mémoire présente une approche permettant de rehausser la silhouette d'un objet multie-parties dans une image. L'entrée est une carte de CCPs (Constant Curvature Primitives) provenant d'une segmentation de l'image originale par le logiciel MAGNO. Ces CCPs sont en fait des arcs de cercle et des segments de droite. L'objectif est de rehausser la silhouette de l'objet, c'est-à-dire de conserver les CCPs se trouvant sur la silhouette de l'objet et d'éliminer les autres. L'approche retenue est d'utiliser l'image originale (avant la segmentation par le logiciel MAGNO) et de la diviser en utilisant l'algorithme de l'arbre quaternaire. Une fois l'image divisée en carrés, ces derniers sont superposés à la carte de CCPs et cinq critères permettent à la fois d'éliminer et de donner un poids à chacun des CCPs. Les CCPs ayant les plus grands poids sont plus susceptibles de se trouver sur la silhouette de l'objet
22

Algorithme de reconstruction itératif pour tomographie optique diffuse avec mesures dans le domaine temporel

Allali, Anthony January 2016 (has links)
L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.
23

Développement d'antennes pour la détection de tumeurs cancéreuses dans le sein / Antennas design for cancerous tumors detection in the breast

Katbay, Zahra 11 July 2018 (has links)
Le cancer du sein, l'une des principales causes de mortalité féminine dans le monde, peut être traité avec plus d’efficacité s'il est détecté à un stade précoce. L'imagerie micro-ondes (MWI), technique émergente, apparait comme prometteuse pour compléter les méthodes de diagnostics actuelles. Elle est non-ionisante et potentiellement peu coûteuse, possédant ainsi des caractéristiques clés pour être un bon candidat pour la détection de masse et pour un dépistage fréquent. Cette thèse résume les résultats d'une recherche novatrice menée sur un système micro-onde visant au dépistage dans les tissus mammaires. Une première technique de détection fréquentielle directe est proposée en utilisant une antenne compacte HFA mise en cavité spécifiquement conçue pour une utilisation en contact direct avec le sein. Les résultats de simulations sont analysés et comparés à des mesures faites au CHRU à Brest, ce qui a permis de valider un modèle fantôme dispersif du sein mais aussi de mettre en évidence les limites de cette 1ère technique. Une 2ème approche ULB est proposée dans laquelle une étude de la distribution du champ électrique à l’intérieur du modèle est menée pour deux types d’antennes ULB dédiée à une utilisation en contact direct de la peau, un monopole et une Vivaldi directive, toutes deux insérées dans une cavité. Cette étude comparative a mis en évidence l'intérêt d’utiliser une antenne directive pour cette application. Finalement, une étude élaborée dans le domaine temporel est menée en utilisant deux configurations d’antennes, une configuration mono-statique et une autre bi-statique afin d’étudier la possibilité de la détection tumorale et de la reconstruction d’image. Cette étude permet de justifier la mise au point d’un système antennaire dont l’objectif est de focaliser le maximum d’énergie dans le sein, notamment en concevant les antennes pour une utilisation en contact direct avec la peau pour augmenter la probabilité de la détection des tumeurs cancéreuses. / Breast cancer, one of the primary causes of women mortality worldwide, can be effectively treated if detected at its early stage. Microwave Imaging (MWI), an emerging technique, promises to complement the currently used diagnostic modalities.It is safe, non-ionizing and potentially inexpensive, thus possessing key features to make it a good candidate for frequent and mass screenings.This thesis summarizes the results of an innovative research conducted on a microwave system for breast tissue screening.A first direct frequency detection technique is proposed using a compact HFA antenna inside cavity specifically designed for use in direct contact with the breast. The simulations results are analyzed and compared to measurements made at CHRU of Brest, which validated a dispersive breast phantom model and demonstrated the limits of this first technique.A second UWB approach is proposed in which a study of the electric field distribution inside the model is conducted for two types of UWB antennas dedicated to use in direct skin contact, a monopole and a directive Vivaldi, all two inserted into a cavity.This comparative study has highlighted the interest of using a directional antenna for this application.Finally, the thesis focuses on time domain study using two configurations of antennas, a single-static configuration and another bi-static to study the possibility of tumor detection and image reconstruction and justifying the development of an antenna system whose objective is to focus the maximum energy in the breast to increase the probability of detection.
24

Algorithms for super-resolution of images based on sparse representation and manifolds / Algorithmes de super-résolution pour des images basées sur représentation parcimonieuse et variété

Ferreira, Júlio César 06 July 2016 (has links)
La ''super-résolution'' est définie comme une classe de techniques qui améliorent la résolution spatiale d’images. Les méthodes de super-résolution peuvent être subdivisés en méthodes à partir d’une seule image et à partir de multiple images. Cette thèse porte sur le développement d’algorithmes basés sur des théories mathématiques pour résoudre des problèmes de super-résolution à partir d’une seule image. En effet, pour estimer un’image de sortie, nous adoptons une approche mixte : nous utilisons soit un dictionnaire de « patches » avec des contraintes de parcimonie (typique des méthodes basées sur l’apprentissage) soit des termes régularisation (typiques des méthodes par reconstruction). Bien que les méthodes existantes donnent déjà de bons résultats, ils ne prennent pas en compte la géométrie des données dans les différentes tâches. Par exemple, pour régulariser la solution, pour partitionner les données (les données sont souvent partitionnées avec des algorithmes qui utilisent la distance euclidienne comme mesure de dissimilitude), ou pour apprendre des dictionnaires (ils sont souvent appris en utilisant PCA ou K-SVD). Ainsi, les méthodes de l’état de l’art présentent encore certaines limites. Dans ce travail, nous avons proposé trois nouvelles méthodes pour dépasser ces limites. Tout d’abord, nous avons développé SE-ASDS (un terme de régularisation basé sur le tenseur de structure) afin d’améliorer la netteté des bords. SE-ASDS obtient des résultats bien meilleurs que ceux de nombreux algorithmes de l’état de l’art. Ensuite, nous avons proposé les algorithmes AGNN et GOC pour déterminer un sous-ensemble local de données d’apprentissage pour la reconstruction d’un certain échantillon d’entrée, où l’on prend en compte la géométrie sous-jacente des données. Les méthodes AGNN et GOC surclassent dans la majorité des cas la classification spectrale, le partitionnement de données de type « soft », et la sélection de sous-ensembles basée sur la distance géodésique. Ensuite, nous avons proposé aSOB, une stratégie qui prend en compte la géométrie des données et la taille du dictionnaire. La stratégie aSOB surpasse les méthodes PCA et PGA. Enfin, nous avons combiné tous nos méthodes dans un algorithme unique, appelé G2SR. Notre algorithme montre de meilleurs résultats visuels et quantitatifs par rapport aux autres méthodes de l’état de l’art. / Image super-resolution is defined as a class of techniques that enhance the spatial resolution of images. Super-resolution methods can be subdivided in single and multi image methods. This thesis focuses on developing algorithms based on mathematical theories for single image super-resolution problems. Indeed, in order to estimate an output image, we adopt a mixed approach: i.e., we use both a dictionary of patches with sparsity constraints (typical of learning-based methods) and regularization terms (typical of reconstruction-based methods). Although the existing methods already perform well, they do not take into account the geometry of the data to: regularize the solution, cluster data samples (samples are often clustered using algorithms with the Euclidean distance as a dissimilarity metric), learn dictionaries (they are often learned using PCA or K-SVD). Thus, state-of-the-art methods still suffer from shortcomings. In this work, we proposed three new methods to overcome these deficiencies. First, we developed SE-ASDS (a structure tensor based regularization term) in order to improve the sharpness of edges. SE-ASDS achieves much better results than many state-of-the-art algorithms. Then, we proposed AGNN and GOC algorithms for determining a local subset of training samples from which a good local model can be computed for reconstructing a given input test sample, where we take into account the underlying geometry of the data. AGNN and GOC methods outperform spectral clustering, soft clustering, and geodesic distance based subset selection in most settings. Next, we proposed aSOB strategy which takes into account the geometry of the data and the dictionary size. The aSOB strategy outperforms both PCA and PGA methods. Finally, we combine all our methods in a unique algorithm, named G2SR. Our proposed G2SR algorithm shows better visual and quantitative results when compared to the results of state-of-the-art methods.
25

Optimisation de la reconstruction en tomographie d'émission monophotonique avec collimateur sténopé

Israel-Jost, Vincent 16 November 2006 (has links) (PDF)
En imagerie du petit animal par tomographie d'émission monophotonique (TEMP), la modélisation de la réponse physique du détecteur demande beaucoup de soin pour en contrebalancer la faible résolution intrinsèque. Les coupes du volume à reconstruire s'obtiennent ainsi à partir des projections, à la fois par une opération de rétroprojection et une déconvolution de la réponse impulsionnelle du détecteur. Nous optons dès lors pour des méthodes itératives de résolution d'un grand système linéaire qui fonctionnent indépendamment de la complexité du modèle.<br />Pour parvenir à des résultats exploitables, tant en terme de résolution spatiale que de temps de calcul chez le rat ou la souris, nous décrivons dans ce travail les choix de notre modélisation par une réponse impulsionnelle gaussienne, ajustée suivant des paramètres physiques et géométriques. Nous utilisons ensuite la symétrie de rotation inhérente au dispositif pour ramener le calcul de P opérateurs de projections au calcul d'un seul d'entre eux, par une discrétisation de l'espace compatible avec cette symétrie, tout en contrôlant la densité angulaire de voxels pour éviter un suréchantillonnage au centre du volume.<br />Enfin, nous proposons une nouvelle classe d'algorithmes adaptés à la fréquence qui permettent d'optimiser la reconstruction d'une gamme de fréquence spatiale donnée, évitant ainsi d'avoir à calculer de nombreuses itérations lorsque le spectre à reconstruire se retrouve surtout dans les hautes fréquences.
26

Tomographie optique diffuse : une approche résolue en temps pour les mesures en réflectance à courtes distances entre sources et détecteurs / Diffuse optical tomography : a time-resolved approach for reflectance measurements at short source-detector separation

Puszka, Agathe 05 December 2013 (has links)
La tomographie optique diffuse (TOD) est une technique d'imagerie médicale émergente utilisant la lumière proche infrarouge pour sonder les tissus biologiques. A partir de mesures non-invasives, cette technique permet d'obtenir les cartes en trois dimensions des coefficients d'absorption et de diffusion à l'intérieur des organes. Avec une approche multi-spectrale, la distribution spatiale des chromophores endogènes (hémoglobine, eau) peut aussi être obtenue. Pour certaines applications cliniques, il est souhaitable d'effectuer les mesures de TOD avec une sonde compacte qui regroupe tous les couples source-détecteur. Cependant, dans cette configuration, la sensibilité en profondeur est un défi majeur. Dans le cadre de cette thèse, nous proposons d'adresser ce challenge en utilisant des mesures résolues en temps. Une approche résolue en temps est développée pour optimiser la TOD dans le cas des mesures de réflectance à faibles distances source-détecteur. Cette approche inclut des aspects méthodologiques concernant le traitement des mesures résolues en temps par des algorithmes de TOD basés sur la transformée de Mellin-Laplace. Cette approche comporte aussi un volet instrumental qui consiste à optimiser la chaîne de détection sur deux points précis pour améliorer la détection et la localisation de contraste d'absorption en profondeur dans les milieux diffusants. Tout d'abord, l'impact de la réponse temporelle du détecteur est étudié avec des détecteurs de photons uniques disponibles dans le commerce (photomultiplicateurs classiques et hybrides). Dans un second temps, l'augmentation de la profondeur sondée avec de nouveaux détecteurs de photons uniques, les fast-gated single-photon avalanche diodes, est explorée au cours d'une collaboration avec le Politecnico de Milan. Pour finir, une étude illustre les performances de l'approche proposée en termes de résolution spatiale en profondeur pour différents arrangements des sources et détecteurs dans une sonde optique. Des sondes optiques dont la largeur est limitée à quelques centimètres ouvrent la voie à de nouvelles applications cliniques pour la TOD. Ces sondes peuvent accéder à des organes internes comme la prostate ou faciliter les examens médicaux sur des organes externes comme le sein ou le cerveau. / Diffuse optical tomography (DOT) is an emerging medical imaging technique using near-infrared light to probe biological tissues. This technique can retrieve three-dimensional maps of absorption and scattering coefficients inside organs from non-invasive measurements. With a multispectral approach, the spatial distribution of endogenous chromophores (hemoglobin, water) can even be obtained. For some clinical applications, it is desirable to carry out the measurements for DOT with a compact probe including all sources and detectors. However, the depth sensitivity is a real challenge in this configuration. We propose to tackle this challenge by using time-resolved measurements. A time-resolved approach is developed to perform DOT with reflectance measurements at short source-detector separation. This approach involves methodological aspects including the processing of time-resolved signals by DOT algorithms based on the Mellin-Laplace transform. Then, this approach consists in optimizing the detection chain on two aspects for enhancing the detection and localization of absorption contrast in depth in diffusive media. First, the impact of the temporal response of the detector is studied with commercially available single-photon detectors (classical and hybrid photomultipliers). Second, the enhancements in probed depth permitted with fast-gated single-photon avalanche diodes are explored in a joint work with the Politecnico di Milano. To finish, a study is carried out to illustrate the performance of the proposed approach with respect to spatial resolution in depth for different configurations of sources and detectors in the optical probe. Probes with a width limited to a few centimeters open the gate to multiple clinical interests. They could access intern organs like the prostate or facilitate the measurements on extern organs like the breast or the brain.
27

Méthodes et algorithmes de dématriçage et de filtrage du bruit pour la photographie numérique

Phelippeau, Harold 03 April 2009 (has links) (PDF)
Ces dernières années, les appareils photos/vidéos numériques grand public sont devenus omniprésents. On peut aujourd'hui trouver des systèmes de captures d'images dans toutes sortes d'appareils numériques comme les téléphones portables, les assistants personnels numériques etc. Malgré une augmentation croissante de la puissance et de la complexité de ces appareils, laqualité de la chaîne de capture d'image, composée du couple système optique/capteur est toujours contrainte à des limitations d'espace et de coût. Les défauts introduits sont nombreuxet dégradent considérablement la qualité des images produites : flou, déformations géométriques, artefacts de couleurs, effets de moire, bruits statiques et dynamiques, etc. Une idée intéressante est de corriger ces défauts de manière algorithmique en utilisant la puissance toujours croissante des architectures de traitements. Dans cette thèse nous nous intéressons particulièrement à deux problèmes issues de l'acquisition de l'image par le capteur : le dématriçage de la matrice de Bayer et la réduction du bruit. Dans la première partie, nous décrivons la structure générale de la chaîne de capture d'image dans les appareils photos/vidéos numériques. Nous présentons le rôle, le fonctionnement et les défauts introduits par chacun de ses éléments. Enfin, nous illustrons comment ces défauts peuvent être corriges par des traitements algorithmiques. Dans la deuxième partie, nous montrons comment l'information de couleur est introduite dans les capteurs numériques. Nous présentons ensuite un état de l'art des algorithmes de dématriçage. Un nouvel algorithme de reconstruction de la matrice de Bayer base sur le principe de l'interpolation directionnelle est propose. Il permet d'associer une qualité d'image produite sans artefacts avec une faible complexité de calculs. Pour mieux comprendre les comportements du bruit dans les capteurs numériques, nous énumérons ses différentes sources et leurs dépendances par rapport aux conditions de prises de vues. Apres avoir présenté l'état de l'art des méthodes de restauration des images bruitées, nous nous intéressons particulièrement aux algorithmes de débruitage à voisinage local et plus précisément au filtre bilatéral. Nous proposons un filtre bilatéral pour la mosaïque de Bayer, adaptatif en fonction de la puissance du bruit dans les images. Dans la troisième partie, nous présentons l'implémentation, l'optimisation et la simulation de l'exécution des algorithmes de dématriçage et de réduction du bruit proposes. La plateforme d'implémentation est le processeur TriMedia TM3270 de NXP semiconductors. Nous montrons que nous arrivons à traiter des images de taille 5 méga-pixels en moins de 0,5 secondes et des images de résolution VGA à une cadence supérieure à 25 images par seconde. Finalement, pour des raisons de standardisation, de rapidité d'exécution et de consommation d'énergie, nous avons conçu une architecture dédiée à l'algorithme de dématriçage propose. Cette architecture permet de multiplier par 10 la rapidité d'exécution obtenue sur le processeur TriMedia TM3270
28

Étude des artefacts en tomodensitométrie par simulation Monte Carlo

Bedwani, Stéphane 08 1900 (has links)
En radiothérapie, la tomodensitométrie (CT) fournit l’information anatomique du patient utile au calcul de dose durant la planification de traitement. Afin de considérer la composition hétérogène des tissus, des techniques de calcul telles que la méthode Monte Carlo sont nécessaires pour calculer la dose de manière exacte. L’importation des images CT dans un tel calcul exige que chaque voxel exprimé en unité Hounsfield (HU) soit converti en une valeur physique telle que la densité électronique (ED). Cette conversion est habituellement effectuée à l’aide d’une courbe d’étalonnage HU-ED. Une anomalie ou artefact qui apparaît dans une image CT avant l’étalonnage est susceptible d’assigner un mauvais tissu à un voxel. Ces erreurs peuvent causer une perte cruciale de fiabilité du calcul de dose. Ce travail vise à attribuer une valeur exacte aux voxels d’images CT afin d’assurer la fiabilité des calculs de dose durant la planification de traitement en radiothérapie. Pour y parvenir, une étude est réalisée sur les artefacts qui sont reproduits par simulation Monte Carlo. Pour réduire le temps de calcul, les simulations sont parallélisées et transposées sur un superordinateur. Une étude de sensibilité des nombres HU en présence d’artefacts est ensuite réalisée par une analyse statistique des histogrammes. À l’origine de nombreux artefacts, le durcissement de faisceau est étudié davantage. Une revue sur l’état de l’art en matière de correction du durcissement de faisceau est présentée suivi d’une démonstration explicite d’une correction empirique. / Computed tomography (CT) is widely used in radiotherapy to acquire patient-specific data for an accurate dose calculation in radiotherapy treatment planning. To consider the composition of heterogeneous tissues, calculation techniques such as Monte Carlo method are needed to compute an exact dose distribution. To use CT images with dose calculation algorithms, all voxel values, expressed in Hounsfield unit (HU), must be converted into relevant physical parameters such as the electron density (ED). This conversion is typically accomplished by means of a HU-ED calibration curve. Any discrepancy (or artifact) that appears in the reconstructed CT image prior to calibration is susceptible to yield wrongly-assigned tissues. Such tissue misassignment may crucially decrease the reliability of dose calculation. The aim of this work is to assign exact physical values to CT image voxels to insure the reliability of dose calculation in radiotherapy treatment planning. To achieve this, origins of CT artifacts are first studied using Monte Carlo simulations. Such simulations require a lot of computational time and were parallelized to run efficiently on a supercomputer. An sensitivity study on HU uncertainties due to CT artifacts is then performed using statistical analysis of the image histograms. Beam hardening effect appears to be the origin of several artifacts and is specifically addressed. Finally, a review on the state of the art in beam hardening correction is presented and an empirical correction is exposed in detail.
29

Les méthodes de régularisation optimale et leurs applications en tomographie : nouveaux algorithmes performants de reconstruction d'images

Girard, Didier 29 October 1984 (has links) (PDF)
.
30

Recalage d'image de la tomographie optique diffuse de fluorescence (fDOT) et la tomographie par émission de positons (TEP) et le développement de tomographie optique en multi-angle

Tong, Xiao 24 October 2012 (has links) (PDF)
Ce travail de thèse concerne le traitement d'image fDOT (fDOT pour fluorescence diffuse optical tomography) suit vers deux axes. Le recalage d'images fDOT à l'aide de l'imagerie TEP (tomographie par émission de positons) et l'amélioration des reconstructions fDOT à l'aide de miroirs pour collecter des projections complémentaires. Il est présenté en deux parties : Dans la première partie, une méthode automatique pour recaler les images de fDOT avec les images de Tomographie par Emission de Positons (TEP) développée dans le but de corréler l'ensemble des informations issues de chaque modalité. Cette méthode de recalage est basée sur une détection automatique de marqueurs fiduciaires présents dans les deux modalités. La particularité de cette méthode est l'utilisation de l'image de surface obtenue en fDOT, qui sert à identifier la position en Z des marqueurs fiduciaires dans les images optiques. Nous avons testé cette méthode sur un modèle de souris porteuses de xénogreffes de tumeurs de cellules cancéreuses MEN2A qui imitent un carcinome thyroïdien médullaire humain, après une double injection de traceur radioactif : [18F]2-fluoro-2-Deoxy-D-glucose (FDG) pour l'imagerie TEP et un traceur optique d'infrarouge fluorescent, le Sentidye. Grâce à la précision de notre méthode, nous arrivons à démontrer que le signal Sentidye est présent à la fois dans la tumeur et les vaisseaux environnants [1]. La qualité des images fDOT est dégradée selon l'axe Z du fait d'un nombre limité de projections pour la reconstruction. Dans la deuxième partie, le travail s'est orienté vers une nouvelle méthode de reconstruction d'images fDOT à partir d'un nouveau système d'acquisition multi-angulaire avec deux miroirs placés de chaque côté de l'animal. Ce travail a été mené en collaboration avec le département CS d'University College London (UCL), partenaire du projet Européen FMT-XCT. Le logiciel TOAST développé par cette équipe a été utilisé comme source pour l'algorithme de reconstruction, et modifié pour s'adapter à notre problématique. Après plusieurs essais concernant l'ajustement des paramètres du programme, nous avons appliqué cette méthode sur un fantôme réaliste des tissus biologiques et chez la souris. Les résultats montrent une amélioration de l'image reconstruite d'un fantôme semi-cylindrique et de l'image de rein chez la souris, pour lesquelles la méthode des miroirs est supérieure à la méthode classique sans miroir. Malgré tout, nous avons observé que les résultats étaient très sensibles à certains paramètres, d'où une performance de reconstruction variable d'un cas à l'autre. Les perspectives futures concernent l'optimisation des paramètres afin de généraliser l'approche multi-angle.

Page generated in 0.1548 seconds