• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 55
  • 12
  • 6
  • Tagged with
  • 73
  • 34
  • 18
  • 17
  • 16
  • 14
  • 14
  • 14
  • 14
  • 12
  • 10
  • 10
  • 10
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Modélisation Géométrique Itérative et Nouvel Univers de Formes

Gentil, Christian 08 December 2010 (has links) (PDF)
Mes recherches ont pour cadre la modélisation géométrique pour la Conception Assistée par Ordinateur et la Synthèse d'images. Plus précisément, j'étudie les possibilités qu'offrent les procédés de construction itératifs basés sur le principe de la géométrie fractale. Partant du modèle IFS (Iterated Function System), nous avons montré qu'il est possible de modéliser des formes non conventionnelles et ainsi de donner accès à un nouvel univers de formes aux concepteurs, artistes et designers. Cette approche est notamment utilisée pour modéliser des surfaces plissées (comme pour la réalisation de coques en architecture) ou des surfaces rugueuses. Nous avons orienté nos travaux sur la notion de texture géométrique et nous développons des méthodes pour les contrôler. Ainsi nous introduisons une notion de géométrie différentielle fractale permettant de caractériser et contrôler les courbes et surfaces fractales. Par ailleurs, nous montrons que notre modèle est une généralisation des modèles de surfaces Splines, NURBS et des surfaces de subdivision. Il donne un nouvel éclairage sur certains problèmes liés à ces modèles comme celui des raccords entre surfaces de natures différentes ou encore celui du comportement autour des points extraordinaires.
22

Equipement informatique des annotations et des pratiques d'écriture professionnelles : une étude ancrée pour l'organisation des soins en cancérologie / Computerized equipment of annotations professional writing practices : a grounded study for care organization in oncology

Marrast, Philippe 09 October 2015 (has links)
Prenant appui sur une méthodologie d'enquête, de conceptualisation et de développement itérative - la Théorie Ancrée - notre recherche sur l'instrumentation informatique des annotations et des pratiques d'écriture professionnelles nous a permis de développer des concepts, un modèle et un prototype informatique originaux pour le support de l'organisation des soins en cancérologie. Pour mener à bien ce travail itératif de modélisation, nous nous sommes inspirés des pratiques d'écriture des soignants que nous avons observées durant plusieurs années dans un hôpital en cancérologie. Cette étude qualitative a été complétée par un état de l'art pluridisciplinaire. Ce travail d'articulation entre différents domaines scientifiques, enquête et confrontation aux acteurs du terrain nous a permis de développer les concepts de pratique annotative et d'écriture heuristique considérés comme constitutifs du travail d'organisation des soins. Ces pratiques permettent aux soignants d'appréhender leurs environnements de travail complexes, et de gérer efficacement les dynamiques et les variétés de situations et de prise en charge des patients. La caractérisation de ces pratiques nous a permis de développer un modèle informatique simple, robuste et ouvert, mais surtout ancré dans le terrain de recherche et dans les pratiques soignantes. Ce prototype grâce notamment aux contextes d'affichage diversifiés des réseaux d'annotation qu'il autorise, grâce à sa flexibilité et son évolutivité, permet effectivement d'adresser la question du support du travail collectif d'organisation des soins en cancérologie, autant qu'il est prometteur pour d'autres contextes d'exploitation. / Our research about computerized equipment of annotations and professional writing practices has articulated Computer Sciences and Communication and Information Sciences in order for us to develop a software prototype for the support of organisation of care in oncology thanks to an empirical and longitudinal study. This articulation has relied on 4 years long of multimodal ethnography, a conceptualization based upon Grounded Theory rules, a model and a software development that we iteratively conduct simultaneously with this qualitative inquiry. This original combination of methodologies from different domains has been remarkably rich to help us build a specific point of view about oncology hospital organizations, and about the accomplishment of care work and about patients' management in these complex professional organizations. The modern medical and hospital rationalizations, including ICT and e-health tools, are in the confluence of various movements that impact upon several elements of hospital organizations, and upon medical and care practices. We focused our study on the situated writing practices of caregivers and specifically on the richness of the materiality of writings that led us to question notions such as information systems, collective and distributed production of knowledge, and the documentary production cycles for the organization of activity. We are making the hypothesis that annotations can be opportunely considered as constitutive elements in the production of "organizational texts" that are in the core of the support of the organization and the realization of collective and individual work. Caregivers rely on these "organizational texts" that they build, actualize and stabilize thanks to what we call the "annotative practice" that enables them to apprehend their complex environments of work, and to handle the dynamics and the variety of situations and to manage patients. We will show how the characterization of this "annotative practice" helped us to develop a simple, robust and open software model. We will detail the iterative process between inquiry, analysis, conceptualizations and developments that led us to stabilize our model and our web prototype that implement this annotative practice. We will conclude our work by showing that this prototype, thanks to the numerous context displays of annotations networks, thanks to its flexibility and evolutivity achieves the support of the collective organization of patients' care in oncology, as much as it seems to be relevant in other exploitation context of collective organization of work.
23

Comportement au fluage de poutres hétérogènes bois-BFUP assemblées par collage / Creep behaviour of heterogeneous glulam-UHPFRC beams assembled by bonding

Kong, Kanhchana 15 September 2015 (has links)
Ce travail de recherche vise à évaluer le comportement au fluage de nouvelles structures composites en associant trois matériaux: le bois, le béton fibré ultra-haute performance (BFUP) et des armatures polymères renforcées de fibres de carbone (PRFC). Le but de la conception d'une telle section hybride est de faire usage des meilleures caractéristiques de chaque matériau afin d'augmenter sa capacité portante à l'ultime et/ou en service. Aussi, d'un point de vue du comportement mécanique, cette solution de renforcement vise à apprécier et hiérarchiser l'intérêt d'une telle solution liée aux effets déférés, particulièrement au fluage. La première étape consiste à mener une analyse expérimentale sur le comportement en statique de poutres hétérogènes bois-BFUP. Elle est exécutée afin de mieux comprendre le mécanisme d'endommagement ainsi que la performance pour définir le comportement au fluage. Pour cela, une campagne expérimentale en flexion quatre points portant sur trois poutres, dont une poutre témoin, a été conduite sous sollicitation statique. Les résultats obtenus confirment que les poutres hétérogènes Bois-BFUP apportent une optimisation de capacité portante ainsi que de la rigidité. Les poutres hybrides ont permis d'obtenir le même mode de rupture en flexion et la première rupture s'est produite dans la partie comprimée de BFUP supérieur. La seconde partie de la recherche est consacrée à l'analyse du comportement au fluage de poutres hétérogènes bois-BFUP nécessaire pour prédire les déformations à long terme dans des structures composites hybrides. Dans cette étude, deux types d'essai ont été réalisés : essai en environnement contrôlé et essai en environnement non contrôlé (extérieur). En environnement contrôlé les essais fluage ont commencé sous une charge constante de 24 kN dans le laboratoire avec des températures de 20±5 °C et une humidité relative entre 40% et 60%. Ces conditions climatiques peuvent être considérées comme un environnement de classe 1, conformément à l'Eurocode 5. Les résultats ont montré que la flèche de fluage de la poutre renforcée augmente peu tout au long de l'essai. A l'inverse de ces résultats, l'essai de fluage en environnement variable à l'extérieur du laboratoire, qui peut être considéré comme environnement de classe 3 suivant l'Eurocode 5, montre que les effets différés du bois et du béton jouent un rôle très important dans l'évolution de la flèche finale / This dissertation aims to evaluate the creep behaviour of a new composite structure combined three materials: the wood, the ultra-high performance fibre-reinforced concrete (UHPFRC) and the polymer fibre reinforced carbon (CFRP) according to their advantages and performances. The conception of such hybrid section is to use the best characteristics of each material to increase its bearing capacity in the ultimate and / or in service. Furthermore, from the point of view of design, this strengthening solution is to assess and prioritize the interests to reduce the deformation caused by the delayed effects, particularly caused by creep. The first part investigated an experimental analysis of the static behaviour of the wood-UHPFRC beam, and should be performed to understand the mechanism of the hybrid beam as well as the performance which are the directions to identify the creep behaviour. A four-points bending test setup on three beams, one beam witness, was conducted under static loading. The results confirm that heterogeneous Timber-UHPFRC beams provide an optimization of bearing capacity and stiffness. The hybrid beams have produced the same flexural mode of failure and the first crack occurred in the upper part of compressed UHPFRC. The second part of the research is devoted to the analysis of creep behaviour of heterogeneous wood beams UHPC necessary to predict long-term deformations in composite structures. In this study, two types of test setups were conducted: test in a sheltered and outdoor environment. In the sheltered environment, the creep test began under a constant load of 24 kN in the laboratory with temperatures of 20 ± 5 °C and a relative humidity between 40% and 60%. These climatic conditions can be considered as the service class 1, according to Eurocode 5. The results showed that the creep deflection of the reinforced beam gradually increases throughout the test. Unlike these results, the creep test in a variable environment outside the laboratory, which can be considered Class Service 3 to Eurocode 5, shows that the effect of time dependency behaviour of wood and concrete plays a very important role in the evolution of the creep deflection of the hybrid beams
24

Utilisation de l'élargissement d'opérateurs maximaux monotones pour la résolution d'inclusions variationnelles / Using the expansion of maximal monotone operators for solving variational inclusions

Nagesseur, Ludovic 30 October 2012 (has links)
Cette thèse est consacrée à la résolution d'un problème fondamental de l'analyse variationnelle qu'est la recherchede zéros d'opérateurs maximaux monotones dans un espace de Hilbert. Nous nous sommes tout d'abord intéressés au cas de l'opérateur somme étendue de deux opérateurs maximaux monotones; la recherche d'un zéro de cet opérateur est un problème dont la bibliographie est peu fournie: nous proposons une version modifiée de l'algorithme d'éclatement forward-backward utilisant à chaque itération, l'epsilon-élargissement d'un opérateur maximal monotone,afin de construire une solution. Nous avons ensuite étudié la convergence d'un nouvel algorithme de faisceaux pour construire ID zéro d'un opérateur maximal monotone quelconque en dimension finie. Cet algorithme fait intervenir une double approximation polyédrale de l'epsilon-élargissement de l'opérateur considéré / This thesis is devoted to solving a basic problem of variational analysis which is the search of zeros of maximal monotone operators in a Hilbert space. First of aIl, we concentrate on the case of the extended som of two maximal monotone operators; the search of a zero of this operator is a problem for which the bibliography is not abondant: we purpose a modified version of the forward-backward splitting algorithm using at each iteration, the epsilon-enlargement of a maximal monotone operator, in order to construet a solution. Secondly, we study the convergence of a new bondie algorithm to construet a zero of an arbitrary maximal monotone operator in a finite dimensional space. In this algorithm, intervenes a double polyhedral approximation of the epsilon-enlargement of the considered operator
25

Validation des modalités d’imagerie CBCT basse dose dans les bilans de localisation des canines incluses

Benaim, Eliyahou 03 1900 (has links)
OBJECTIF : L’objectif de cette étude a été de valider le potentiel des méthodes de reconstruction itérative nouvellement développées en imageries CT à faisceau conique, afin de réduire la dose d’exposition dans le cadre des bilans de localisation des canines incluses. MÉTHODOLOGIE : Quarante examens par imagerie volumétrique à faisceau conique de canines incluses ont été reconstruits à pleine dose (D), demi-dose (D2) et quart de dose (D4). Ces examens ont été analysés par un radiologiste maxillo-facial et par un résident en orthodontie. La cohérence entre les évaluations des critères radiologiques retenus a été évaluée avec les tests de Kappa Cohen. RÉSULTATS : Les résultats de cette étude ont montré de fortes valeurs de Kappa concernant l'évaluation inter-examinateur de la position de la canine impactée avec des scores compris entre 0.606 – 0.839. Les valeurs de Kappa déterminées pour la résorption, l'ankylose et les lésions associées étaient beaucoup plus faibles avec des scores compris entre 0.000 et 0.529. CONCLUSION : Cette étude a permis de montrer que la localisation des canines incluses pourrait potentiellement être possible à faible dose (1/4 dose), comparativement à un dosage conventionnel. Toutefois, le diagnostic de la résorption, de l'ankylose ou encore de certaines lésions associées nécessitent de la haute résolution et donc des acquisitions à pleine dose. / AIM : The aim of this study was to validate the potential of newly developed iterative reconstruction methods in cone beam CT imaging to reduce the exposure dose for localization assessments of impacted canines. METHODS : Forty Cone beam CT examinations of impacted canines were reconstructed at full dose (D), half dose (D2) and quarter dose (D4). These examinations were analyzed by a maxillofacial radiologist and by an orthodontic resident. Consistency between the assessments of the selected radiological criteria was evaluated with Kappa Cohen tests. RESULTS : The results of this study showed high Kappa values regarding the inter-examiner assessment of the impacted canine position with scores ranging from 0.606 - 0.839. The Kappa values determined for resorption, ankylosis and associated lesions were lower with scores between 0.000 and 0.529. CONCLUSION : This study showed that the localization of impacted canines could potentially be possible at low dose (1/4 dose), compared to a conventional assay. However, the diagnosis of resorption, ankylosis or certain associated lesions requires high resolution and therefore full dose acquisitions.
26

Contribution aux méthodes de reconstruction d'images appliquées à la tomographie d'émission par positrons par l'exploitation des symétries du système

Leroux, Jean-Daniel January 2014 (has links)
Le désir d’atteindre une haute résolution spatiale en imagerie médicale pour petits animaux conduit au développement d’appareils composés de détecteurs de plus en plus petits. Des appareils s’approchant de la résolution théorique maximale en tomographie d’émission par positrons (TEP) sont à nos portes. Pour retirer le maximum d’information de ces appareils, il importe d’utiliser des méthodes de traitement évoluées qui prennent en considération l’ensemble des phénomènes physiques entourant la prise de mesure en TEP. Le problème est d’autant plus complexe à résoudre du fait que ces caméras sont composées de milliers de détecteurs qui donnent lieu à des millions de lignes de réponses mesurées pouvant alors être traitées par un algorithme de reconstruction d’images. Cette situation mène à des problèmes de reconstruction d’images en 3 dimensions (3D) qui sont difficiles à résoudre principalement à cause des limites en ressources mémoires et de calcul des ordinateurs modernes. Les travaux réalisés dans le cadre de cette thèse répondent à deux grands besoins relatifs au domaine de la reconstruction d’images en TEP, soit l'atteinte d'une meilleure qualité d'image et l'accélération des calculs menant à l'obtention de celle-ci. Le premier volet des travaux repose sur le l'élaboration de méthodes de modélisation 3D précises du processus d’acquisition en TEP permettant d'atteindre une meilleure qualité d’image. Ces modèles 3D s'expriment sous forme de matrices systèmes qui sont utilisées par un algorithme de reconstruction d'images. Pour générer ces modèles 3D pour la TEP, des méthodes de calculs analytiques et basées sur des simulations Monte Carlo (MC) ont été développées. Des méthodes hybrides, basé sur des stratégies analytiques et Monte Carlo, ont également été mises en œuvre afin de combiner les avantages des deux approches. Les méthodes proposées se distinguent de l'art antérieur en ce qu'elles tirent profit des symétries du système afin de réduire considérablement le temps de calcul requis pour l'obtention de matrices 3D précises. Pour l’approche analytique, le calcul de la matrice est divisé en diverses étapes qui favorisent la réutilisation de modèles pré-calculés entre les lignes de réponses symétriques de l’appareil. Pour l’approche par simulations MC, la réutilisation des événements MC collectés entre les lignes de réponse symétriques de l’appareil permet d’augmenter la statistique utilisée pour générer la matrice MC et du même coup de réduire le temps de simulation. La méthode hybride proposée permet de réduire encore davantage le temps de simulation MC et cela, sans faire de compromis sur la qualité de la matrice système. Le second volet des travaux repose sur le développement de nouvelles méthodes de reconstruction d’images basées sur un référentiel en coordonnées cylindriques permettant de réduire les contraintes d’espace mémoire et d'accélérer les calculs menant à l’image. Ces méthodes se divisent en deux catégories distinctes. Les premières sont des méthodes dites itératives qui permettent de résoudre le problème de reconstruction d’images par un processus itératif qui réalise une nouvelle estimation de l’image à chaque itération de façon à maximiser le degré de vraisemblance entre l’image et la mesure de l’appareil. Les secondes sont des méthodes dites directes qui permettent de résoudre le problème en inversant la matrice système qui relie l’image à la mesure de projections par une décomposition en valeurs singulières (DVS) de la matrice. La matrice inverse ainsi obtenue peut alors être multipliée directement avec la mesure pour obtenir l’image reconstruite. L’utilisation d’une image en coordonnées cylindriques entraîne une redondance au niveau des coefficients de la matrice système obtenue. En exploitant ces redondances, il est possible d’obtenir une matrice système avec une structure dite bloc circulante qui peut alors être transformée dans le domaine de Fourier afin d’accélérer les calculs lors du processus de reconstruction d’images itératif ou par DVS. De plus, pour la méthode par DVS, l’utilisation d’une matrice bloc circulante factorisée facilite grandement la procédure d'inversion de la matrice par DVS, ce qui rend l’application de la méthode possible pour des problèmes de reconstruction d’images en 3D. Or, la résolution de problèmes aussi complexes n’était jusqu’ici pas possible avec les méthodes par DVS de l’art antérieur dû aux contraintes d’espace mémoire et à la charge excessive de calcul. En somme, les travaux combinés ont pour objectif ultime de réunir à la fois la vitesse de calcul et une qualité d'image optimale en un même algorithme afin de créer un outil de reconstruction 3D idéal pour l'utilisation dans un contexte clinique.
27

Modélisation neutronique des réacteurs à lit de boulets dans le code APOLLO2

Grimod, Maurice 07 December 2010 (has links) (PDF)
DANS LA THÈSE, UNE NOUVELLE TECHNIQUE ITÉRATIVE D'HOMOGÉNÉISATION POUR LES RÉACTEURS À LIT DE BOULETS EST DÉVELOPPÉE. LE MODÈLE CONSIDÈRE LES DIFFÉRENCES SPECTRALES, PROPRES À CHAQUE TYPE DE BOULET, POUR LES CALCULS D'HOMOGÉNÉISATION ET D'ÉVOLUTION MICROSCOPIQUE. LA MÉTHODE DÉVELOPPÉE DANS LE CODE DE CALCUL NEUTRONIQUE APOLLO2 A ÉTÉ VÉRIFIÉE PAR COMPARAISON AVEC DES SIMULATIONS MONTE CARLO DE RÉFÉRENCE, AVEC TRIPOLI4. LES RÉSULTATS OBTENUS PAR LE MODÈLE APOLLO2 SONT PEU DIFFÉRENTS DE LA RÉFÉRENCE (MOINS DE 100 PCM SUR LE KEFF, DE ±4% SUR LA DISTRIBUTION DES TAUX DE PRODUCTION, AVEC UNE DIFFÉRENCE DE 3% AU POINT CHAUD). ENSUITE, UNE PREMIÈRE VALIDATION A ÉTÉ RÉALISÉE PAR RAPPORT À LA PREMIÈRE DIVERGENCE DU PROTOTYPE HTR-10. LE NOMBRE OBTENU AVEC LE NOUVEAU MODÈLE EST SEULEMENT DE 77 BOULETS EN DESSOUS DE LA VALEUR EXPÉRIMENTAL DE 16890 BOULETS. UNE MÉTHODE A ENSUITE ÉTÉ DÉVELOPPÉE POUR ÉVALUER LA COMPOSITION DU CŒUR À L'ÉQUILIBRE, LIÉE À LA RÉ-CIRCULATION DES BOULETS. LA NOUVELLE MÉTHODE A ÉTÉ APPLIQUÉE POUR ÉVALUER LE BIAIS ASSOCIÉ À L'EMPLOI D'UN SEUL BOULET DE COMPOSITION ISOTOPIQUE MOYENNE. LES DIFFÉRENCES SPECTRALES ENTRE LES DIFFÉRENTS TYPES DE BOULETS ÉTANT EN GRANDE PARTIE DUES AUX RÉSONANCES DU PU240, LE BIAIS EST PLUS IMPORTANT QUAND LE CŒUR EST CHARGÉ AVEC UN COMBUSTIBLE DE PU, OÙ ON OBSERVE DES ÉCARTS SUR LES DISTRIBUTIONS DE PUISSANCES ET LES CONCENTRATIONS DE ± 10%. POUR CONCLURE, EN SE BASANT SUR L'EXPÉRIENCE ACCUMULÉE AU CEA ET AVEC LA MÉTHODE DÉVELOPPÉE ICI, ON POURRAIT MONTER UN SCHÉMA ITÉRATIF DE CALCUL COUPLÉ NEUTRONIQUE - THERMO-HYDRAULIQUE, EN CALCULANT LE CŒUR 3D EN DIFFUSION ET EN ASSOCIANT À CHAQUE RÉGION DE SPECTRE UNE GÉOMÉTRIE MULTI-BOULETS.
28

Systèmes OFDM ultra large bande :<br />Estimation de canal et détection améliorée prenant en compte les imprécisions d'estimation

Sadough, Seyed Mohammad Sajad 07 January 2008 (has links) (PDF)
Les travaux présentés dans cette thèse se situent dans le cadre de la transmission OFDM appliqué au contexte Ultra Large Bande. L'objectif principal va être l'estimation du canal de propagation et la conception de récepteurs en prenant en compte la connaissance non idéale du canal. On propose d'abord une approche semi-aveugle d'estimation du canal basée sur l'algorithme EM. Le canal est décrit au moyen de sa décomposition dans une base d'ondelettes, ce qui fournit une représentation parcimonieuse. La complexité de l'estimation est réduite grâce au fait que les coefficients d'ondelettes jugés non significatif sont écartés. Ensuite, on propose des structures de réception où la conception du détecteur prend en compte la présence des erreurs d'estimation de canal. La détection au sens maximum de vraisemblance (MV) est améliorée en modifiant sa métrique de détection pour le cas où le canal est estimé de manière imparfaite. La métrique MV améliorée ainsi obtenue nous permet de remettre en question le schéma de détection de type turbo maximum a posteriori (MAP) et l'adapter à la connaissance imparfaite du canal. En outre, le choix de l'étiquetage lors de l'attribution des bits aux symboles est également discuté. De plus, on dérive les débits de coupure atteignables (achievable outage rates) avec le détecteur MV améliorée ou un détecteur MV désadapté (utilisant les estimés de canal comme s'il s'agissait des vraies) qu'on comparera avec un détecteur théorique défini comme étant le meilleur récepteur possible en présence d'erreurs d'estimation de canal. Enfin, un récepteur itératif à complexité réduite basé sur un filtrage MMSE et l'annulation parallèle d'interférence (turbo-PIC) est introduit. L'idée de notre approche consiste à prendre en compte la connaissance imparfaite du canal dans la conception du filtre MMSE ainsi que dans la partie annulation d'interférence. Il est important de souligner que les améliorations proposées dans cette thèse ne résultent pas en une augmentation sensible de la complexité algorithmique au niveau du récepteur.
29

Interprétation contextuelle et assistée de fonds d'archives numérisées : application à des registres de ventes du XVIIIe siècle / Contextual and assisted interpretation of digitized fonds : application to sales registers from the 18th century

Chazalon, Joseph 09 January 2013 (has links)
Les fonds d'archives forment de grandes quantités de documents difficiles à interpréter automatiquement : les approches classiques imposent un lourd effort de conception, sans parvenir à empêcher la production d'erreurs qu'il faut corriger après les traitements.Face à ces limites, notre travail vise à améliorer la processus d'interprétation, en conservant un fonctionnement page par page, et en lui apportant des informations contextuelles extraites du fonds documentaire ou fournies par des opérateurs humains.Nous proposons une extension ciblée de la description d'une page qui permet la mise en place systématique d'échanges entre le processus d'interprétation et son environnement. Un mécanisme global itératif gère l'apport progressif d'informations contextuelles à ce processus, ce qui améliore l'interprétation.L'utilisation de ces nouveaux outils pour le traitement de documents du XVIIIe siècle a montré qu'il était facile d'intégrer nos propositions à un système existant, que sa conception restait simple, et que l'effort de correction pouvait être diminué. / Fonds, also called historical document collections, are important amounts of digitized documents which are difficult to interpret automatically: usual approaches require a lot of work during design, but do not manage to avoid producing many errors which have to be corrected after processing.To cope with those limitations, our work aimed at improving the interpretation process by making use of information extracted from the fond, or provided by human operators, while keeping a page by page processing.We proposed a simple extension of page description language which permits to automatically generate information exchange between the interpretation process and its environment. A global iterative mechanism progressively brings contextual information to the later process, and improves interpretation.Experiments and application of those new tools for the processing of documents from the 18th century showed that our propositions were easy to integrate in an existing system, that its design is still simple, and that required manual corrections were reduced.
30

Méthodes statistiques de reconstruction tomographique spectrale pour des systèmes à détection spectrométrique de rayons X / Spectral CT statistical reconstruction methods for X-ray photon-counting detectors system

Rodesch, Pierre-Antoine 09 October 2018 (has links)
La tomographie à rayons X est une technologie d’imagerie en trois dimensions. Elle se base sur la transmission de rayons X à travers l’objet d’étude. Elle est non destructive mais néanmoins irradiante. Cette technique de visualisation est utilisée principalement dans trois domaines : le diagnostic médical, le contrôle non destructif (détection de défauts dans des pièces industrielles de haute performance) et la sécurité (contrôles aéroportuaires des bagages). Les récentes avancées technologiques dans le domaine des détecteurs spectrométriques de rayons X ouvrent des perspectives d’amélioration de cette technique d’imagerie dans ses divers domaines d’application. Nous avons développé une nouvelle méthode reconstruction statistique appelée MLTR-ONE-STEP qui permet de reconstruire la variabilité énergétique du coefficient linéaire d’atténuation de l’objet étudié. Cette approche est dite « one-step » car elle reconstruit directement le volume final à partir des mesures brutes issues de détecteurs spectrométriques.Les phénomènes physiques au sein du détecteur provoquent une distorsion énergétique du spectre d’atténuation qui a été prise en compte lors de la reconstruction. La méthode utilisée s’inscrit dans le cadre bayésien et maximise la log-vraisemblance du modèle tout en prenant en compte de l’a priori spatial sur le volume reconstruit. L’objectif de la méthode est l’amélioration de la qualité de l’image finale (réduction des artefacts et niveau de bruit) et la quantification des matériaux présents. Nous avons étudié dans le cadre de données simulées l’influence des paramètres de régularisation sur la reconstruction. En pratique, le détecteur de rayon X étudié classe les photons incidents en 64 canaux. Ils sont ensuite regroupés en un nombre de canaux plus faible (2 à 25) et l’influence de ce regroupement a été étudiée. La reconstruction MLTR-ONE-STEP a ensuite été testée sur des données expérimentales regroupées en 12 canaux. / X-ray spectral tomography is a 3D visualization technique. It is based on the transmission of X-rays through object matter. It is a non-destructive technology but which irradiates the studied object/patient. X-ray tomography is mainly used in three areas: medical diagnosis, non-destructive testing (detection of defects in industry devices) and airport security (luggage screening). New technological breakthroughs in X-ray photon-counting detectors provide new perspective for improving this technique in each application field. We have developed a new reconstruction method named MLTR-ONE-STEP which enables the obtention of energetic variability of the scanned object linear attenuation coefficient. This approach belongs to the “One-Step” class because it directly reconstructs the final images from raw photon-counting detector data.Physical effects inside the detector are causing spectral distortion of the energetic spectrum. This distortion is taken into account in our reconstruction through a Detector Response Matrix. The developed reconstruction method maximizes the poissonian likelihood of the measurements with a spatial regularization Tukey term. The objectives of spectral tomography are the improvement of the image quality compared to standard tomography and the quantification of materials inside the object. We have studied the influence of regularization parameters on the final result. In practice, photon-counting detector measurements are in practice sorted in 64 energy bins. Bins are then merged in a smaller number (from 2 to 25). The influence of this binning was studied on simulated data. The MLTR-ONE-STEP was then tested on real experimental data in order to prove the feasibility of such a “One-Step” reconstruction method.

Page generated in 0.046 seconds