• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 2
  • 1
  • Tagged with
  • 10
  • 10
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Algorithmes d'Ensemble Actif pour le LASSO

Loth, Manuel 08 July 2011 (has links) (PDF)
Cette thèse aborde le calcul de l'opérateur LASSO (Least Absolute Shrinkage and Selection Operator), ainsi que des problématiques qui lui sont associées, dans le domaine de la régression. Cet opérateur a suscité une attention croissante depuis son introduction par Robert Tibshirani en 1996, par sa capacité à produire ou identi fier des modèles linéaires parcimonieux à partir d'observations bruitées, la parcimonie signi fiant que seules quelques unes parmi de nombreuses variables explicatives apparaissent dans le modèle proposé. Cette sélection est produite par l'ajout à la méthode des moindres-carrés d'une contrainte ou pénalisation sur la somme des valeurs absolues des coe fficients linéaires, également appelée norme l1 du vecteur de coeffi cients. Après un rappel des motivations, principes et problématiques de la régression, des estimateurs linéaires, de la méthode des moindres-carrés, de la sélection de modèle et de la régularisation, les deux formulations équivalentes du LASSO contrainte ou régularisée sont présentées; elles dé finissent toutes deux un problème de calcul non trivial pour associer un estimateur à un ensemble d'observations et un paramètre de sélection. Un bref historique des algorithmes résolvant ce problème est dressé, et les deux approches permettant de gérer la non-di fferentiabilité de la norme l1 sont présentées, ainsi que l'équivalence de ces problèmes avec un programme quadratique. La seconde partie se concentre sur l'aspect pratique des algorithmes de résolution du LASSO. L'un d'eux, proposé par Michael Osborne en 2000, est reformulé. Cette reformulation consiste à donner une défi nition et explication générales de la méthode d'ensemble actif, qui généralise l'algorithme du simplex à la programmation convexe, puis à la spéci fier progressivement pour la programmation LASSO, et à adresser les questions d'optimisation des calculs algébriques. Bien que décrivant essentiellement le même algorithme que celui de Michael Osborne, la présentation qui en est faite ici a l'ambition d'en exposer clairement les mécanismes, et utilise des variables di fférentes. Outre le fait d'aider à mieux comprendre cet algorithme visiblement sous-estimé, l'angle par lequel il est présenté éclaire le fait nouveau que la même méthode s'applique naturellement à la formulation régularisée du LASSO, et non uniquement à la formulation contrainte. La populaire méthode par homotopie (ou LAR-LASSO, ou LARS) est ensuite présentée comme une dérivation de la méthode d'ensemble actif, amenant une formulation alternative et quelque peu simpli fiée de cet algorithme qui fournit les solutions du LASSO pour chaque valeur de son paramètre. Il est montré que, contrairement aux résultats d'une étude récente de Jerome H. Friedman, des implémentations de ces algorithmes suivant ces reformulations sont plus effi caces en terme de temps de calcul qu'une méthode de descente par coordonnées. La troisième partie étudie dans quelles mesures ces trois algorithmes (ensemble actif, homotopie, et descente par coordonnées) peuvent gérer certains cas particuliers, et peuvent être appliqués à des extensions du LASSO ou d'autres problèmes similaires. Les cas particuliers incluent les dégénérescences, comme la présence de variables lineairement dépendantes, ou la sélection/désélection simultanée de variables. Cette dernière problématique, qui était délaissée dans les travaux précédents, est ici expliquée plus largement et une solution simple et efficace y est apportée. Une autre cas particulier est la sélection LASSO à partir d'un nombre très large, voire infi ni de variables, cas pour lequel la méthode d'ensemble actif présente un avantage majeur. Une des extensions du LASSO est sa transposition dans un cadre d'apprentissage en ligne, où il est désirable ou nécessaire de résoudre le problème sur un ensemble d'observations qui évolue dans le temps. A nouveau, la flexibilité limitée de la méthode par homotopie la disquali fie au pro fit des deux autres. Une autre extension est l'utilisation de la pénalisation l1 sur d'autres fonction coûts que la norme l2 du résidu, ou en association avec d'autres pénalisations, et il est rappelé ou établi dans quelles mesures et de quelle façon chaque algorithme peut être transposé à ces problèmes.
2

Inversion des formes d'onde élastique dans le domaine espace-fréquence en deux dimensions.<br />Application à la caractérisation de la subsurface dans le cadre de la détection de cavités souterraines.

Gélis, Céline 14 December 2005 (has links) (PDF)
L'imagerie des paramètres physiques du sous-sol à partir d'enregistrements sismiques de surface constitue un problème inverse non linéaire. L'inversion des formes d'onde élastique est une méthode d'imagerie quantitative multiparamètres de diffractants, nécessitant au préalable la connaissance précise d'un macromodèle de vitesse. <br /><br />Le problème direct associé, la propagation des ondes élastiques, est résolu dans le domaine fréquentiel, permettant la prise en compte efficace d'acquisitions multisources et multirécepteurs, par une méthode numérique de différences finies modélisant la propagation de tous les types d'onde (ondes de volume, de surface, diffractées, réfractées ...). Le stencil de différences finies choisi permet simule précisément la surface libre et la propagation des ondes de surface. <br /><br />Cette inversion linéarisée s'appuie sur une méthode de gradient, qui minimise une fonction coût contenant les différences entre données observées et calculées. Deux paramètres sismiques sont reconstruits à partir de sismogrammes verticaux et horizontaux. L'inversion est effectuée des basses fréquences vers les hautes fréquences, introduisant des longueurs d'onde de plus en plus courtes dans les images des paramètres. Ces dernières sont sensibles au choix des approximations physiques effectuées pour calculer le gradient de la fonction coût (approximation de Born ou de Rytov), au dispositif d'acquisition, au préconditionnement des données et au choix des paramètres inversés. <br /><br />Cette méthode est ensuite appliquée à des milieux contenant une surface libre. La surface libre est une interface très contrastée qui donne lieu à des ondes de surface très énergétiques dans les sismogrammes. Les milieux de subsurface sont complexes, les ondes qui s'y propagent subissent des réflexions ou diffractions multiples. Lorsque le milieu contient deux anomalies dont le contraste en vitesse vaut $20 \%$, l'inversion les localise correctement dans un macromodèle connu. Les images sont améliorées et l'amplitude des anomalies est très bien reconstruite lorsque le nombre de fréquences inversées augmente et les données sont sélectionnées des faibles déports vers les grands déports. Avec une anomalie fortement contrastée comme une cavité vide, l'inversion retrouve correctement la position, la forme et la taille de l'objet mais son amplitude est sous-estimée.<br /><br />L'application à des données réelles verticales de subsurface acquises dans un milieu complexe contenant une cavité maçonnée montre que le milieu hétérogène issu de l'inversion ajuste mieux les données et permet de bien reproduire les ondes inversées. Néanmoins, la cavité n'est pas imagée.
3

Optimisation du comportement de cellules robotiques par gestion des redondances : application à la découpe de viande et à l'Usinage Grande Vitesse

Subrin, Kévin 13 December 2013 (has links) (PDF)
Les robots industriels ont évolué fondamentalement ces dernières années pour répondre aux exigences industrielles de machines et mécanismes toujours plus performants. Ceci se traduit aujourd'hui par de nouveaux robots anthropomorphes plus adaptés laissant entrevoir la réalisation de tâches plus complexes comme la découpe d'objets déformables telle que la découpe de viande ou soumis à de fortes sollicitations comme l'usinage. L'étude du comportement des robots anthropomorphes, à structures parallèles ou hybrides montre une anisotropie aussi bien cinématique, que dynamique, impactant la précision attendue. Ces travaux de thèse étudient l'intégration des redondances cinématiques qui permettent de pallier en partie ce problème en positionnant au mieux la tâche à réaliser dans un espace de travail compatible avec les capacités attendues. Ces travaux ont suivi une démarche en trois étapes : la modélisation analytique de cellules robotiques par équivalent sériel basée sur la méthode TCS, la formalisation des contraintes des processus de découpe de viande et d'usinage et une résolution par optimisation multicritère. Une première originalité de ces travaux réside en le développement d'un modèle à 6 degrés de liberté permettant d'analyser les gestes de l'opérateur qui optimise naturellement le comportement de son bras pour garantir la tâche qu'il réalise. La seconde originalité concerne le placement optimisé des redondances structurales (cellules à 9 ddls) où les paramètres de positionnement sont incorporés comme des variables pilotables (cellule à 11 ddls). Ainsi, ces travaux de thèse apportent des contributions à : - la définition de critères adaptés à la réalisation de tâches complexes et sollicitantes pour la gestion des redondances cinématiques ; - l'identification du comportement des structures sous sollicitations par moyen métrologique (Laser tracker) et l'auto-adaptation des trajectoires par l'utilisation d'une commande en effort industrielle ; - l'optimisation du comportement permettant l'amélioration de la qualité de réalisation des différents processus de coupe (découpe de viande et usinage).
4

Formulation de la tomographie des temps de première arrivée par une méthode de gradient : un pas vers une tomographie interactive

Taillandier, Cédric 02 December 2008 (has links) (PDF)
La tomographie des temps de première arrivée cherche à estimer un modèle de vitesse de propagation des ondes sismiques à partir des temps de première arrivée pointés sur les sismogrammes. Le modèle de vitesse obtenu peut alors permettre une interprétation structurale du milieu ou bien servir de modèle initial pour d'autres traitements de l'imagerie sismique. Les domaines d'application de cette méthode s'étendent, à des échelles différentes, de la géotechnique à la sismologie en passant par la géophysique pétrolière. Le savoir-faire du géophysicien joue un rôle important dans la difficile résolution du problème tomographique non-linéaire et mal posé. De nombreuses recherches ont entrepris de faciliter et d'améliorer cette résolution par des approches mathématique ou physique. Dans le cadre de ce travail, nous souhaitons développer une approche pragmatique, c'est-à-dire que nous considérons que le problème tomographique doit être résolu par un algorithme interactif dont les paramètres de réglage sont clairement définis. L'aspect interactif de l'algorithme facilite l'acquisition du savoir-faire tomographique car il permet de réaliser, dans un temps raisonnable, de nombreuses simulations pour des paramétrisations différentes. Le but poursuivi dans cette thèse est de définir, pour le cas spécifique de la tomographie des temps de première arrivée, un algorithme qui réponde au mieux à ces critères. Les algorithmes de tomographie des temps de première arrivée classiquement mis en oeuvre aujourd'hui ne répondent pas à nos critères d'une approche pragmatique. En effet, leur implémentation ne permet pas d'exploiter l'architecture parallèle des supercalculateurs actuels pour réduire les temps de calcul. De plus, leur mise en oeuvre nécessite une paramétrisation rendue complexe du fait de la résolution du système linéaire tomographique. Toutes ces limitations pratiques sont liées à la formulation même de l'algorithme à partir de la méthode de Gauss-Newton. Cette thèse repose sur l'idée de formuler la résolution du problème tomographique à partir de la méthode de plus grande descente pour s'affranchir de ces limitations. L'étape clé de cette formulation réside dans le calcul du gradient de la fonction coût par rapport aux paramètres du modèle. Nous utilisons la méthode de l'état adjoint et une méthode définie à partir d'un tracé de rais a posteriori pour calculer ce gradient. Ces deux méthodes se distinguent par leur formulation, respectivement non-linéaire et linéarisée, et par leur mise en oeuvre pratique. Nous définissons ensuite clairement la paramétrisation du nouvel algorithme de tomographie et validons sur un supercalculateur ses propriétés pratiques : une parallélisation directe et efficace, une occupation mémoire indépendante du nombre de données observées et une mise en oeuvre simple. Finalement, nous présentons des résultats de tomographie pour des acquisitions de type sismique réfraction, 2-D et 3-D, synthétiques et réelles, marines et terrestres, qui valident le bon comportement de l'algorithme, en termes de résultats obtenus et de stabilité. La réalisation d'un grand nombre de simulations a été rendue possible par la rapidité d'exécution de l'algorithme, de l'ordre de quelques minutes en 2-D.
5

Contribution à la modélisation et au contrôle de trajectoire de Trackers photovoltaïques à haute concentration (HCPV) / Contribution to the modeling and control of high concentrated Photovoltaic tracker (hcpv)

Sahnoun, Mohamed Aymen 18 December 2015 (has links)
Dans une optique de maximisation de la production et de réduction des coûts d’installation, de maintenance et d’entretien des trackers solaires, qui permettent d’orienter les modules photovoltaïques à haute concentration (HCPV), ces travaux de thèse se focalisent sur l’amélioration de la précision et la réduction du coût de la stratégie de génération de la trajectoire du tracker. Dans un premier temps, un simulateur de tracker HCPV est développé offrant une étude de l’influence de la performance du suivi du soleil sur la production des modules HCPV, permettant ainsi une étude et une comparaison des stratégies de génération de trajectoires. Le simulateur est basé sur un modèle comportemental de module HCPV monté sur tracker permettant de prédire la puissance maximale du module HCPV en fonction de l’erreur de position du tracker face au soleil, de l’ensoleillement direct et de la température. Une première stratégie de commande dite de référence a été implémentée sur ce simulateur. C’est une commande hybride qui repose sur un viseur solaire pour corriger l’erreur de poursuite par un calcul astronomique. Ensuite, afin d’améliorer les performances et de réduire les coûts de cette stratégie, une nouvelle approche sans capteur est développée en se basant sur une méthode d’optimisation du gradient de puissance pour la génération de la trajectoire du tracker. Une étude complémentaire est également exposée afin de mettre en évidence des algorithmes de recherche de la puissance maximale (MPPT) pouvant offrir des temps de réponse suffisamment rapides pour ne pas affecter la qualité de l’évaluation du gradient de puissance. Dans ce contexte, une commande MPPT P&O améliorée par un réseau de neurones à complexité réduite est proposée, assurant un compromis entre précision, simplicité et rapidité / This work focuses on improving the accuracy and on reducing the cost of the tracker generating trajectory strategy, in order to maximize the production and to reduce the installation and the maintenance cost of a solar tracker orienting high concentrated photovoltaic modules (HCPV). Initially, we propose a behavioral modeling of the HCPV module mounted on a dual axis tracker in order to study the influence of the tracking performance on the module power production. Then, this simulator can be used to test control strategies and to compare their performance. Firstly, a classical control strategy is implemented in the simulator. It is based on a hybrid control operating an astronomical calculation to follow the sun path, and a sun sensor to correct the tracking error. A sensorless strategy is proposed in this work to reduce the cost of the HCPV tracker control. This strategy is based on a gradient optimization algorithm to generate the tracker trajectory and to catch the sun path. Tested on the simulator, this strategy presents the same accuracy as the classical strategy while being less costly. The last study proposed in this thesis work concerns maximum power point tracking (MPPT) algorithms, in order to respond to a given problem relating to the practical implementation of gradient algorithm. In this context, we propose an original optimization of the P&O MPPT control with a neural network algorithm leading to a significant reduction of the computational cost required to train it. This approach, which is ensuring a good compromise between accuracy and complexity is sufficiently fast to not affect the quality of the evaluation of the gradient.
6

Optimisation du comportement de cellules robotiques par gestion des redondances : application à la découpe de viande et à l’Usinage Grande Vitesse / Optimization of robotic cell behavior by managing kinematic redundancy : application to meat cutting and high speed machining

Subrin, Kévin 13 December 2013 (has links)
Les robots industriels ont évolué fondamentalement ces dernières années pour répondre aux exigences industrielles de machines et mécanismes toujours plus performants. Ceci se traduit aujourd’hui par de nouveaux robots anthropomorphes plus adaptés laissant entrevoir la réalisation de tâches plus complexes comme la découpe d’objets déformables telle que la découpe de viande ou soumis à de fortes sollicitations comme l’usinage. L’étude du comportement des robots anthropomorphes, à structures parallèles ou hybrides montre une anisotropie aussi bien cinématique, que dynamique, impactant la précision attendue. Ces travaux de thèse étudient l’intégration des redondances cinématiques qui permettent de pallier en partie ce problème en positionnant au mieux la tâche à réaliser dans un espace de travail compatible avec les capacités attendues. Ces travaux ont suivi une démarche en trois étapes : la modélisation analytique de cellules robotiques par équivalent sériel basée sur la méthode TCS, la formalisation des contraintes des processus de découpe de viande et d’usinage et une résolution par optimisation multicritère. Une première originalité de ces travaux réside en le développement d’un modèle à 6 degrés de liberté permettant d’analyser les gestes de l’opérateur qui optimise naturellement le comportement de son bras pour garantir la tâche qu’il réalise. La seconde originalité concerne le placement optimisé des redondances structurales (cellules à 9 ddls) où les paramètres de positionnement sont incorporés comme des variables pilotables (cellule à 11 ddls). Ainsi, ces travaux de thèse apportent des contributions à : - la définition de critères adaptés à la réalisation de tâches complexes et sollicitantes pour la gestion des redondances cinématiques ; - l’identification du comportement des structures sous sollicitations par moyen métrologique (Laser tracker) et l’auto-adaptation des trajectoires par l’utilisation d’une commande en effort industrielle ; - l’optimisation du comportement permettant l’amélioration de la qualité de réalisation des différents processus de coupe (découpe de viande et usinage). / Industrial robots have evolved fundamentally in recent years to reach the industrial requirements. We now find more suitable anthropomorphic robots leading to the realization of more complex tasks like deformable objects cutting such as meat cutting or constrained to high stresses as machining. The behavior study of anthropomorphic robots, parallel or hybrid one highlights a kinematic and dynamic anisotropy, which impacts the expected accuracy. This thesis studied the integration of the kinematic redundancy that can partially overcome this problem by well setting the task to achieve it in a space compatible with the expected capacity. This work followed a three-step approach: analytical modeling of robotic cells by serial equivalent based on the TCS method, formalizing the constraints of meat cutting process and machining process and a multicriteria optimization.The first originality of this work focuses on the development of a 6 DoFs model to analyze the operator actions who naturally optimizes his arm behavior to ensure the task it performs. The second originality concerns the optimized placement of structural redundancy (9 DoFs robotic cell) where positioning parameters are incorporated as controllable variables (11 DoFs robotic cell). Thus, the thesis makes contributions to : - the definition of criteria adapted to the realization of complex and under high stress task for the management of the kinematic redundancy; - the structural behavior identification, under stress, by metrology tools (Laser tracker ) and the self- adaptation paths by using an industrial force control; - the behavior optimization to improve the cutting process quality (meat cutting and machining).
7

Formulation de la tomographie des temps de première arrivée à partir d'une méthode de gradient : un pas vers une tomographie interactive

Taillandier, Cédric 02 December 2008 (has links) (PDF)
La tomographie des temps de première arrivée cherche à estimer un modèle de vitesse de propagation des ondes sismiques à partir des temps de première arrivée pointés sur les sismogrammes. Le modèle de vitesse obtenu peut alors permettre une interprétation structurale du milieu ou bien servir de modèle initial pour d'autres traitements de l'imagerie sismique. Les domaines d'application de cette méthode s'étendent, à des échelles différentes, de la géotechnique à la sismologie en passant par la géophysique pétrolière. Le savoir-faire du géophysicien joue un rôle important dans la difficile résolution du problème tomographique non-linéaire et mal posé. De nombreuses recherches ont entrepris de faciliter et d'améliorer cette résolution par des approches mathématique ou physique. Dans le cadre de ce travail, nous souhaitons développer une approche pragmatique, c'est-à-dire que nous considérons que le problème tomographique doit être résolu par un algorithme interactif dont les paramètres de réglage sont clairement définis. L'aspect interactif de l'algorithme facilite l'acquisition du savoir-faire tomographique car il permet de réaliser, dans un temps raisonnable, de nombreuses simulations pour des paramétrisations différentes. Le but poursuivi dans cette thèse est de définir, pour le cas spécifique de la tomographie des temps de première arrivée, un algorithme qui réponde au mieux à ces critères. Les algorithmes de tomographie des temps de première arrivée classiquement mis en oeuvre aujourd'hui ne répondent pas à nos critères d'une approche pragmatique. En effet, leur implémentation ne permet pas d'exploiter l'architecture parallèle des supercalculateurs actuels pour réduire les temps de calcul. De plus, leur mise en oeuvre nécessite une paramétrisation rendue complexe du fait de la résolution du système linéaire tomographique. Toutes ces limitations pratiques sont liées à la formulation même de l'algorithme à partir de la méthode de Gauss- Newton. Cette thèse repose sur l'idée de formuler la résolution du problème tomographique à partir de la méthode de plus grande descente pour s'affranchir de ces limitations. L'étape clé de cette formulation réside dans le calcul du gradient de la fonction coût par rapport aux paramètres du modèle. Nous utilisons la méthode de l'état adjoint et une méthode définie à partir d'un tracé de rais a posteriori pour calculer ce gradient. Ces deux méthodes se distinguent par leur formulation, respectivement non-linéaire et linéarisée, et par leur mise en oeuvre pratique. Nous définissons ensuite clairement la paramétrisation du nouvel algorithme de tomographie et validons sur un supercalculateur ses propriétés pratiques : une parallélisation directe et efficace, une occupation mémoire indépendante du nombre de données observées et une mise en œuvre simple. Finalement, nous présentons des résultats de tomographie pour des acquisitions de type sismique réfraction, 2-D et 3-D, synthétiques et réelles, marines et terrestres, qui valident le bon comportement de l'algorithme, en termes de résultats obtenus et de stabilité. La réalisation d'un grand nombre de simulations a été rendue possible par la rapidité d'exécution de l'algorithme, de l'ordre de quelques minutes en 2-D.
8

Amélioration par la gestion de redondance du comportement des robots à structure hybride sous sollicitations d’usinage / Improvement by the management of redundancy of the behavior of robots with hybrid structure under machining load

Cousturier, Richard 30 November 2017 (has links)
Les robots industriels ont évolué fondamentalement ces dernières années pour répondre aux exigences industrielles de machines et mécanismes toujours plus performants. Ceci se traduit aujourd’hui par de nouveaux robots anthropomorphes plus adaptés laissant entrevoir la réalisation de tâches plus complexes et soumis à de fortes sollicitations comme durant l’usinage. L’étude du comportement des robots anthropomorphes, à structures parallèles ou hybrides montre une anisotropie aussi bien cinématique, que dynamique, impactant la précision attendue. Ces travaux de thèse étudient l’intégration des redondances cinématiques qui permettent de pallier en partie ce problème en positionnant au mieux la tâche à réaliser dans un espace de travail compatible avec les capacités attendues. Ces travaux ont permis d’améliorer notre outil d’optimisation et de le tester à la fois sur un modèle Eléments Finis du robot et sur le robot réel. Ainsi, ces travaux de thèse apportent des contributions à : - la définition de critères adaptés à la réalisation de tâches complexes et sollicitantes pour la gestion des redondances cinématiques ; - l’identification du comportement des structures sous sollicitations par moyen métrologique (Laser tracker) ; - l’optimisation du comportement permettant l’amélioration de la qualité de réalisation des opérations d’usinage ; - la modélisation Eléments Finis des robots prenant en compte l’identification des rigidités des corps et articulaires. / Industrial robots have evolved fundamentally in recent years to reach the industrial requirements. We now find more suitable anthropomorphic robots leading to the realization of more complex tasks like deformable objects cutting such as meat cutting or constrained to high loading like during machining. The behavior study of anthropomorphic robots, parallel or hybrid one highlights a kinematic and dynamic anisotropy, which impacts the expected accuracy.This thesis studied the integration of the kinematic redundancy that can partially overcome this problem by well setting the task to achieve it in a space compatible with the expected capacity.This work helped us to improve our optimization tool and to try it on both FE model of the robot and real robot.Thus, the thesis makes contributions to: - the definition of criteria adapted to the realization of complex and under high loading task for the management of the kinematic redundancy; - the structural behavior identification, under loading, by metrology tools (Laser tracker) ; - the behavior optimization to improve the cutting process quality during machining ; - robots finite elements modeling using stiffness identification for both bodies and joints.
9

Méthodes itératives de reconstruction tomographique pour la réduction des artefacts métalliques et de la dose en imagerie dentaire / Iterative reconstruction methods for the reduction of metal artifact and dose in dental CT

Chen, Long 05 February 2015 (has links)
Cette thèse est constituée de deux principaux axes de recherche portant sur l'imagerie dentaire par la tomographie à rayons X : le développement de nouvelles méthodes itératives de reconstruction tomographique afin de réduire les artefacts métalliques et la réduction de la dose délivrée au patient. Afin de réduire les artefacts métalliques, nous prendrons en compte le durcissement du spectre des faisceaux de rayons X et le rayonnement diffusé. La réduction de la dose est abordée dans cette thèse en diminuant le nombre des projections traitées. La tomographie par rayons X a pour objectif de reconstruire la cartographie des coefficients d'atténuations d'un objet inconnu de façon non destructive. Les bases mathématiques de la tomographie repose sur la transformée de Radon et son inversion. Néanmoins des artefacts métalliques apparaissent dans les images reconstruites en inversant la transformée de Radon (la méthode de rétro-projection filtrée), un certain nombre d'hypothèse faites dans cette approche ne sont pas vérifiées. En effet, la présence de métaux exacerbe les phénomènes de durcissement de spectre et l'absence de prise en compte du rayonnement diffusé. Nous nous intéressons dans cette thèse aux méthodes itératives issues d'une méthodologie Bayésienne. Afin d'obtenir des résultats de traitement compatible avec une application clinique de nos nouvelles approches, nous avons choisi un modèle direct relativement simple et classique (linéaire) associé à des approches de corrections de données. De plus, nous avons pris en compte l'incertitude liée à la correction des données en utilisant la minimisation d'un critère de moindres carrés pondérés. Nous proposons donc une nouvelle méthode de correction du durcissement du métal sans connaissances du spectre de la source et des coefficients d'atténuation des matériaux. Nous proposons également une nouvelle méthode de correction du diffusé associée sur les mesures sous certaines conditions notamment de faible dose. En imagerie médicale par tomographie à rayons X, la surexposition ou exposition non nécessaire irradiante augmente le risque de cancer radio-induit lors d'un examen du patient. Notre deuxième axe de recherche porte donc sur la réduction de la dose en diminuant le nombre de projections. Nous avons donc introduit un nouveau mode d'acquisition possédant un échantillonnage angulaire adaptatif. On utilise pour définir cette acquisition notre connaissance a priori de l'objet. Ce mode d'acquisition associé à un algorithme de reconstruction dédié, nous permet de réduire le nombre de projections tout en obtenant une qualité de reconstruction comparable au mode d'acquisition classique. Enfin, dans certains modes d’acquisition des scanners dentaires, nous avons un détecteur qui n'arrive pas à couvrir l'ensemble de l'objet. Pour s'affranchir aux problèmes liés à la tomographie locale qui se pose alors, nous utilisons des acquisitions multiples suivant des trajectoires circulaires. Nous avons adaptés les résultats développés par l’approche « super short scan » [Noo et al 2003] à cette trajectoire très particulière et au fait que le détecteur mesure uniquement des projections tronquées. Nous avons évalué nos méthodes de réduction des artefacts métalliques et de réduction de la dose en diminuant le nombre des projections sur les données réelles. Grâce à nos méthodes de réduction des artefacts métalliques, l'amélioration de qualité des images est indéniable et il n'y a pas d'introduction de nouveaux artefacts en comparant avec la méthode de l'état de l'art NMAR [Meyer et al 2010]. Par ailleurs, nous avons réussi à réduire le nombre des projections avec notre nouveau mode d'acquisition basé sur un « super short scan » appliqué à des trajectoires multiples. La qualité obtenue est comparable aux reconstructions obtenues avec les modes d'acquisition classiques ou short-scan mais avec une réduction d’au moins 20% de la dose radioactive. / This thesis contains two main themes: development of new iterative approaches for metal artifact reduction (MAR) and dose reduction in dental CT (Computed Tomography). The metal artifacts are mainly due to the beam-hardening, scatter and photon starvation in case of metal in contrast background like metallic dental implants in teeth. The first issue concerns about data correction on account of these effects. The second one involves the radiation dose reduction delivered to a patient by decreasing the number of projections. At first, the polychromatic spectra of X-ray beam and scatter can be modeled by a non-linear direct modeling in the statistical methods for the purpose of the metal artifacts reduction. However, the reconstruction by statistical methods is too much time consuming. Consequently, we proposed an iterative algorithm with a linear direct modeling based on data correction (beam-hardening and scatter). We introduced a new beam-hardening correction without knowledge of the spectra of X-ray source and the linear attenuation coefficients of the materials and a new scatter estimation method based on the measurements as well. Later, we continued to study the iterative approaches of dose reduction since the over-exposition or unnecessary exposition of irradiation during a CT scan has been increasing the patient's risk of radio-induced cancer. In practice, it may be useful that one can reconstruct an object larger than the field of view of scanner. We proposed an iterative algorithm on super-short-scans on multiple scans in this case, which contain a minimal set of the projections for an optimal dose. Furthermore, we introduced a new scanning mode of variant angular sampling to reduce the number of projections on a single scan. This was adapted to the properties and predefined interesting regions of the scanned object. It needed fewer projections than the standard scanning mode of uniform angular sampling to reconstruct the objet. All of our approaches for MAR and dose reduction have been evaluated on real data. Thanks to our MAR methods, the quality of reconstructed images was improved noticeably. Besides, it did not introduce some new artifacts compared to the MAR method of state of art NMAR [Meyer et al 2010]. We could reduce obviously the number of projections with the proposed new scanning mode and schema of super-short-scans on multiple scans in particular case.
10

A study on the acoustic performance of tramway low-height noise barriers : gradient-based numerical optimization and experimental approaches / Étude de la performance acoustique des écrans antibruit de faible hauteur pour le tramway : optimisation numérique par méthode de gradient et approches expérimentales

Jolibois, Alexandre 25 November 2013 (has links)
Le bruit est devenu une nuisance importante en zone urbaine au point que selon l'Organisation Mondiale de la Santé, 40% de la population européenne est exposée à des niveaux de bruit excessifs, principalement dû aux transports terrestres. Il devient donc nécessaire de trouver de nouveaux moyens de lutter contre le bruit en zone urbaine. Dans ce travail, on étudie une solution possible à ce problème: un écran bas antibruit. Il s'agit d'un écran de hauteur inférieure à un mètre placé près d'une source, conçu pour réduire le niveau de bruit pour les piétons et les cyclistes à proximité. Ce type de protection est étudié numériquement et expérimentalement. Nous nous intéressons particulièrement aux écrans adaptés au bruit du tramway puisque dans ce cas les sources sont proches du sol et peuvent être atténuées efficacement. La forme ainsi que le traitement de surface de l'écran sont optimisés par une méthode de gradient couplée à une méthode 2D d'éléments finis de frontière. Les variables à optimiser sont les coordonnées de nœuds de contrôle et les paramètres servant à décrire l'impédance de surface. Les sensibilités sont calculées efficacement par la méthode de l'état adjoint. Les formes générées par l'algorithme d'optimisation sont assez irrégulières mais induisent une nette amélioration par rapport à des formes simples, d'au moins 5 dB (A). Il est également montré que l'utilisation de traitement absorbant du côté source de l'écran peut améliorer la performance sensiblement. Ce dernier point est confirmé par des mesures effectuées sur modèle réduit. De plus, un prototype à l'échelle 1 d'écran bas antibruit a été construit et testé en conditions réelles, le long d'une voie de tramway à Grenoble. Les mesures montrent que la protection réduit le niveau de 10 dB (A) pour un récepteur proche situé à hauteur d'oreilles. Ces résultats semblent confirmer l'applicabilité de ces protections pour réduire efficacement le bruit en zone urbaine / Noise has become a main nuisance in urban areas to the point that according to the World Health Organization 40% of the European population is exposed to excessive noise levels, mainly due to ground transportation. There is therefore a need to find new ways to mitigate noise in urban areas. In this work, a possible device to achieve this goal is studied: a low-height noise barrier. It consists of a barrier typically less than one meter high placed close to a source, designed to decrease the noise level for nearby pedestrians and cyclists. This type of device is studied both numerically and experimentally. Tramway noise barriers are especially studied since the noise sources are in this case very close to the ground and can therefore be attenuated efficiently. The shape and the surface treatment of the barrier are optimized using a gradient-based method coupled to a 2D boundary element method (BEM). The optimization variables are the node coordinates of a control mesh and the parameters describing the surface impedance. Sensitivities are calculated efficiently using the adjoint state approach. Numerical results show that the shapes generated by the optimization algorithm tend to be quite irregular but provide a significant improvement of more than 5 dB (A) compared to simpler shapes. Utilizing an absorbing treatment on the source side of the barrier is shown to be efficient as well. This second point has been confirmed by scale model measurements. In addition, a full scale low height noise barrier prototype has been built and tested in situ close to a tramway track in Grenoble. Measurements show that the device provides more than 10 dB (A) of attenuation for a close receiver located at the typical height of human ears. These results therefore seem to confirm the applicability of such protections to efficiently decrease noise exposure in urban areas

Page generated in 0.1042 seconds