881 |
Étude de l'endommagement par la découpe des aciers dual phase pour application automobileDalloz, Alexandre 11 December 2007 (has links) (PDF)
Les exigences d'allègement des pièces structurales automobiles ont conduit au développement de nouvelles nuances d'aciers aux propriétés mécaniques de plus en plus élevées. Parmi ces nuances dites Très Haute Résistance (THR), les aciers dual phase, avec leur microstructure composite ferritemartensite, offrent un très bon équilibre entre résistance mécanique et formabilité. Cependant, des observations récentes ont montré que l'étape de découpe avait tendance à altérer ces bonnes propriétés. L'objectif de la présente étude est d'améliorer notre connaissance des mécanismes mis en jeu au cours de la découpe afin de pouvoir les prendre en compte pour le développement des futures nuances.<br /><br />Un premier travail d'observation et de caractérisation (MEB, microdureté, essais mécaniques...), a été effectué de manière à mettre en évidence les effets de la découpe à la cisaille sur la microstructure et les propriétés mécaniques des tôles. Ces résultats révèlent l'existence d'une zone affectée par la découpe qui s'étend sur environ 200 μm. Cette zone se caractérise par un écrouissage et une déformation microstructurale importants. Cette déformation conduit localement à la décohésion des phases ferritique et martensitique.<br /><br />La formation de cette zone en cours de découpe a été étudiée à travers deux approches distinctes : d'une part, le développement d'un montage de cisaille instrumentée permettant d'observer l'évolution de la microstructure, et, d'autre part, la simulation numérique du procédé qui donne accès aux grandeurs mécaniques locales dans la tôle. Il apparait que l'endommagement et la rupture de l'acier sont pilotés par la décohésion des interfaces ferrite-martensite, elle-même fortement dépendante de<br />l'état de triaxialité des contraintes.<br /><br />L'étude du comportement des bords découpés, au cours de sollicitations postérieures à la découpe, a permis de confirmer l'amorçage rapide des fissures dans la zone affectée par la découpe et l'impact direct de la taille de cette dernière sur la perte de ductilité des pièces découpées.<br /><br />Enfin, de nombreux traitements thermiques, appliqués à une nuance sélectionnée, ont permis de désigner deux voies distinctes d'amélioration du comportement des nuances dual phase face à la découpe: d'une part la transformation d'une troisième phase lors du recuit, d'autre part le rééquilibrage des propriétés au sein de la microstructure par l'application d'un traitement de revenu.
|
882 |
Filtrage, réduction de dimension, classification et segmentation morphologique hyperspectraleNoyel, Guillaume 22 September 2008 (has links) (PDF)
Le traitement d'images hyperspectrales est la généralisation de l'analyse des images couleurs, à trois composantes rouge, vert et bleu, aux images multivariées à plusieurs dizaines ou plusieurs centaines de composantes. Dans un sens général, les images hyperspectrales ne sont pas uniquement acquises dans le domaine des longueurs d'ondes mais correspondent à une description d'un pixel par un ensemble de valeurs : c'est à dire un vecteur. Chacune des composantes d'une image hyperspectrale constitue un canal spectral, et le vecteur associé à chaque pixel est appelé spectre. Pour valider la généralité de nos méthodes de traitement, nous les avons appliquées à plusieurs types d'imagerie correspondant aux images hyperspectrales les plus variées : des photos avec quelques dizaines de composantes acquises dans le domaine des longueurs d'ondes, des images satellites de télédétection, des séries temporelles d'imagerie par résonance dynamique (DCE-MRI) et des séries temporelles d'imagerie thermique. Durant cette thèse, nous avons développé une chaîne complète de segmentation automatique des images hyperspectrales par des techniques morphologiques. Pour ce faire, nous avons mis au point une méthode efficace de débruitage spectral, par Analyse Factorielle des Correspondances (AFC), qui permet de conserver les contours spatiaux des objets, ce qui est très utile pour la segmentation morphologique. Puis nous avons fait de la réduction de dimension, par des méthodes d'analyse de données ou par modélisation des spectres, afin d'obtenir un autre représentation de l'image avec un nombre restreint de canaux. A partir de cette image de plus faible dimension, nous avons effectué une classification (supervisée ou non) pour grouper les pixels en classes spectralement homogènes. Cependant, les classes obtenues n'étant pas homogènes spatialement, i.e. connexes, une étape de segmentation s'est donc avérée nécessaire. Nous avons démontré que la méthode récente de la Ligne de Partage des Eaux Probabiliste était particulièrement adaptée à la segmentation des images hyperspectrales. Elle utilise différentes réalisations de marqueurs aléatoires, conditionnés par la classification spectrale, pour obtenir des réalisations de contours par Ligne de Partage des Eaux (LPE). Ces réalisations de contours permettent d'estimer une fonction de densité de probabilité de contours (pdf) qui est très facile à segmenter par une LPE classique. En définitive, la LPE probabiliste est conditionnée par la classification spectrale et produit donc des segmentations spatio-spectrales dont les contours sont très lisses. Cette chaîne de traitement à été mise en œuvre sur des séquences d'imagerie par résonance magnétique dynamique (DCE-MRI) et a permis d'établir une méthode automatique d'aide au diagnostic pour la détection de tumeurs cancéreuses. En outre, d'autres techniques de segmentation spatio-spectrales ont été développées pour les images hyperspectrales : les régions η-bornées et les boules µ-géodésiques. Grâce à l'introduction d'information régionale, elles améliorent les segmentations par zones quasi-plates qui n'utilisent quant à elles que de l'information locale. Enfin, nous avons mis au point une méthode très efficace de calcul de toutes les paires de distances géodésiques d'une image, puisqu'elle permet de réduire jusqu'à 50 % le nombre d'opérations par rapport à une approche naïve et jusqu'à 30 % par rapport aux autres méthodes. Le calcul efficace de ce tableau de distances offre des perspectives très prometteuses pour la réduction de dimension spatio-spectrale.
|
883 |
LE HANDICAP COMME " EPREUVE DE SOI ". POLITIQUES SOCIALES, PRATIQUES INSTITUTIONNELLES ET EXPERIENCEVille, Isabelle 25 November 2008 (has links) (PDF)
L'habilitation à diriger des recherches porte sur l'évaluation d'un parcours de recherche. Pour répondre à l'exercice, j'ai donc, dans une première phase, revisité l'ensemble de mon activité en l'expurgeant des éléments contingents. Même si ces derniers ont été nombreux et déterminants à bien des égards, mon parcours ne s'y réduit pas, pas plus que l'objet " handicap ou personnes handicapées " ne suffit à lui conférer une cohérence. C'est son inscription plus générale au sein des différents courants des disciplines des sciences humaines et sociales, qui ont marqué la même période, qui permet d'en dégager la singularité. Ce premier exercice a rapidement suscité une nouvelle question de recherche, ébauchée dans le mémoire, et qui nécessiterait une enquête beaucoup plus approfondie. A ce stade, j'ai tenté de l'éclairer à partir des travaux que j'ai menés à d'autres fins. Elle concerne la mobilisation dans des associations de personnes handicapées d'une nouvelle signification du handicap qui met l'accent sur l'expérience et la subjectivité. Il s'agit de voir quand et comment cette nouvelle signification pénètre l'espace public pour faire aboutir certaines revendications, comment elle est traduite et disséminée par les différents acteurs associatifs, politiques, administratifs et plus tardivement par les chercheurs en sciences sociales. C'est donc deux récits imbriqués que propose le mémoire, celui de mon parcours et celui de l'appropriation et de la médiation de cette nouvelle signification du handicap : la handicap comme épreuve de soi.
|
884 |
Caractérisation de la surface de pigments traités par des polyesters acryliquesBohic, Mariane 18 June 2007 (has links) (PDF)
Ce travail porte sur le traitement de surface de pigments, d'oxyde d'aluminium, de fer et de titane par des polyesters acrylique et l'analyse des propriétés qui en résultent. Les mesures d'angle de mouillage montrent que le traitement rend les pigments plus hydrophobes. Ces traitements sont ils complets, avec un recouvrement homogène de la surface et quels sont les types de liaisons formées ? L'analyse quantitative a été menée par thermogravimétrie et spectroscopie infrarouge après traitement et lavages par différents solvants. Les résultats cohérents montrent que les molécules sont fixées sur les trois oxydes de fer, une partie des molécules seulement sur l'oxyde de titane, avec une plus faible fraction fixée sur l'alumine. Des liaisons chimiques sont détectées par spectroscopie infrarouge, assisté par un modèle de mécanique quantique. Cependant l'AFM et l'XPS montrent que le traitement de la surface n'est pas homogène, le polymère se dépose sous forme d'îlots. L'observation directe par AFM sur des plaquettes d'alumine est décisive. Elle montre que ce mode de dépôt résulte de la conformation des molécules en pelotes. Cette hétérogénéité est inhérente à la structure macromoléculaire, dont la contribution entropique empêche le dépôt planaire sur la surface. Nous préconisons l'utilisation de molécules plus petites ou une polymérisation in-situ.
|
885 |
Sur quelques problèmes mathématiques de modélisation parcimonieuseGribonval, Rémi 24 October 2007 (has links) (PDF)
Ce document est organisé en quatre chapitres dont trois rédigés en anglais et une annexe en français. Le premier chapitre décrit mes contributions dans le domaine de la séparation de sources audio, qui constituent certainement le volet le plus appliqué de mon activité scientifique, volet auquel ont contribué significativement plusieurs doctorants et collaborateurs. Les deux chapitres suivants sont consacrés aux aspects plus mathématiques de mon travail, le premier sur les approximations non-linéaires avec des dictionnaires redondants, en collaboration étroite avec Morten Nielsen, le second sur l'analyse des performances des algorithmes de décomposition parcimonieuse, avec le concours notamment de Pierre Vandergheynst. Dans ces trois chapitres, j'ai adopté un style sans doute peu conventionnel dans la littérature scientifique : j'y ai opté pour le "je" plus que le "nous" et j'ai choisi d'agrémenter le texte de divers éléments de contexte. L'annexe, dans un style plus traditionnel, reproduit le chapitre de synthèse « Séparation de sources basée sur la parcimonie » que j'ai écrit pour l'ouvrage « Séparation de Sources » coordonné par Pierre Comon et Christian Jutten dans la collection IC2 publié par Hermès.
|
886 |
Architecture de récepteurs radiofréquences dédiés au traitement bibande simultanéBurciu, Ioan 04 May 2010 (has links) (PDF)
L'utilisation de récepteurs radiofréquence agiles est devenue incontournable dû au contexte orienté vers la mobilité et à la demande de haut débit. Cependant, les différentes solutions proposées afin d'augmenter le débit supporté par les terminaux mobiles induisent une augmentation de la consommation électrique de ces équipements de télécommunication. En prenant en compte le fait que l'augmentation des capacités des batteries ait un relativement faible taux de croissance, on comprend le compromis à faire entre le débit et la consommation électrique au niveau de la conception des terminaux mobiles destinés aux radiocommunications. Dans le cadre de la standardisation de la quatrième génération de téléphonie mobile, une des solutions techniques proposées afin d'augmenter le débit des transmissions radiofréquence est la transmission de signaux agrégés ayant des composantes spectrales non adjacentes. Par conséquent, la tête radio réalisant la translation en fréquence au niveau du récepteur doit pouvoir traiter simultanément plusieurs bandes de fréquence. Dans un premier temps, l'étude bibliographique menée sur les architectures de ce type de récepteurs souligne l'utilisation systématique d'une structure très gourmande en termes de consommation : l'empilement de chaînes de traitement, chacune dédiée à une unique bande de fréquence. Afin de limiter la consommation électrique due au processus de parallélisation des différentes étapes de traitement, une nouvelle architecture de récepteur à chaine de traitement unique est proposée et brevetée dans le cadre des travaux réalisés durant cette thèse de doctorat. Différentes études permettent de réaliser une évaluation théorique des gains en termes de performances ainsi que de consommation électrique suite à l'utilisation de l'architecture proposée à la place de l'empilement de chaînes de réception dédiées. Dans un premier temps, la validation de ces études théoriques se fait par le biais de simulations ADS (Agilent Technologies). Dans un deuxième temps, la validation des résultats théoriques repose sur la mesure utilisant un prototype de ce récepteur. Le design ainsi que la mesure de ce prototype représentent une partie conséquente en termes de charge de travail. Compte tenu des résultats obtenus, cette étape est considérée cependant essentielle dans le processus d'évaluation des performances d'un récepteur radiofréquence utilisant l'architecture proposée. Ainsi, suite à une étude comparative entre un récepteur bibande utilisant l'architecture proposée et un récepteur à empilement de deux chaines de traitement, on estime obtenir un gain en termes de consommation électrique variant entre 20 % et 30 % en faveur du récepteur proposé. Cette estimation est valable pour le cas ou les performances des deux récepteurs sont identiques. La dernière partie du travail mené dans le cadre de cette thèse est consacrée à la présentation d'une architecture de récepteur à front-end unique capable de supporter une transmission MIMO d'un signal bibande. Le cas d'étude choisie pour valider les performances de ce type de récepteur est celui d'une transmission MIMO LTE-Advanced à spectre discontinu.
|
887 |
Détection de textes enfouis dans des bases d'images généralistes : un descripteur sémantique pour l'indexationRetornaz, Thomas 23 October 2007 (has links) (PDF)
Les bases de données multimédia, aussi bien personnelles que professionnelles, se développent considérablement et les outils automatiques pour leur gestion efficace deviennent indispensables. L'effort des chercheurs pour développer des outils d'indexation basés sur le contenu sont très importants, mais le fossé sémantique est difficile à franchir : les descripteurs de bas niveau généralement utilisés montrent leurs limites dans des cadres applicatifs de plus en plus ouverts. Le texte présent dans les images est souvent relié au contexte sémantique et constitue un descripteur pertinent. Dans cette thèse nous proposons un système de localisation de texte dans des bases d'images génériques, qui tend à être robuste au changement d'échelle et aux déformations usuelles du texte enfoui. Notre système est basé sur un opérateur résiduel numérique, l'ouvert ultime. Dans une première partie nous étudions le comportement de cet opérateur sur des images réelles, et proposons des solutions pour pallier certaines limitations. Dans une seconde partie l'opérateur est inclus dans une chaîne de traitement et complété par différents outils de caractérisation du texte. Les performances de notre approche sont évaluées sur deux bases d'images. Premièrement, nous avons pris part à la campagne d'évaluation ImagEval, remportant la première place dans la catégorie "localisation de texte". Deuxièmement pour situer notre approche par rapport à l'état de l'art, nous avons effectué des tests avec la base d'évaluation I.C.D.A.R. Enfin, un démonstrateur a été réalisé pour EADS. Pour des raisons de confidentialité, ces travaux n'ont pas pu être intégrés à ce manuscrit.
|
888 |
Reconnaissance d'accords à partir de signaux audio par l'utilisation de gabarits théoriquesOudre, Laurent 03 November 2010 (has links) (PDF)
Cette thèse s'inscrit dans le cadre du traitement du signal musical, en se focalisant plus particulièrement sur la transcription automatique de signaux audio en accords. En effet, depuis une dizaine d'années, de nombreux travaux visent à représenter les signaux musicaux de la façon la plus compacte et pertinente possible, par exemple dans un but d'indexation ou de recherche par similarité. La transcription en accords constitue une façon simple et robuste d'extraire l'information harmonique et rythmique des chansons et peut notamment être utilisée par les musiciens pour rejouer les morceaux. Nous proposons deux approches pour la reconnaissance automatique d'accords à partir de signaux audio, qui offrent la particularité de se baser uniquement sur des gabarits d'accords théoriques, c'est à dire sur la définition des accords. En particulier, nos systèmes ne nécessitent ni connaissance particulière sur l'harmonie du morceau, ni apprentissage. Notre première approche est déterministe, et repose sur l'utilisation conjointe de gabarits d'accords théoriques, de mesures d'ajustement et de post-traitement par filtrage. On extrait tout d'abord des vecteurs de chroma du signal musical, qui sont ensuite comparés aux gabarits d'accords grâce à plusieurs mesures d'ajustement. Le critère de reconnaissance ainsi formé est ensuite filtré, afin de prendre en compte l'aspect temporel de la tâche. L'accord finalement détecté sur chaque trame est celui minimisant le critère de reconnaissance. Cette méthode a notamment été présentée lors d'une évaluation internationale (MIREX 2009) et a obtenu des résultats très honorables. Notre seconde approche est probabiliste, et réutilise certains éléments présents dans notre méthode déterministe. En faisant un parallèle entre les mesures d'ajustement utilisées dans l'approche déterministe et des modèles de probabilité, on peut définir un cadre probabiliste pour la reconnaissance d'accords. Dans ce cadre, les probabilités de chaque accord dans le morceau sont évaluées grâce à un algorithme Espérance-Maximisation (EM). Il en résulte la détection, pour chaque chanson, d'un vocabulaire d'accords adapté, qui permet l'obtention d'une meilleure transcription en accords. Cette méthode est comparée à de nombreux systèmes de l'état de l'art, grâce à plusieurs corpus et plusieurs métriques, qui permettent une évaluation complète des différents aspects de la tâche.
|
889 |
Analyse de données d'IRM fonctionnelle rénale par quantification vectorielleChevaillier, Béatrice 09 March 2010 (has links) (PDF)
Pour l'évaluation de la fonction rénale, l'Imagerie par Résonance Magnétique (IRM) dynamique à rehaussement de contraste est une alternative intéressante à la scintigraphie. Les résultats obtenus doivent cependant être évalués à grande échelle avant son utilisation en pratique clinique. L'exploitation des séquences acquises demande un recalage de la série d'images et la segmentation des structures internes du rein. Notre objectif est de fournir un outil fiable et simple à utiliser pour automatiser en partie ces deux opérations. Des méthodes statistiques de recalage utilisant l'information mutuelle sont testées sur des données réelles. La segmentation du cortex, de la médullaire et des cavités est réalisée en classant les voxels rénaux selon leurs courbes temps-intensité. Une stratégie de classification en deux étapes est proposée. Des classificateurs sont d'abord construits grâce à la coupe rénale principale en utilisant deux algorithmes de quantification vectorielle (K-moyennes et Growing Neural Gas). Ils sont validés sur données simulées, puis réelles, en évaluant des critères de similarité entre une segmentation manuelle de référence et des segmentations fonctionnelles ou une seconde segmentation manuelle. Les voxels des autres coupes sont ensuite triés avec le classificateur optimum pour la coupe principale. La théorie de la généralisation permet de borner l'erreur de classification faite lors de cette extension. La méthode proposée procure les avantages suivants par rapport à une segmentation manuelle : gain de temps important, intervention de l'opérateur limitée et aisée, bonne robustesse due à l'utilisation de toute la séquence et bonne reproductibilité.
|
890 |
Implémentation des filtres non-linéaires de rang sur des architectures universelles et reconfigurablesMilojevic, Dragomir 08 November 2004 (has links)
Les filtres non-linéaires de rang sont souvent utilisés dans le but de rehausser la qualité d'une image numérique. Leur application permet de faciliter l'interprétation visuelle et la compréhension du contenu des images que ce soit pour un opérateur humain ou pour un traitement automatique ultérieur. Dans le pipeline d'une chaîne habituelle de traitement des images, ces filtres sont appliqués généralement dans la phase de pré-traitement, juste après l'acquisition et avant le traitement et l'analyse d'image proprement dit.
Les filtres de rang sont considérés comme un important goulot d'étranglement dans la chaîne de traitement, à cause du tri des pixels dans chaque voisinage, à effectuer pour tout pixel de l'image. Les temps de calcul augmentent de façon significative avec la taille de l'image à traiter, la taille du voisinage considéré et lorsque le rang approche la médiane.
Cette thèse propose deux solutions à l'accélération du temps de traitement des filtres de rang.
La première solution vise l'exploitation des différents niveaux de parallélisme des ordinateurs personnels d'aujourd'hui, notamment le parallélisme de données et le parallélisme inter-processeurs. Une telle approche présente un facteur d'accélération de l'ordre de 10 par rapport à une approche classique qui fait abstraction du matériel grâce aux compilateurs des langages évolués. Si le débit résultant des pixels traités, de l'ordre d'une dizaine de millions de pixels par seconde, permet de travailler en temps réel avec des applications vidéo, peu de temps reste pour d'autres traitements dans la chaîne.
La deuxième solution proposée est basée sur le concept de calcul reconfigurable et réalisée à l'aide des circuits FPGA (Field Programmable Gate Array). Le système décrit combine les algorithmes de type bit-série et la haute densité des circuits FPGA actuels. Il en résulte un système de traitement hautement parallèle, impliquant des centaines d'unités de traitement par circuit FPGA et permet d'arriver à un facteur d'accélération supplémentaire de l'ordre de 10 par rapport à la première solution présentée. Un tel système, inséré entre une source d'image numérique et un système hôte, effectue le calcul des filtres de rang avec un débit de l'ordre de centaine de millions de pixels par seconde.
|
Page generated in 0.0941 seconds