731 |
Analyse multimodale et multicritères pour l'expertise et la localisation de défauts dans les composants électriques modernes / multimodal and multi-criteria analysis for the expertise and locating faults in modern electrical componentsBoscaro, Anthony 20 November 2017 (has links)
Ce manuscrit de thèse illustre l’ensemble des travaux de recherche répondant aux problématiques de traitement des données issues des techniques de localisation de défauts. Cette phase de localisation étant une étape déterminante dans le processus d’analyse de défaillances des circuits submicroniques, il est primordial que l’analyste exploite les résultats de l’émission de lumière et du sondage laser. Cependant, ce procédé d’expertise reste séquentiel et dépend uniquement du jugement de l’expert. Cela induit une probabilité de localisation non quantifiée. Afin de pallier ces différents défis, nous avons développé tout au long de cette thèse, une méthodologie d’analyse multimodale et multicritères exploitant le caractère hétérogène et complémentaire des techniques d’émission de lumière et de sondage laser. Ce type d’analyse reposera sur des outils de haut niveau tels que le traitement du signal et la fusion de données, pour au final apporter une aide décisionnelle à l’expert à la fois qualitative et quantitative.Dans un premier temps, nous détaillerons l’ensemble des traitements utilisés en post-acquisition pour l’amélioration des données 1D et 2D. Par la suite, l’analyse spatio-temporelle des données en sondage laser sera explicitée. L’aide décisionnelle fera l’objet de la dernière partie de ce manuscrit, illustrant la méthode de fusion de données utilisée ainsi que des résultats de validation. / The purpose of this manuscript is to exhibit the research work solving the issue of data processing stem from defect localization techniques. This step being decisive in the failure analysis process, scientists have to harness data coming from light emission and laser techniques. Nevertheless, this analysis process is sequential and only depends on the expert’s decision. This factor leads to a not quantified probability of localization. Consequently to solve these issues, a multimodaland multicriteria analysis has been developped, taking advantage of the heterogeneous and complementary nature of light emission and laser probing techniques. This kind of process is based on advanced level tools such as signal/image processing and data fusion. The final aim being to provide a quantitive and qualitative decision help for the experts.The first part of this manuscript is dedicated to the description of the entire process for 1D and 2D data enhancement. Thereafter, the spatio-temporal analysis of laser probing waveforms will be tackled. Finally, the last part highlights the decision support brought by data fusion.
|
732 |
Étude multi-échelle de la réactivité des altérites lors du traitement à la chauxDelavernhe, Laure 10 November 2011 (has links) (PDF)
De nos jours le développement durable et les mesures de protection pour l'environnement se développent avec des conséquences importantes pour la gestion des ressources naturelles. Les aménagements du territoire, et particulièrement les travaux de terrassements, sont directement concernés par ces nouvelles directives avec un objectif de " zéro apport-zéro déchet " de matériaux. Cependant les sols naturels, et notamment les sols argileux, ne satisfont pas les critères géotechniques. Plusieurs chantiers de terrassements dans le Nord-Ouest de la France rencontrent des difficultés avec des sols fins résultants de l'altération de sédiments du massif Armoricain ne satisfaisant pas les exigences mécaniques et de stabilité, même traités classiquement avec de la chaux et / ou des liants hydrauliques. L'approche multi-échelle mise en œuvre dans ce travail nous a mené à caractériser la forte sensibilité à l'eau de ces matériaux, propriété critique pour la réalisation de déblais notamment. Un effet composite entre les minéraux de kaolinite et de muscovite à l'origine de cette sensibilité à l'eau a été mis en évidence par l'étude des interactions en suspension de ces deux minéraux. Les gains de cohésion des matériaux développés lors de leur traitement à la chaux permettent d'envisager leur valorisation sur chantier en respectant quelques précautions. La discussion de la nature des différentes forces de cohésion dans les matériaux naturels et traités permet de proposer plusieurs hypothèses pour expliquer l'évolution particulière des performances mécaniques de ces matériaux par rapport aux sols développant classiquement de bonnes performances.
|
733 |
Traitements pour la réduction de bruit. Application à la communication parlée.Plapous, Cyril 12 December 2005 (has links) (PDF)
Avec l'avènement des télécommunications mobiles grand public, le besoin d'améliorer la prise de son, notamment en réduisant la gêne due au bruit, s'est fait de plus en plus présent. Les techniques de réduction du bruit sont soumises à un compromis entre le niveau effectif de réduction et la distorsion qui affecte le signal de parole. Au vu des performances actuelles, il est souhaitable de supprimer plus de bruit tout en conservant un niveau de dégradation acceptable du signal restauré, ceci en particulier lorsque le niveau de bruit est important. Les techniques qui ont suscité le plus l'intérêt au cours de ces 30 dernières années sont les approches par atténuation spectrale à court terme qui consistent à modifier une transformée à court terme du signal bruité en utilisant une règle de suppression. L'essor de cette famille de techniques s'explique essentiellement par le fait qu'elles permettent de respecter les contraintes de temps réel et de complexité inhérentes aux applications de communication parlée. La première partie de ce document est consacrée à l'analyse des techniques majeures de réduction du bruit par atténuation spectrale à court terme. Ce sera notamment l'occasion d'identifier les limitations, points de blocage et autres défauts de ces méthodes ainsi que de montrer qu'il existe une marge de progression intéressante en terme de qualité par rapport à ces différents points clés. La seconde partie est essentiellement consacrée à la description et l'analyse de solutions originales proposées en réponse aux limitations identifiées dans la première partie. Un soin particulier a également été apporté à la mise en œuvre qui fait partie intégrante des techniques de réduction de bruit et qui conditionne la qualité du signal restauré. L'analyse des limitations des techniques de réduction du bruit actuelles a permis de dégager plusieurs approches originales permettant de résoudre tout ou partie des problèmes identifiés. Ainsi, l'introduction de nouveaux modèles statistiques, adaptés aux signaux de parole et de bruit, pour déterminer l'expression d'une règle de suppression permet d'obtenir des résultats sensiblement meilleurs qu'en utilisant le modèle gaussien classique. Un problème d'ordre plus général concerne les défauts des estimateurs du rapport signal à bruit, paramètre fondamental qui conditionne les performances des techniques de réduction de bruit. La suppression de ces défauts conduit effectivement à une limitation des distorsions de la parole. Cependant, le signal restauré souffre toujours de certaines dégradations dues notamment aux erreurs d'estimation du bruit et à l'impact de la phase. En effet, l'estimation du bruit, qui constitue une étape clé des techniques de réduction de bruit, souffre de nombreuses limitations surtout lorsque le bruit n'a pas un caractère stationnaire. Dans une moindre mesure, la phase, qui est souvent négligée, a aussi une influence importante dans l'estimation du signal de parole, en particulier lorsque le niveau de bruit est élevé. Une approche originale qui tire parti de la structure voisée du signal de parole pour limiter les distorsions harmoniques engendrées par les techniques classiques est proposée et permet de dépasser les limites de performances des techniques classiques. Outre ces nouvelles approches, leur mise en œuvre conditionne également la qualité finale du signal restauré. Plusieurs points sensibles sont donc soulevés et des solutions sont données qui permettent d'éviter de nombreux artefacts ("clics", nasalisation, bruit musical) désagréables. Les approches proposées sont évaluées en utilisant des critères objectifs dont les résultats sont au besoin validés par des tests subjectifs. Les résultats obtenus montrent des améliorations significatives par rapport aux performances des techniques de référence.
|
734 |
Calculs de visibilité dans un environnement polygonal 2DRiviere, Stéphane 09 January 1997 (has links) (PDF)
Beaucoup de programmes de visualisation, de planification de trajectoire, etc., utilisent intensivement des calculs de visibilité. Si ces calculs de visibilité ne constituent qu'une petite partie de ces programmes, ils sont en revanche responsables d'une grande partie du temps d'exécution de ces programmes: leur efficacité est donc cruciale. Les algorithmes traditionnels de calculs de visibilité ont deux défauts: ils effectuent - inutilement - des calculs sur des objets non visibles et refont tous ces calculs à chaque nouvelle requête, même si les changements avec la requête précédente sont minimes. Pour remédier à ces inconvénients dans le cadre de scènes polygonales bidimensionnelles, nous nous servons d'une structure de données - le complexe de visibilité - qui code toutes les relations de visibilité entre objets d'une scène. Après avoir montré comment construire de façon optimale le complexe de visibilité, nous montrons comment il permet d'utiliser la cohérence spatiale de la scène dans les calculs de polygones de visibilité. Nous montrons aussi comment il permet d'utiliser la cohérence temporelle dans le maintien d'une vue autour d'un point se déplaçant dans la scène. Nous étudions ces algorithmes non seulement d'un point de vue théorique mais aussi d'un point de vue pratique. Nous avons programmé ces algorithmes et effectué des comparaisons expérimentales entre algorithmes. Nous nous sommes aussi intéressés aux problèmes de dégénérescences et d'imprécisions des calculs numériques qui se posent dès que les programmes sont exécutés sur des données «réelles»
|
735 |
Recherche d'optimisation énergétique d'un réacteur plasma froid de traitement d'effluents gazeux chargés en composés organiques volatils à pression atmosphérique.Mericam bourdet, Nicolas 19 March 2012 (has links) (PDF)
Ce travail s'inscrit dans le processus de développement d'un dispositif de traitement de composés organiques volatils (COV) par plasma non-thermique. L'application industrielle des dispositifs de dépollution par plasma froid se heurte à deux limitations majeures que sont une consommation énergétique importante et la formation de sous-produits. Deux axes d'amélioration de l'efficacité énergétique du procédé à décharges sur barrière diélectrique sont explorés dans ce travail de thèse : le mode de dépôt d'énergie dans la décharge et le couplage du réacteur plasma avec un dispositif catalytique. Concernant le premier axe, l'étude a montré que dans le cas des réacteurs DBD étudiés, le paramètre gouvernant la réactivité chimique du plasma à pression atmosphérique était la densité d'énergie, qu'il s'agisse de production d'ozone ou d'élimination d'un COV de la phase gazeuse. L'étude chimique des sous-produits de dégradation par décharge a été conduite pour trois molécules cibles : l'éthanol, l'acétone et la méthyléthylcétone. Dans le cas de l'éthanol, un schéma cinétique 0D est proposé, montrant l'importance de la dissociation dans les mécanismes de dégradation du COV. Pour le second axe exploré, le réacteur plasma a été couplé à un catalyseur. Deux formulations de catalyseurs ont été utilisées, avec et sans métaux précieux. Dans les deux cas, l'activation du catalyseur à basse température par couplage avec le réacteur plasma est démontrée. La dernière partie de l'étude présente les résultats obtenus sur un réacteur plasma à échelle pilote visant à estimer l'impact de l'augmentation des capacités de traitement d'un réacteur DBD sur l'efficacité énergétique du procédé.
|
736 |
Restauration en échantillonnage irrégulier. Théorie et applications aux images et signaux satellitaires.Julien, Caron 03 May 2012 (has links) (PDF)
Les performances des instruments d'acquisition satellitaire progressent rapidement grâce au développement des technologies mais aussi grâce à la compréhension et l'intégration des phénomènes physiques complexes intervenant lors de l'acquisition. Cette thèse traite de plusieurs problèmes d'échantillonnage irrégulier dont les micro-vibrations des satellites dits push-broom tels que SPOT5 et les récents satellites Pléiades dont les capacités en imagerie permettent la détermination de modèles d'élévation très précis. Nous traitons aussi de l'inversion d'interferogrammes en spectrogrammétrie où l'irrégularité de l'échantillonnage est liée a la précision d'usinage des composants réfléchissants. Les micro-vibrations dans le cas du tangage sont estimées à partir d'une nappe de disparité altérée et non-dense par contraintes de parcimonie. Nous montrons expérimentalement que ce modèle et les algorithmes utilises permettent de résoudre en partie ce problème mal posé. L'ajout d'un apriori sur la régularité de l'élévation permet d'améliorer encore cette estimation dans les cas plus difficiles. Les images acquises en présence de micro-vibrations nécessitent de plus un reéchantillonnage auquel s'ajoute la déconvolution avec une problématique de coût numérique. L'algorithme que nous présentons ici répond a ces besoins grâce au cadre fonctionnel des splines que nous adaptons au problème de la déconvolution, avec des performances équivalentes a l'état de l'art et un coût numérique maîtrisé. Enfin nous abordons un problème inverse en interférométrie statique où la nature des signaux et de l'échantillonnage soulève de nombreuses questions, ce travail réalisé lors d'une R&T sur l'instrument SIFTI développé au CNES y apporte des réponses claires sous forme de résultats théoriques et numériques dans le cadre unifié des séries de Fourier non-harmoniques.
|
737 |
Conception, Simulation et Realisation d'un processeur optoélectronique pour la reconstruction d'images médicales.Madec, Morgan 10 November 2006 (has links) (PDF)
Le traitement optique des données tomodensitométriques fournies par les systèmes d'exploration volumique pourrait permettre d'accélérer considérablement les algorithmes de génération d'images dans le but de répondre aux besoins des futurs systèmes de thérapie assistée. Dans ce document, deux architectures optiques, correspondant aux deux opérations de base dans ce domaine, sont présentées : un système de filtrage et un système de rétroprojection. Ils sont abordés sous l'aspect matériel, puis sous l'aspect algorithmique. Quelle que soit la fonction réalisée, un processeur optique est toujours constitué de sources de lumière, d'afficheurs et de capteur d'images. L'état de l'art de ces composants révèle une faiblesse au niveau des afficheurs (SLM). En particulier, les SLM à base de cristaux liquides ferroélectriques sont étudiés en détail (modélisation, simulation et caractérisation de produits existants). L'intérêt des systèmes optiques de traitement est examiné à la fois du point de vue du temps de calcul, en comparaison avec les technologies numériques classiques, et en terme de qualité de traitement. Pour cela, les deux systèmes sont étudiés, dans un premier temps en simulation à l'aide d'un modèle approprié, puis expérimentalement sur un prototype. Dans le cadre du processeur de filtrage, les résultats restent plutôt moyens. Le rapport signal à bruit (SNR) sur les images reconstruites est de l'ordre de 20 dB en simulation avec un modèle dans lequel la majorité des distorsions géométriques n'ont pas été prises en compte. Les résultats expérimentaux mettent encore mieux en avant les limites de la méthode. Le travail de la lumière cohérente semble être un obstacle important. En revanche, les résultats avec le processeur de rétroprojection sont plutôt encourageants. Le modèle, beaucoup plus complet, et les simulations montrent qu'il est possible d'obtenir des images de qualité comparable à celles obtenues par calcul numérique (plus de 50 dB de SNR), avec une accélération d'un à deux ordres de grandeur. Les résultats obtenus avec le prototype expérimental confirment le potentiel de cette architecture. Une extension de ce travail concernant la réalisation d'un processeur hybride dédié à des algorithmes plus complexes (ex : l'algorithme ASSR pour la reconstruction d'image des CT-scan) est également présentée à la fin de ce document.
|
738 |
L'abandon du traitement antirétroviral chez des femmes vivant avec le VIH/sida en GuinéeBaldé, Fatoumata Lamarana 01 1900 (has links) (PDF)
Depuis plusieurs décennies, le VIH/sida est reconnu comme une pandémie mondiale. Elle touche, on le sait, particulièrement l'Afrique et la Guinée, terrain de cette étude. Le traitement le plus efficace, du point de vue médical, est le traitement antirétroviral (ARV). Ces traitements sont de plus en plus disponibles en Guinée et ils sont gratuits depuis novembre 2007. La prise en charge globale et adéquate des personnes vivant avec le VIH est l'un des objectifs principaux du Cadre stratégique national de lutte contre le sida. L'accès aux soins et, principalement, aux antirétroviraux constituent l'un des dispositifs essentiels de cette prise en charge en Guinée. Néanmoins, en 2008 un phénomène de plus en plus important est observé : l'abandon du traitement antirétroviral pendant des durées variables, de quelques mois à plusieurs. Selon certaines données recueillies, ce phénomène atteindrait des taux approchant les 87 % dans une des villes guinéennes. Qu'est ce qui mène des personnes vivant avec le VIH/sida, auxquelles on a prescrit un traitement antirétroviral, à abandonner le traitement largement connu comme étant le plus efficace? C'est la préoccupation qui est au fondement de notre travail de recherche. Elle vise à comprendre les motifs de cet abandon et à analyser les justifications données. À partir d'entretiens semi-directifs réalisés auprès de femmes guinéennes vivant avec le VIH, en situation d'abandon du traitement des ARV, habitant la ville de Conakry et la préfecture de Kissidougou en Guinée, nous avons interrogé ces pratiques comme formes d'agir reposant sur différentes logiques et non comme simple acte passif. L'approche adoptée dans cette recherche permet d'aller au-delà de la seule question de non-respect de prescriptions ou de recommandations médicales, pour prendre en compte la manière dont est effectué le suivi médical, ainsi que la conciliation entre les contraintes du traitement et les contextes particuliers de vie des personnes vivant avec le VIH. Le traitement antirétroviral nécessite une réflexion à partir des personnes elles-mêmes et sur les conditions objectives de leurs actions ainsi que celles liées au système de santé et autres acteurs impliqués dans la prise en charge des personnes vivant avec le VIH.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : VIH/sida, PVVIH, ARV (antirétroviraux), abandon, stigmatisation, discrimination, prise en charge, statut sérologique, agir, vulnérabilisation, Guinée
|
739 |
Valorisation de la fraction organique de résidus agricoles et autres déchets assimilés à l'aide de traitements biologiques anaérobiesLacour, Joaneson 19 March 2012 (has links) (PDF)
Dans les espaces ruraux et périurbains d'Haïti, les déchets et résidus organiques générés principalement par les activités agricoles et agroindustrielles, sont traditionnellement valorisés in situ dans l'alimentation animale comme provende, dans la fertilisation des sols comme amendement organique et/ou à des fins énergétiques comme combustibles. Parallèlement, au niveau des villes, les déchets organiques sont majoritairement éliminés sans aucune forme de ségrégation dans des décharges non contrôlées. Ce travail de recherche a voulu mettre l'accent sur l'opportunité de valoriser ces déchets par la méthanisation approchée comme une voie alternative de traitement biologique des déchets organiques fermentescibles. Le travail d'évaluation des gisements de déchets organiques a mis en évidence que la mauvaise gestion de ces gisements entraine une perte annuelle de matières estimée à près de 2 960 000 tonnes de matière sèche, potentiellement convertibles en 367 500 000 Nm3 de méthane ou 310 000 tep, correspondant à environ 16% de la couverture énergétique finale des ménages à l'échelle nationale. L'approche expérimentale à l'échelle de laboratoire a permis d'évaluer les potentiels biométhanogènes de certaines catégories de déchets d'origine agricole, dont la bagasse, le chou et les déjections de bovins, porcins et poulets, ainsi que les possibilités d'optimisation des cinétiques de digestion anaérobie par des moyens peu onéreux comme la réduction de la taille des particules, l'augmentation du ratio InoculumMV/SubstratMV et les effets de synergie liés à la co-digestion. Des recherches à l'échelle du pilote de terrain ont également été réalisées. Un digesteur a été construit sur le modèle des digesteurs indiens et suivi pendant plusieurs semaines. Malgré les conditions particulières de mise en œuvre du pilote, les essais réalisés ont démontré la faisabilité de la filière avec la technologie rustique sélectionnée. Le temps de retour sur investissement pour un fonctionnement optimal du digesteur pilote a été estimé à 5 ans.
|
740 |
Contribution à la définition, à l'optimisation et à l'implantation d'IP de traitement du signal et des données en temps réel sur des cibles programmablesOuerhani, Yousri 16 November 2012 (has links) (PDF)
En dépit du succès que les implantations optiques des applications de traitement d'images ont connu, le traitement optique de l'information suscite aujourd'hui moins d'intérêt que dans les années 80-90. Ceci est dû à l'encombrement des réalisations optiques, la qualité des images traitées et le coût des composants optiques. De plus, les réalisations optiques ont eu du mal à s'affranchir de l'avènement des circuits numériques. C'est dans ce cadre que s'inscrivent les travaux de cette thèse dont l'objectif est de proposer une implantation numérique des méthodes optiques de traitement d'images. Pour réaliser cette implantation nous avons choisi d'utiliser les FPGA et les GPU grâce aux bonnes performances de ces circuits en termes de rapidité. En outre, pour améliorer la productivité nous nous sommes focalisés à la réutilisation des blocs préconçus ou IP " Intellectual Properties ". Malgré que les IP commerciales existantes soient optimisées, ces dernières sont souvent payantes et dépendent de la famille de la carte utilisée. La première contribution est de proposer une implantation optimisée des IP pour le calcul de la transformée de Fourier FFT et de la DCT. En effet, le choix de ces deux transformations est justifié par l'utilisation massive de ces deux transformées (FFT et DCT), dans les algorithmes de reconnaissance de formes et de compression, respectivement. La deuxième contribution est de valider le fonctionnement des IP proposées par un banc de test et de mesure. Enfin, la troisième contribution est de concevoir sur FPGA et GPU des implantations numériques des applications de reconnaissance de formes et de compression. Un des résultats probant obtenu dans cette thèse consiste à avoir une rapidité de l'IP FFT proposée 3 fois meilleure que celle de l'IP FFT Xilinx et de pouvoir réaliser 4700 corrélations par seconde.
|
Page generated in 0.0749 seconds