1101 |
Etude physico-chimique du traitement thermique du bois. Optimisation de paramètres du procédé de rétificationWeiland, Jean-Jacques 26 January 2000 (has links) (PDF)
Le bois est un bio polymère qui se distingue des autres matériaux industriels (polymères, métaux) par son origine végétale. Dérive d'un tissu cellulaire, il est hygroscopique, anisotrope, instable dimensionnellement et vulnérable aux attaques biologiques (insectes et champignons). Le procédé de rétification du bois consiste en une pyrolyse ménagée (entre 180 et 250°C) sous atmosphère contrôlée et réduit de façon notable l'hygroscopie, l'instabilité dimensionnelle et la biodégradabilité du matériau traité. Cette étude a mis en évidence des différences de sensibilité thermique entre les feuillus et les résineux. Ces derniers peuvent présenter des taux de résines plus ou moins importants qui influent sur le comportement du matériau au cours de la rétification. Les départs gazeux observes sont attribués à une destruction importante des hemicelluloses et une modification de la lignine. Le bois traité thermiquement est plus hydrophobe que le matériau de départ en raison d'une destruction de groupes hydroxyles des hemicelluloses. La présence d'acide acétique, issu de la dégradation des hemicelluloses à haute température, permet de catalyser les réactions de condensation de la lignine, mais pourrait également contribuer à la dégradation mécanique du matériau. Une étude menée sur le matériau massif a démontré que la structure cristalline de la cellulose n'est pratiquement pas affectée par le traitement thermique. L'augmentation de la résistance aux attaques fongiques semble être due à des réactions de condensation de la lignine. La quantité de composés extractibles (essentiellement des phénols) augmente suite au traitement thermique. Le paramètre fondamental du procédé de rétification est la température de traitement du matériau. Les analyses de la structure chimique du bois, avant et après traitement par spectrométrie drift, mettent en évidence un seuil pour une température de rétification de 240°C.
|
1102 |
Le traitement des exceptions dans les programmes modulairesCristian, Flaviu 12 September 1979 (has links) (PDF)
.
|
1103 |
Utilisation de la détection cohérente pour les systèmes de transmission optique à 40 GB/s ET 100 GB/sBertran Pardo, Oriol 10 September 2010 (has links) (PDF)
La prochaine génération d'infrastructures de communication par fibre optique comprendra des systèmes de transmission longue distance avec du multiplexage en longueur d'onde (WDM) à 40 et 100 Gb / s, et sera très probablement basée sur la détection cohérente. Le travail de thèse décrit dans ce manuscrit étudie ces systèmes. Nous démontrons d'abord leur tolérance inégalée à des effets physiques linéaires de propagation, grâce au traitement numérique du signal réalisé dans le récepteur. Néanmoins, les systèmes optiques peuvent être limités aussi par des effets non-linéaires de propagation. Cette thèse explore le comportement non-linéaire des signaux détectés avec un récepteur cohérent, spécialement quand ils sont multiplexés en polarisation. Nous avons particulièrement étudié l'évolution de l'impact des non-linéarités quand le débit augmente de 40 à 100 Gb/s, en démontrant que l'augmentation du débit accroît la tolérance à certaines non-linéarités. Cette thèse examine également l'interaction entre la dispersion modale de polarisation (PMD) et les non-linéarités. Contrairement aux systèmes existants, nous avons prouvé que, lorsque la PDM est distribuée, elle s'avère souvent être bénéfique en réduisant les pénalités causées par les non-linéarités. Au contraire, quand la PMD est localisée, elle peut augmenter la dégradation causée par lesdites non-linéarités. Finalement, comme une preuve de l'intérêt porté par les opérateurs aux technologies à 100 Gb/s, ce manuscrit présente les résultats d'un essai de terrain que nous avons mené récemment sur le réseau de Telefónica en Espagne montrant le potentiel des technologies cohérente pour moderniser les réseaux existants.
|
1104 |
Croissance et densification d'un épithélium en géométrie confinéeDéforet, Maxime 28 September 2012 (has links) (PDF)
Un épithélium est un tissu formé de cellules étroitement juxtaposées dont la fonction est d'isoler des organes entre eux ou vis-à-vis du milieu extérieur. Nous étudions la croissance d'un épithélium en géométrie confinée. En utilisant des techniques de microfabrication, nous avons développé un protocole de traitement de surface permettant de confiner un tissu dans une zone adhésive pendant plusieurs semaines. La résolution spatiale de cette technique est micrométrique, et nous autorise la conception de motifs adhésifs de diverses géométries. Dans notre étude, leurs tailles sont telles que les cellules s'y comportent collectivement. Nous analysons la croissance d'un épithélium de cellules Madine Derby Canine (MDCK) dans des domaines adhésifs circulaires. La migration et la densification du tissu sont étudiées par PIV (Particle image velocimetry) et d'autres techniques d'analyse d'image. Nous caractérisons les champs de vitesse et observons des oscillations de grande amplitude de la vitesse dont la période correspond à l'hypothèse d'une onde de contraintes se propageant dans l'épithélium. Nous caractérisons également l'apparition d'un bourrelet tridimensionnel de cellules à la périphérie de l'épithélium, rappelant les premières étapes de la tubulogénèse. Dans deux autres expériences, en utilisant une géométrie inverse, nous étudions le recouvrement d'un épithélium sur une région anti-adhésive. Nous montrons que ce recouvrement nécessite un câble d'actomyosine supracellulaire, et que la tension de ce câble s'opposant à une tension de surface définit une taille critique au-delà duquel le motif anti-adhésif ne peut pas être recouvert par l'épithélium
|
1105 |
Écoulements de fluides complexes en présence d'interfaces dans des systèmes microfluidiquesDuboin, Aurélien 24 May 2013 (has links) (PDF)
En lien avec des procédés de récupération assistée du pétrole, la mise en œuvre d'écoulements biphasiques immiscibles dans des géométries microfluidiques permet d'étudier comment des solutions aqueuses semi-diluées de polymères peuvent modifier la dynamique d'interface entre une phase aqueuse et une phase organique. Nous travaillons dans une géométrie commune en microfluidique (flow focusing), induisant des écoulements élongationnels, avec une phase externe aqueuse polymérique et une phase interne organique newtonienne. Nous observons des formes d'interfaces particulières liées au comportement non newtonien de la phase externe. Les propriétés élongationnelles du polymère favorisent la formation de pointes et de jets de taille micrométrique et les contraintes normales développées par le polymère stabilisent le jet sur de très grandes distances rendant possible la synthèse de microfibres, à partir de ces jets, dans le système. Par ailleurs, nous utilisons des géométries modélisant les configurations rencontrées dans les réservoirs dans l'industrie pétrolière, pour étudier de façon systématique les effets des polymères (viscosité/élasticité) sur le déplacement d'huile, à l'échelle du pore et du réseau. Nous caractérisons l'influence du rapport de viscosité entre les phases, du nombre capillaire et des conditions de mouillage, sur la forme du front polymères/huile et le taux de récupération d'huile. Enfin, nous employons une méthode de traitement de surface en phase sèche permettant d'améliorer l'hydrophilie d'un matériau compatible avec l'utilisation de pétrole pour fabriquer des systèmes aux propriétés de mouillage contrôlées et texturables, jusqu'à l'échelle micrométrique.
|
1106 |
Étude de l'origine de défauts détectés dans des pièces en alliage d'aluminium de la série 7XXX destinées à l'industrie aéronautiqueAgouti, Siham 13 December 2012 (has links) (PDF)
Les travaux de cette thèse s'insèrent dans le cadre de l'étude de défauts détectés par contrôle ultrason dans des pièces forgées en alliage d'aluminium destinées à l'industrie aéronautique.Cette étude a été menée sur deux pièces produites par Aubert&Duval en alliage d'aluminium 7050 fourni par Constellium. Ces pièces ont été sélectionnées sur base d'une étude statistique de l'occurrence des défauts sur cinq années de production industrielle. L'une présente un taux de rebut important du fait de ces défauts, l'autre un taux de rebut quasiment nul, bien qu'elles soient produites avec le même matériau.L'étude de l'origine des défauts a été construite autour de deux axes de recherche:* Axe thermomécanique : formation des défauts pendant la mise en forme par endommagement ductile à chaud.* Axe matériau : caractérisation des défauts préexistants dans le matériau après son élaboration et non refermés pendant la mise en forme.L'axe thermomécanique est basé sur la simulation numérique des gammes de mise en forme des pièces industrielles à l'aide du logiciel Forge® 2009. Le deuxième axe est articulé autour de la caractérisation de l'état de porosité dans un matériau modèle présentant une teneur en hydrogène élevée induisant un taux de porosité plus important que le matériau sain utilisé industriellement. De petits lopins de ce matériau modèle ont été soumis à une campagne de compression alternée simulant le forgeage industriel. La campagne de compression a été conçue par simulation numérique afin de reproduire les conditions thermomécaniques industrielles. Deux techniques de caractérisation complémentaires ont été mises en œuvre pour suivre l'évolution de la porosité : détection indirecte par contrôle ultrason à haute résolution spatiale et observations directes par microscopie électronique à balayage. Une méthode d'analyse quantitative des signaux ultrasonores a été mise au point pour ce travail.La comparaison par simulation numérique du procédé de matriçage des deux pièces industrielles étudiées a permis d'écarter l'hypothèse de la création des défauts par endommagement ductile à chaud. Lors du matriçage, la matière est soumise à des chargements globalement compressifs, et le risque d'endommagement est par conséquent très faible. De plus, comme observé lors de la caractérisation des défauts industriels, les défauts présentent un fond lisse, similaire au fond lisse observé sur les rares porosités présentes dans le matériau industriel à l'état brut d'élaboration. Le même type de fond lisse caractérise également les porosités présentes dans le matériau modèle. Cette observation favorise l'hypothèse de défauts provenant d'un défaut préexistant dans le matériau initial (en l'occurrence à partir d'une porosité). Cette hypothèse est par ailleurs cohérente avec le comportement des porosités lors de la simulation du forgeage sur petits lopins du matériau modèle.Les résultats de cette étude montrent en effet que les porosités ont tendance à s'aplatir et à se refermer pendant la déformation plastique à chaud, sans forcément cicatriser. Les faciès de rupture d'échantillons soumis à de fortes déformations cumulées et ne donnant plus de réponse ultrasonore significative continuent en effet de présenter de petites plages à fond lisse qui témoignent d'une cicatrisation incomplète. Le traitement thermique semble en outre favoriser la réouverture des porosités non cicatrisées (zones lisses) pendant la déformation et leur élargissement (zones ductiles).
|
1107 |
Méthodologie d'analyse des dysfonctionnements des systèmes pour une meilleure maitrise des risques industriels dans les PME : application au secteur du traitement de surfaceGardes, Laurence 01 June 2001 (has links) (PDF)
En application des principes généraux de prévention, développés dans le cadre législatif de la protection des travailleurs, une analyse des risques doit être effectuée dans l'ensemble des installations industrielles. Dans les entreprises de petites et moyennes tailles (PME), ce principe de prévention est très peu appliqué et on peut attribuer en partie cette d'absence d'application au fait que les méthodes d'analyse proposées aux PME ne leur sont pas adaptées. Afin d'évaluer le degré d'adaptation ou d'inadaptation des méthodes existantes, nous avons étudié les caractéristiques des PME puis décidé de tester sur le terrain une méthode d'analyse des risques afin d'observer les blocages survenant à cette occasion. Dans ce but, nous avons alors mis en place dans trois PME de traitement de surface une méthode classique d'analyse des risques (MOSAR), choisie parmi les méthodes issues du mouvement de la sûreté de fonctionnement. Lors de cette phase expérimentale, de nombreux blocages sont apparus à chacune des étapes de l'analyse que sont la modélisation du système à étudier, l'identification des scénarios d'accidents, l'évaluation des risques, leur hiérarchisation et la mise en place de barrières de protection et de prévention. Nous avons analysé alors ces blocages d'apparence disparate et pu attribuer principalement leurs causes à un conflit de valeurs entre PME et institutions de prévention, à l'absence de connaissances de la part des PME des modèles d'apparition et de représentation des risques, et aux problèmes de définition par les institutions de modèles de représentation du risque en adéquation avec ceux des PME. Les pistes d'évolution que nous proposons suite à ces constats permettraient à l'entreprise de mener à bien, dans de meilleures conditions, une démarche complète d'analyse des risques dont le résultat se traduirait par une réduction pérenne de la fréquence et de la gravité des accidents qui la touchent.
|
1108 |
Détourage interactif de photographies d'Intérêt généralBertier, Marc 01 July 1983 (has links) (PDF)
Dans un premier temps, nous mettrons en valeur le contexte technologique matériel et surtout logiciel qui permet aujourd'hui le développement de systèmes de mise en page pour les métiers de l'édition(§ I.1). Dans cette perspective, apparaîtront d'eux mêmes, la motivation et l'intérêt pratique présentés par l'étude détaillée du détourage, opération fondamentale qui consiste à extraire d'une photographie l'image d'un objet y figurant (§ I.2). Nous aborderons, dans la suite de ce chapitre une présentation plus technique des difficultés soulevées par l'automatisation du détourage. Plus précisément, nous présenterons le problème comme relevant à la fois de la segmentation et de l'interprétation d'image (§ I.3).
|
1109 |
Procédé structurel de lecture optique multipoliceTripon, Nicolas 09 October 1981 (has links) (PDF)
Presque aussi ancienne que l'informatique elle-même la lecture optique automatique a maintenant plus de trente ans. Comme l'informatique, elle a connu une évolution constante les systèmes lourds, peu flexibles et entièrement câblés du début laissent peu à peu la place à d'autres beaucoup plus légers, flexibles (orientés multipolice) et plus faciles à mettre en oeuvre (logique programmée). Deux facteurs en sont responsables. - Le premier a trait aux algorithmes employés : les premiers algorithmes, inspirés des méthodes connues de détection des signaux radio, ont laissé la place à des algorithmes basés sur l'analyse des caractères ; la structure de ceux-ci variant peu d'une police à l'autre, les machines deviennent du coup multipolice. - Le second est un facteur proprement technologique : l'avènement du microprocesseur. Il permet d'augmenter l'intelligence des algorithmes en les distribuant sur les différentes parties d'un même système. Les machines construites autour d' un seul processeur sont ainsi remplacées par d'autres, aussi rapides mais plus fiables et plus compactes, ayant une structure multiprocesseur.
|
1110 |
Recherche reproductible, qualité logicielle, publication et interfaces en ligne pour le traitement d'imageLimare, Nicolas 21 June 2012 (has links) (PDF)
Cette thèse est basée sur une étude des problèmes de reproductibilité rencontrés dans la recherche en traitement d'image, et de manière générale dans les sciences appliquées et informatiques. Partant du constat du manque de vérifiabilité des publications scientifiques et de implémentations associées aux algorithmes publiés, nous avons conçu, créé et développé un journal scientifique, Image Processing On Line (IPOL), dans lequel nous proposons un nouveau mode d'évaluation et de publication de la recherche en traitement d'image afin d'atteindre une meilleure fiabilité des logiciels et algorithmes issus de la recherche.
|
Page generated in 0.0667 seconds