Spelling suggestions: "subject:"comprimé"" "subject:"comprimés""
1 |
Systèmes de localisation en temps réel basés sur les réseaux de communication sans filAbid, Mohamed Amine January 2016 (has links)
Des techniques fiables de radiolocalisation s’avèrent indispensables au développement d’un grand nombre de nouveaux systèmes pertinents. Les techniques de localisation basées sur les réseaux de communication sans-fil (WNs) sont particulièrement adéquates aux espaces confinés et fortement urbanisés. Le présent projet de recherche s’intéresse aux systèmes de localisation en temps réel (RTLS) basés sur les technologies de communication sans-fil existantes. Deux nouvelles techniques de radiolocalisation alternatives sont proposées pour améliorer la précision de positionnement des nœuds sans-fil mobiles par rapport aux méthodes conventionnelles basées sur la puissance des signaux reçus (RSS). La première méthode de type géométrique propose une nouvelle métrique de compensation entre les puissances de signaux reçus par rapport à des paires de stations réceptrices fixes. L’avantage de cette technique est de réduire l’effet des variations du milieu de propagation et des puissances d’émission des signaux sur la précision de localisation. La même métrique est sélectionnée pour former les signatures utilisées pour créer la carte radio de l’environnement de localisation durant la phase hors-ligne dans la deuxième méthode de type analyse de situation. Durant la phase de localisation en temps réel, la technique d’acquisition comprimée (CS) est appliquée pour retrouver les positions des nœuds mobiles à partir d’un nombre réduit d’échantillons de signaux reçus en les comparant à la carte radio préétablie. Le calcul d’algèbre multilinéaire proposé dans ce travail permet l’utilisation de ce type de métrique ternaire, équivalemment la différence des temps d’arrivée (TDOA), pour calculer les positions des cibles selon la technique de CS. Les deux méthodes sont ensuite validées par des simulations et des expérimentations effectuées dans des environnements à deux et à trois dimensions. Les expériences ont été menées dans un bâtiment multi-étages (MFB) en utilisant l’infrastructure sans-fil existante pour retrouver conjointement la position et l’étage des cibles en utilisant les techniques proposées. Un exemple emblématique de l’application des RTLS dans les zones urbaines est celui des systèmes de transport intelligents (ITS) pour améliorer la sécurité routière. Ce projet s’intéresse également à la performance d’une application de sécurité des piétons au niveau des intersections routières. L’accomplissement d’un tel système repose sur l’échange fiable, sous des contraintes temporelles sévères, des données de positionnement géographique entre nœuds mobiles pour se tenir mutuellement informés de leurs présences et positions afin de prévenir les risques de collision. Ce projet mène une étude comparative entre deux architectures d’un système ITS permettant la communication entre piétons et véhicules, directement et via une unité de l’infrastructure, conformément aux standards de communication dans les réseaux ad hoc véhiculaires (VANETs).
|
2 |
Gaussian geometry and tools for compressed sensing / Méthodes gaussiennes et application à l'acquisition compriméeMourareau, Stéphane 24 June 2016 (has links)
Cette thèse s'inscrit dans le cadre de l'analyse statistique en grande dimension. Plus précisé- ment, l'objet de cette thèse est d'étudier la possible application d'outils issus de la théorie des processus Gaussiens afin de redémontrer certaines propriétés des matrices à entrées Gaussiennes et d'étendre certaines procédures de test du modèle linéaire Gaussien standard. Dans la première partie, nous nous concentrons sur les matrices Gaussiennes. Notre objectif est de démontrer, via des formules du type Kac-Rice, qu'une telle matrice satisfait, avec très grande probabilité, la Null Space Property (NSP) et la Propriété d'Isométrie Restreinte (RIP). De plus, nous déduisons des transitions de phases dépendant des paramètres classiques de la régression parcimonieuse, à savoir le nombre d'observations, le nombre de prédicteurs et le degré de sparsité. Dans la seconde partie, nous traitons le cas du test de nullité globale des paramètres pour le modèle linéaire Gaussien, afin de l'appliquer au cas de la sélection de modèle. Dans ces travaux, qui s'inscrivent dans la continuité de Taylor, Loftus et Tibshirani, nous proposons un test non conditionnel pour l'hypothèse de nullité globale dans le cadre du lasso et discutons autour de sa puissance. De plus, nous généralisons ces résultats aux processus Gaussiens, pour inclure, par exemple, la cas de la super-résolution. Dans une troisième partie, nous présentons quelques applications de la formule de Rice visantà calculer la fonction de répartition du maximum d'un processus Gaussien afin d'en déduire une version numériquement implémentable. Dans un deuxième temps, nous discutons de l'efficacité ou non de certaines approximations classiques pour la fonction de répartition du maximum. Enfin, nous étudions le comportement asymptotique du nombre de franchissements d'un niveau donné u sur un intervalle de temps [0,T] pour un processus Gaussien dérivable. / This thesis fallin within the context of high-dimensional data analysis. More specificaly, the purpose is to study the possible application of some Gaussian tools to prove classical results on matrices with Gaussian entries and to extend existing test procedures for Gaussian linear models. In a first part, we focus on Gaussian matrices. Our aim is to prove, using a Kac-Rice formula on Gaussian processes, that such a matrice satisfies, with overwhelming probability, the Null Space Property (NSP) and the Restricted Isometry Property (RIP). Moreover, we derive phase transition graphs depending on the classical parameters of sparse regression, namely the number of observations, the number of predictors and the level of sparsity. In a second part, we deal with global null testing for Gaussian linear models, with application to Compressed Sensing. Following recent works of Taylor, Loftus and Tibshirani, we purpose a test for global null hypothesis in the lasso case and discuss about its power. Furthermore, we generalize these method to Gaussian processes, to include, for instance, the super-resolution case. In a third part, we present some applications of Rice formula to compute the cumulative distribution function of the maximum of a Gaussian process and derive corresponding numerical routines to investigate the efficiency of classical approximations. Finaly, we consider the asymp- totical comportement of the number of crossings of a differentiable Gaussian process for a given level u and time interval [0,T].
|
3 |
La programmation DC et DCA en analyse d'image : acquisition comprimée, segmentation et restauration / DC programming and DCA in image processing : compressed sensing, segmentation and restorationNguyen, Thi Bich Thuy 11 December 2014 (has links)
L’image est une des informations les plus importantes dans la vie. Avec le développement rapide des dispositifs d’acquisition d’images numériques par exemple les appareils photo numériques, les caméras de téléphones, les appareils d’imagerie médicale ou les dispositifs d’imagerie satellite..., les besoins de traitement et d’analyse des images sont de plus en plus croissants. Ils concernent les problèmes de l’acquisition, du stockage des images, de l’amélioration ou de l’information d’extraction d’une image,... Dans cette thèse, nous étudions le traitement et l’analyse des problèmes: acquisition comprimée, apprentissage de dictionnaire et débruitage d’images, segmentation d’images. La méthode que nous décrivons se base sur les approches d’optimisation déterministe, nommées la programmation DC (Difference of Convex functions) et DCA (Difference of Convex Algorithms), pour la résolution des problèmes d’analyse d’images cités précédemment. 1. Acquisition comprimée: une technique de traitement du signal pour acquérir et reconstruire un signal respectant les limites traditionnelles du théorème d’échantillonnage de Nyquist–Shannon, en trouvant la solution la plus parcimonieuse d’un système linéaire sous-déterminé. Cette méthode apporte la parcimonie ou la compressibilité du signal lorsqu’il est représenté dans une base ou un dictionnaire approprié qui permet au signal entier d’être déterminé à partir de certains mesures relatives. Dans cette thématique, nous nous intéressons à deux problèmes. Le premier est de trouver la représentation parcimonieuse d’un signal. Le second est la récupération du signal à partir de ses mesures compressées sur une base incohérente ou un dictionnaire. Les deux problèmes ci-dessus conduisent à résoudre un problème d’optimisation non convexe. Nous étudions trois modèles avec quatre approximations pour ces problèmes. Des algorithmes appropriés basés sur la programmation DC et DCA sont présentés. 2. Apprentissage du dictionnaire: Nous avons vu la puissance et les avantages de la représentation parcimonieuse des signaux dans l’acquisition comprimée. La représentation parcimonieuse d’un signal entier dépend non seulement des algorithmes de représentation mais aussi de la base ou du dictionnaire qui sont utilisés dans la représentation. Ainsi conduit un problème critique et les autres applications d’une manière naturelle. Au lieu d’utiliser une base fixe, comme wavelets (ondelettes) ou Fourier, on peut apprendre un dictionnaire, la matrice D, pour optimiser la représentation parcimonieuse d’une large classe de signaux donnés. La matrice D est appelée le dictionnaire appris. Pour ce problème, nous avons proposé un algorithme efficace basé sur DCA qui comprend deux étapes: la première étape - codage parcimonieux; le seconde étape - dictionnaire mis à jour. Une application de ce problème, débruitage d’images, est également considérée. 3. Segmentation d’images: il s’agit de partitionner une image numérique en segments multiples (ensembles des pixels). Le but de la segmentation est de simplifier et/ou de modifier la représentation d’une image en une forme qui est plus significative et plus facile à analyser. Nous avons développé une méthode efficace pour la segmentation d’images via le clustering flou avec la pondération de variables. Nous étudions également une application médicale qui est le problème de comptage de cellules. Nous proposons une combinaison de phase de segmentation et des opérations morphologiques pour compter automatiquement le nombre de cellules. Notre approche donne des résultats prometteurs dans la comparaison avec l’analyse manuelle traditionnelle en dépit de la densité cellulaire très élevée / Image is one of the most important information in our lives. Along with the rapid development of digital image acquisition devices such as digital cameras, phone cameras, the medical imaging devices or the satellite imaging devices..., the needs of processing and analyzing images is more and more demanding. It concerns with the problem of image acquiring, storing, enhancing or extracting information from an image,... In this thesis, we are considering the image processing and analyzing problems including: compressed sensing, dictionary learning and image denoising, and image segmentation. Our method is based on deterministic optimization approach, named the DC (Difference of Convex) programming and DCA (Difference of Convex Algorithms) for solving some classes of image analysis addressed above. 1. Compressed sensing is a signal processing technique for efficiently acquiring and reconstructing a signal, which is breaking the traditional limits of sampling theory of Nyquist–Shannon by finding solutions to underdetermined linear systems. This takes advantage of the signal’s sparseness or compressibility when it is represented in a suitable basis or dictionary, which allows the entire signal to be determined from few relative measurements. In this problem, we are interested in two aspects phases. The first one is finding the sparse representation of a signal. The other one is recovering the signal from its compressed measurements on an incoherent basis or dictionary. These problems lead to solve a NP–hard nonconvex optimization problem. We investigated three models with four approximations for each model. Appropriate algorithms based on DC programming and DCA are presented. 2. Dictionary learning: we have seen the power and the advantages of the sparse representation of signals in compressed sensing. Finding out the sparsest representation of a set of signals depends not only on the sparse representation algorithms but also on the basis or the dictionary used to represent them. This leads to the critical problems and other applications in a natural way. Instead of using a fixed basis such as wavelets or Fourier, one can learn the dictionary, a matrix D, to optimize the sparsity of the representation for a large class of given signals (data). The matrix D is called the learned dictionary. For this problem, we proposed an efficient DCA based algorithm including two stages: sparse coding and dictionary updating. An application of this problem, image denoising, is also considered. 3. Image segmentation: partitioning a digital image into multiple segments (sets of pixels). The goal of segmentation is to simplify and/or change the representation of an image into a form that is more meaningful and easier to analyze. We have developed an efficient method for image segmentation via feature weighted fuzzy clustering model. We also study an application of image segmentation for cell counting problem in medicine. We propose a combination of segmentation phase and morphological operations to automatically count the number of cells. Our approach gives promising results in comparison with the traditional manual analysis in despite of the very high cell density
|
4 |
Outils pour l'analyse de données de vitesses radiales / Tools for radial velocity data analysisHara, Nathan 27 October 2017 (has links)
Lorqu'une étoile a des compagnons planétaires, elle décrit un mouvement quasi épicycloïdal autour du centre de masse du système. Si l'orientation du plan de l'orbite le permet, un observateur situé sur la Terre peut détecter la composante de ce mouvement sur la ligne de visée grâce à l'effet Doppler. Il mesure ainsi la ``vitesse radiale de l'étoile''. Si cette vitesse présente des variations périodiques suffisamment claires, la présence de planètes peut être inférée et leurs orbites contraintes. Une des difficultés de l'analyse de telles mesures est qu'une combinaison de signaux de plusieurs planètes et de divers bruits peut être confondue avec l'effet d'une planète en réalité inexistante. Après avoir présenté les effets à prendre en compte pour analyser des données de vitesses radiales, nous abordons ce problème. Pour limiter son occurrence, nous utilisons un algorithme de poursuite de base modifié, dont on démontre l'efficacité sur des signaux réels et simulés. Nous abordons ensuite le problème de l'estimation des paramètres orbitaux pour un système donné ainsi que leur distribution pour une population de planètes. On s'intéresse en particulier à l'excentricité, dont on montre qu'elle est d'autant plus surestimée que le modèle du signal est mauvais. Nous proposons des solutions pour une estimation robuste des paramètres orbitaux. / When a star is orbited by planetary companions, it describes a nearly epicyclic motion around the center of mass of the system. When the orientation of the orbital plane is appropriate, an observer on Earth can measure the velocity of the star along the line of sight by Doppler effect. If this ``radial velocity'' presents clear enough periodic variations, the presence of planets can be inferred and their orbit can be constrained. Detection and estimation of orbits is made difficult by the photon noise, the unpredictable variations of luminosity of the star as well as instrumental faults. In particular, signals from several planets can add coherently with the noises and mimic the effect of a planet absent from the system. After listing the relevant effects to make inference on exoplanets from radial velocity data, we tackle this problem. To limit its rate of occurrence, we use a modified basis pursuit algorithm, allowing to search for several signals simultaneously. The efficiency of the method is demonstrated on real and simulated signals. We then address the problem of orbital parameters estimation for a given system, as well as the estimation of their distribution on a planet population. We look in detail at the eccentricity, and show that its overestimation increases as the model moves away from the correct one. We suggest methods for robust inference of orbital parameters.
|
5 |
Solutions algorithmiques pour des applications d'acquisition parcimonieuse en bio-imagerie optique / Algorithmic solutions toward applications of compressed sensing for optical imagingLe Montagner, Yoann 12 November 2013 (has links)
Ces dernières années, la théorie mathématique de l'échantillonnage compressé (CS) a émergé en tant que nouvel outil en traitement d'images, permettant notamment de dépasser certaines limites établies par la théorie de l'échantillonnage de Nyquist. En particulier, la théorie du CS établit qu'un signal (une image, une séquence vidéo, etc.) peut être reconstruit à partir d'un faible nombre de mesures linéaires non-adaptatives et aléatoires, pourvu qu'il présente une structure parcimonieuse. Dans la mesure où cette hypothèse se vérifie pour une large classe d'images naturelles, plusieurs applications d'imagerie ont d'ores-et-déjà bénéficié à des titres divers des résultats issus de cette théorie. Le but du travail doctoral présent est d'étudier comment la théorie du CS - et plus généralement les idées et méthodes en relation avec les problèmes de reconstruction de signaux parcimonieux - peuvent être utilisés pour concevoir des dispositifs d'acquisition optiques à haute-résolution spatiale et temporelle pour des applications en imagerie biologique. Nous étudions tout d'abord quelques questions pratiques liées à l'étape de reconstruction nécessairement associée aux systèmes d'acquisition exploitant le CS, ainsi qu'à la sélection des paramètres d'échantillonnage. Nous examinons ensuite comment le CS peut être utilisé dans le cadre d'applications d'échantillonnage de signaux vidéo. Enfin, avec dans l'idée l'utilisation dans des problèmes de débruitage de méthodes inspirées du CS, nous abordons la question de l'estimation d'erreur dans les problèmes de débruitage d'images acquises en conditions de faible luminosité, notamment dans le cadre d'applications de microscopie. / In the past few years, the mathematical theory of compressed sensing (CS) has emerged as a new tool in the image processing field, leading to some progress in surpassing the limits stated by the Nyquist sampling theory. In particular, the CS theory establishes that a signal (image, video, etc.) can be reconstructed from a relatively small subset of non-adaptive linear random measurements, assuming that it presents a sparse structure. As this hypothesis actually holds for a large number of natural images, several imaging applications have already benefited from this theory in various aspects. The goal of the present PhD work is to investigate how the CS theory - and more generally the ideas and methods developed in relation with sparse signal reconstruction problematics - can be used to design efficient optical sensing devices with high spatial and temporal resolution for biological imaging applications. We first investigate some practical issues related to the post-processing stage required by CS acquisition schemes, and to the selection of sampling parameters. We then examine how CS can benefit to video sampling applications. Finally, with the application of CS methods for denoising tasks in mind, we focus on the error estimation issue in image denoising problems for low-light microscopy applications.
|
6 |
Asservissement visuel direct utilisant les décompositions en shearlets et en ondelettes de l'image / Direct visual servoingusing shearlet and wavelet transforms of the imageDuflot, Lesley-Ann 13 July 2018 (has links)
L'asservissement visuel est un procédé consistant à utiliser l'information visuelle obtenue par un capteur afin de commander un système robotique. Ces informations, appelées primitives visuelles peuvent être d'ordre 2D ou 3D. Le travail présenté ici porte sur une nouvelle approche 2D utilisant des primitives directes : les décompositions de l'image en ondelettes ou en shearlets. Ces représentations présentent en effet l'avantage de décrire l'image sous différentes formes, mettant l'accent soit sur les basses fréquences de l'image, soit sur les hautes fréquences selon plusieurs directions. Les zones de l'image contenant beaucoup d'information, comme les contours ou les points singuliers, possèdent alors de forts coefficients dans la transformée en ondelettes ou en shearlets de l'image, tandis que les zones uniformes possèdent des coefficients proches de zéro. Les travaux de cette thèse montrent la précision et la robustesse de l'approche utilisant la décomposition en shearlets dans le cadre de l'imagerie échographique. Néanmoins, sa contribution majeure est l'élaboration d'une commande permettant d'utiliser au choix les ondelettes ou les shearlets ainsi que la validation de cette méthode sur caméra monoculaire et sur capteur de type tomographie par cohérence optique dans différentes conditions d'utilisation. Cette méthode présente des performances significatives en termes de précision et de robustesse et ouvre la porte vers une utilisation couplée de l'asservissement visuel et de l'acquisition comprimée. / A visual servoing scheme consists of a closed-loop control approach which uses visual information feedback to control the movement of a robotic system. This data, called visual features, can be 2D or 3D. This thesis deals with the development of a new generation of 2D direct visual servoing methods in which the signal control inputs are the coefficients of a multiscale image representation. Specially, we consider the use of multiscale image representations that are based on discrete wavelet and shearlet transformations. This kind of representations allows us to obtain several descriptions of the image based on either low or high frequencies levels. Indeed, high coefficients in the wavelet or in the shearlet transformation of the image correspond to image singularities. This thesis has begun with the development of a shearlet-based visual servoing for ultrasound imaging that has performed well in precision and robustness for this medical application. Nevertheless, the main contribution is a framework allowing us to use several multi-scale representations of the image. It was then tested with conventional white light camera and with an optical coherence tomography imaging system with nominal and unfavorable conditions. Then, the wavelet and the shearlet based methods showed their accuracy and their robustness in several conditions and led to the use of both visual servoing and compressed sensing as the main perspective of this work.
|
7 |
Apprentissage de modèles de mélange à large échelle par Sketching / Sketching for large-scale learning of mixture modelsKeriven, Nicolas 12 October 2017 (has links)
Les bases de données modernes sont de très grande taille, parfois divisées et distribuées sur plusieurs lieux de stockage, ou encore sous forme de flux de données : ceci soulève de nouveaux défis majeurs pour les méthodes d’apprentissage statistique. Une des méthodes récentes capable de s’adapter à ces situations consiste à d’abord compresser les données en une structure appelée sketch linéaire, puis ensuite de réaliser la tâche d’apprentissage en utilisant uniquement ce sketch, ce qui est extrêmement rapide si celui-ci est de petite taille. Dans cette thèse, nous définissons une telle méthode pour estimer un modèle de mélange de distributions de probabilités à partir des données, en utilisant uniquement un sketch de celles-ci. Ce sketch est défini en s’inspirant de plusieurs notions venant du domaine des méthodes à noyaux : le plongement par noyau moyen et les approximations aléatoires de noyaux. Défini comme tel, le sketch correspond à des mesures linéaires de la distribution de probabilité sous-jacente aux données. Ainsi nous analysons le problème en utilisant des outils venant du domaine de l’acquisition comprimée, dans lequel un signal est mesuré aléatoirement sans perte d’information, sous certaines conditions. Nous étendons certains résultats de l’acquisition comprimée à la dimension infinie, donnons des conditions génériques garantissant le succès de notre méthode d’estimation de modèles de mélanges, et les appliquons à plusieurs problèmes, dont notamment celui d’estimer des mélanges de distributions stables multivariées, pour lequel il n’existait à ce jour aucun estimateur. Notre analyse est basée sur la construction d’opérateurs de sketch construits aléatoirement, qui satisfont une Propriété d’Isométrie Restreinte dans l’espace de Banach des mesures finies signées avec forte probabilité. Dans une second partie, nous introduisons un algorithme glouton capable heuristiquement d’estimer un modèle de mélange depuis un sketch linéaire. Cet algorithme est appliqué sur données simulées et réelles à trois problèmes : l’estimation de centres significatifs dans les données, pour lequel on constate que la méthode de sketch est significativement plus rapide qu’un algorithme de k-moyennes classique, l’estimation de mélanges de Gaussiennes, pour lequel elle est plus rapide qu’un algorithme d’Espérance-Maximisation, et enfin l’estimation de mélange de distributions stables multivariées, pour lequel il n’existait à ce jour, à notre connaissance, aucun algorithme capable de réaliser une telle tâche. / Learning parameters from voluminous data can be prohibitive in terms of memory and computational requirements. Furthermore, new challenges arise from modern database architectures, such as the requirements for learning methods to be amenable to streaming, parallel and distributed computing. In this context, an increasingly popular approach is to first compress the database into a representation called a linear sketch, that satisfies all the mentioned requirements, then learn the desired information using only this sketch, which can be significantly faster than using the full data if the sketch is small. In this thesis, we introduce a generic methodology to fit a mixture of probability distributions on the data, using only a sketch of the database. The sketch is defined by combining two notions from the reproducing kernel literature, namely kernel mean embedding and Random Features expansions. It is seen to correspond to linear measurements of the underlying probability distribution of the data, and the estimation problem is thus analyzed under the lens of Compressive Sensing (CS), in which a (traditionally finite-dimensional) signal is randomly measured and recovered. We extend CS results to our infinite-dimensional framework, give generic conditions for successful estimation and apply them analysis to many problems, with a focus on mixture models estimation. We base our method on the construction of random sketching operators such that some Restricted Isometry Property (RIP) condition holds in the Banach space of finite signed measures with high probability. In a second part we introduce a flexible heuristic greedy algorithm to estimate mixture models from a sketch. We apply it on synthetic and real data on three problems: the estimation of centroids from a sketch, for which it is seen to be significantly faster than k-means, Gaussian Mixture Model estimation, for which it is more efficient than Expectation-Maximization, and the estimation of mixtures of multivariate stable distributions, for which, to our knowledge, it is the only algorithm capable of performing such a task.
|
8 |
Développement d'une technique de compression passive appliquée à l'imagerie microonde / Passive compression for a simplification of microwave imaging systemsFromenteze, Thomas 24 September 2015 (has links)
Ces travaux portent sur le développement d'une technique de compression appliquée à la simplification des systèmes d'imagerie dans le domaine microonde. Cette approche repose sur le développement de composants passifs capables de compresser les ondes émises et reçues, autorisant ainsi une réduction du nombre de modules actifs nécessaires au fonctionnement de certaines architectures de radars. Ce principe est basé sur l'exploitation de la diversité modale présente dans les composants développés, le rendant compatible avec l'utilisation de très larges bandes passantes. Plusieurs preuves de concept sont réalisées au moyen de différents composants étudiés dans cet ouvrage, permettant d'adapter cette technique à de nombreuses spécifications d'architectures et de bandes passantes. / This work is focused on the development of a compressive technique applied to the simplification of microwave imaging systems. This principle is based on the study of passive devices able to compress transmitted and received waves, allowing for the reduction of the hardware complexity required by radar systems. This approach exploits the modal diversity in the developed components, making it compatible with ultra wide bandwidth. Several proofs of concept are presented using different passive devices, allowing this technique to be adapted to a large variety of architectures and bandwidths.
|
9 |
Valorisation des fines de lavage de granulats : application à la construction en terre crue / Development of re-use ways for washing aggregates sludges : application to unfired earth constructionFlament, Cédric 12 December 2013 (has links)
Les fines de lavage de carrières sont à l’heure actuelle peu valorisées. Pourtant, leurs caractéristiques physiques font de ces fines une matière première intéressante pour le domaine de la construction. L’objectif de cette thèse est de développer la formulation de produits préfabriqués non porteurs à base de fines de lavage, en considérant ces fines comme de la terre crue. Deux catégories de produits préfabriqués sont visées : un produit dit « lourd » (brique de terre comprimée) et un produit « léger » (carreau). Pour la valorisation en BTC, une étude de compacité par essai Proctor a permis de cibler la teneur en eau de fabrication et la masse volumique sèche à obtenir. Les performances mécaniques des briques ont été améliorées par surcompactage, renforcement granulaire et traitement au liant hydraulique. L’étude de formulation du carreau a associé les fines de lavage et la chènevotte. La consistance des mélanges à l’état frais a été étudiée avec le consistomètre VEBE. Les performances mécaniques en flexion et en compression des mélanges fibrés ont été mesurées. De la chaux et un superplastifiant ont été ajoutés dans la formulation pour satisfaire aux conditions de tenue mécanique. Les deux voies de valorisation ont été validées par mesures des performances physico-mécaniques sur produits fabriqués à l’échelle industrielle. La formulation optimale de BTC valorise près de 80% de fines de lavage et se classe dans la catégorie BTC 40 de la norme expérimentale XP13-901 (brique faiblement capillaire et résistante à la projection en eau). La formulation optimale de carreau se compose de 60% de fines de lavage, et répond aux exigences mécaniques des carreaux de plâtre. / Currently, few re-use ways are developed with clay fines from washing units in quarries. However, these clayey fines represent interesting materials for construction domain. This research work aims to develop non-load bearing precast products and to re-use these fines without thermal treatment as for unfired clay products. Two types of precast products are wished: a “heavy” product (compressed earth brick) and a “light” product (tile hemp-clay).For the CEB re-use way, the level of compaction has to be high. Proctor tests have been done to define the moisture content and dry density to obtain. Mechanical performances of bricks have been increased by overcompaction, granular reinforcement and lime treatment.For the tile re-use way, mixes with quarry fines and hemp have been studied. The behaviour of fresh material has been studied with VEBE consistometer. Flexural and compression strengths have been measured on hardened mixes. Lime and water-reducing agent have been necessary for a good mechanical behaviour.The two re-use ways have been validated by measuring mechanical and physical performances of products manufactured at industrial scale. The optimal mix for CEB includes almost 80% of quarry fines. The CEB is classed in BTC40 category according to experimental standard XP13-901 (brick with a low water absorption level and resistant to water spray). The optimal mix for tile includes 60% of quarry fines and satisfies mechanical requirements for gypsum blocks.
|
10 |
Comportement hygro-thermo-mécanique de matériaux structuraux pour la construction associant des fibres de kénaf à des terres argileuses / Hygro-thermo-mechanical behavior of structural materials for the construction associating kenaff fibers with clayed landsLaibi, Babatounde 21 December 2017 (has links)
Les briques de terre compressée (BTC) à la façon traditionnelle au Bénin présentent de piètres propriétés mécaniques, ce qui explique que les populations recourent aux parpaings de ciment relativement trop couteux et dont l’emploi affecte fortement les ressources en eau et en énergie. Ce travail propose des pistes d’amélioration des BTC pour l’écoconstruction par l’ajout de fibres végétales à des sols usités localement pour la construction. Cette stratégie permet de valoriser les matières premières minérales et végétales dans un domaine d’activités qui concerne une grande partie de la population. Dans un premier temps, un sol a été choisi d’après sa composition chimique, ses propriétés physiques, mécaniques et technologiques. Le choix de la fibre de kénaf pour le renforcement de la matrice minérale se justifie par ses excellentes propriétés mécaniques spécifiques et sa disponibilité à très faible coût. Les effets des fibres sur le comportement du sol au jeune âge, puis sur les comportements mécanique et hygrothermique des matériaux consolidés sous 5 MPa (pression applicable avec les équipements facilement disponibles au Bénin), ont été étudiés pour trois taux massiques de fibres (0,5%; 1% et 1,5% relativement au sol) dans différentes longueurs (5, 10, 20 et 30 mm). Les résultats indiquent une nette amélioration du comportement mécanique des BTC renforcés par le kénaf en termes des résistances à la flexion et à la compression, et de la résistance à la rupture catastrophique (comportement pseudo ductile). Les résultats les plus élevés sont obtenus pour une teneur de 0,5% de fibres de longueur 30 mm. L’ajout de ciment seul au sol fibré (taux de 3, 5 et 7%) ou de ciment associé au laitier de haut fourneau (taux de 3-5% et 5-10%, respectivement) permet en sus d’améliorer de façon importante la résistance à la prise d’eau. Les meilleurs résultats sont obtenus avec 5% de ciment et 10% de laitier de haut fourneau. Les mesures réalisées en chambre biclimatique ont permis de caractériser les matériaux comme paroi séparatrice, en étudiant les transferts de chaleur et de vapeur d’eau. Les résultats mettent en évidence l’effet significatif de l’ajout d’un liant au BTC : L’ajout d’un liant diminue le déphasage et augmente l’atténuation du matériau. Les meilleurs résultats de comportement hygrothermique sont obtenus pour le sol fibré.Cette étude démontre qu’il est possible de produire au Bénin, à partir de matières premières locales et avec des équipements peu onéreux, des éco-matériaux aux propriétés mécaniques et hygrothermiques satisfaisantes pour la construction d’habitat de type R+1. / Traditional Compressed Earth Blocks (CEB) in the Republic of Benin have poor mechanical properties, this justifies why people rely on relatively expensive cement blocks; the use of which greatly affects resources such as water and energy. In this work we have proposed ways to enhance CEB properties for eco-construction by adding plant fibers to locally used construction's soils. This strategy makes it possible to value mineral and vegetable raw materials in a field of an activity that is common to a large part of the population. At first, a soil was chosen according to its chemical composition, its physical, mechanical and technological properties. The choice of kenaf fiber for the reinforcement of the mineral matrix isjustified by its excellent specific mechanical properties and its availability at very low cost. The effects of fibers on soil behavior at young age and on the mechanical and hygrothermal behavior of consolidated materials under 5 MPa (pressure applicable with equipment readily available in Benin) were studied for three mass content of fibers relatively to the soil (0.5% 1% and 1.5%) and different lengths (5, 10, 20 and 30 mm). The results indicated a remarkable improvement in the mechanical behavior of kenaf-reinforced CEBs in terms of flexural and compressive strengths and tolerance to damage. The highest results were obtained with 0.5% of fibers 30 mm long. The addition of a binder (3, 5 and 7% of cement) or (3-5% and 5-10% of cement and blast furnace slag mix) allowed an important reduction in water uptake. The best mechanical results were obtained for a biocomposite made up with BAK soil, 0.5% of flax fibers 30 mm long and a mix of 5% cement and 10% blast furnace slag. Measurements carried out in a biclimatic chamber made it possible to characterize the hydric and thermal behavior of the soil-based materials. The addition of a binder decreases the phase shift and increases the attenuation of the material. These different results show that it is possible to produce in Benin with the available equipment, CEB with mechanical and hygrothermal properties sufficient enought for the construction of type R + 1 habitat.
|
Page generated in 0.0377 seconds