• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 4
  • Tagged with
  • 12
  • 12
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Conception d'un sol instrumenté pour la détection de chutes de personnes à l'aide de capteurs capacitifs et de techniques de l'apprentissage statistique / Design of an instrumented floor for detecting falls of people by using capacitive sensors and machine learning techniques

Haffner, Julien 21 June 2016 (has links)
Chaque année, près de 9000 personnes âgées de plus de 65 ans décèdent des suites d'une chute en France. Les chutes constituent plus de 80% des accidents de la vie courante chez les plus de 65 ans. Ce chiffre devrait s’accroître considérablement du fait de l’évolution démographique, avec l’augmentation programmée de la population gériatrique. Les séquelles d'une chute sont d'autant plus graves que la personne reste longtemps au sol sans pouvoir se relever. Pour limiter les effets des chutes des personnes âgées, il est nécessaire de développer une offre de services et de technologies permettant aux personnes seules de rester en contact avec l'extérieur. Dans cette thèse, deux systèmes de détection de chutes de personne constitués de capteurs capacitifs intégrés dans le sol sont présentés. Les capteurs sont totalement invisibles par les occupants de la pièce, de manière à déranger le moins possible la tranquillité de l'utilisateur. Dans le premier système, les capteurs sont disposés parallèlement entre eux selon une dimension de la salle. Un capteur est constitué de plusieurs électrodes, dont l'écartement relatif a été déterminé pour favoriser la reconnaissance d'une personne allongée sur le sol. Le deuxième système est constitué de deux couches de capteurs perpendiculaires entre elles. Plusieurs pièces ont été instrumentées avec les capteurs capacitifs. Un changement d'environnement a une influence sur le signal capacitif mesuré, en raison de la configuration du sol propre à chaque installation. Des méthodes de pré-traitement des mesures sont proposées pour conférer aux classifieurs sélectionnés une capacité de performance équivalente sur tous les environnements. / Almost 9000 people aged over 65 die each year in France, as consequences of a fall. Falls represent over 80% of all domestic accidents in this part of the population. This number should substantially increase, as the average age of the population is expected to constantly grow up in the next decades. The longest the fallen person stay on the floor without being rescued, the worst are the consequences of the fall. In order to decrease negative effects of falls in older people, it is decisive to develop a technological way to keep isolated people in contact with outside world. In this thesis two fall detection systems are presented, made up with capacitive sensors integrated into the floor. Sensors are totally hidden to the view of people living in the room, in a way that their privacy is most respected. In the first system, parallel sensors are laid out in one direction of the room. One sensor is composed of four electrodes, whose relative spaces have been chosen to favor the detection of a person laying down on the floor. The second system consists of two perpendicular layers of capacitive sensors. Several rooms have been equipped with such sensors. Installing sensors in a new environment has an influence on the measured capacitive signal, due to the own floor configuration in each room. Methods of data preprocessing are proposed, in order to give equivalent detection performances in each environment.
2

Problèmes inverses contraints en EEG : applications aux potentiels absolus et à l'influence du signal de référence dans l'analyse de l'EEG

Salido-Ruiz, Ricardo-Antonio 22 June 2012 (has links) (PDF)
Cette thèse s'inscrit dans le cadre du prétraitement des signaux EEG et s'intéresse plus particulièrement aux perturbations dues à la référence de mesure non nulle. Les perturbations induites par une fluctuation électrique de la référence peuvent engendrer des erreurs d'analyse comme on peut aisément le constater sur les mesures de synchronisation inter-signaux (par exemple la cohérence). Donc, la référence idéale serait une référence nulle. Au cours des travaux développés, nous nous sommes concentrés sur l'estimation des potentiels électriques dit absolus (référence nulle) à partir d'une reformulation du problème inverse. Deux cas sont traités, soit la référence est suffisamment éloignée des sources électrophysiologiques cérébrales et de fait elle peut être considérée comme indépendante, sinon, elle est modélisée comme une combinaison linéaire des autres sources. Grâce à cette modélisation, il a été montré explicitement que les meilleures estimations des potentiels absolus sans aucune information a priori sont les potentiels calculés par rapport à une référencemoyenne. D'autre part, le problème inverse de la référence source-indépendante est résolu dans un contexte de type séparation de sources. Il a été démontré que la meilleure estimation des potentiels absolus sans aucune information a priori est équivalente à l'estimateur MPDR/MVDR (Minimum Power Distortionless Response/Minimum Variance Distortionless Response). Concernant le prétraitement de données EEG, on montre sur signaux simulés et réels que les potentiels mesurés transformés en référence moyenne améliorent certaines méthodes d'analyse utilisées en EEG telles que la séparation aveugle des sources (BSS) et la localisation de sources cérébrales. Au delà des problèmes de référence, la méthode peut être appliquée sous contraintes pour estimer de façon plus robuste des sources singulières telles que les artefacts ou une stimulation électrique exogène déterministe.
3

Problèmes inverses contraints en EEG : applications aux potentiels absolus et à l'influence du signal de référence dans l'analyse de l'EEG / Constrained inverse problems in EEG : application to absolute potentials and to the reference signal influence in EEG analysis

Salido-Ruiz, Ricardo Antonio 22 June 2012 (has links)
Cette thèse s'inscrit dans le cadre du prétraitement des signaux EEG et s'intéresse plus particulièrement aux perturbations dues à la référence de mesure non nulle. Les perturbations induites par une fluctuation électrique de la référence peuvent engendrer des erreurs d'analyse comme on peut aisément le constater sur les mesures de synchronisation inter-signaux (par exemple la cohérence). Donc, la référence idéale serait une référence nulle. Au cours des travaux développés, nous nous sommes concentrés sur l'estimation des potentiels électriques dit absolus (référence nulle) à partir d'une reformulation du problème inverse. Deux cas sont traités, soit la référence est suffisamment éloignée des sources électrophysiologiques cérébrales et de fait elle peut être considérée comme indépendante, sinon, elle est modélisée comme une combinaison linéaire des autres sources. Grâce à cette modélisation, il a été montré explicitement que les meilleures estimations des potentiels absolus sans aucune information a priori sont les potentiels calculés par rapport à une référence moyenne. D'autre part, le problème inverse de la référence source-indépendante est résolu dans un contexte de type séparation de sources. Il a été démontré que la meilleure estimation des potentiels absolus sans aucune information a priori est équivalente à l'estimateur MPDR/MVDR (Minimum Power Distortionless Response/Minimum Variance Distortionless Response). Concernant le prétraitement de données EEG, on montre sur signaux simulés et réels que les potentiels mesurés transformés en référence moyenne améliorent certaines méthodes d'analyse utilisées en EEG telles que la séparation aveugle des sources (BSS) et la localisation de sources cérébrales. Au delà des problèmes de référence, la méthode peut être appliquée sous contraintes pour estimer de façon plus robuste des sources singulières telles que les artefacts ou une stimulation électrique exogène déterministe / This thesis concerns the issue of scalp EEG signals pre-processing and it is focused on signal's disturbances caused by non zero reference measurements. These signals perturbations induced by an electrical fluctuation of reference signal can lead to misinterpretation errors in certains analysis. This can be easily seen in inter-signal synchronization measurements such as in coherence studies. Thus, the ideal reference is a null reference. During this research work, we focused on the absolute (zero-reference) potentials estimation from a inverse problem reformulation. Here, two cases are treated, one deals with the case of a reference signal that is sufficiently distant from electrophysiological brain sources so, it is considered as independent signal ; otherwise, it is modeled as a linear combination of sources. Thanks to this modeling, it was shown explicitly that the best estimates of absolute potentials without any a priori information are the average reference potentials. On the other hand, the source-independent reference inverse problem is resolved in a source separation context. For this case, it has been shown that the best estimate of the absolute potentials without any a priori information is equivalent to Minimum Power Distortionless Response/Minimum Variance Distortionless Response (MVDR/MPDR) estimators. On the pretreatment of EEG data, we show on simulated and real signals that measured potentials transformed into average reference improve certain analytical methods used in EEG such as blind source separation (BSS) and localization of brain sources. Beyond the problems of reference, this method can be applied as a constrained source estimation algorithm in order to estimate in a more robust way, particular sources such as artifacts or deterministic exogenous electrical stimulation
4

Contribution à la détection et à l'analyse des signaux EEG épileptiques : débruitage et séparation de sources / Contribution to the detection and analysis of epileptic EEG signals : denoising and source separation

Romo Vazquez, Rebeca del Carmen 24 February 2010 (has links)
L'objectif principal de cette thèse est le pré-traitement des signaux d'électroencéphalographie (EEG). En particulier, elle vise à développer une méthodologie pour obtenir un EEG dit "propre" à travers l'identification et l'élimination des artéfacts extra-cérébraux (mouvements oculaires, clignements, activité cardiaque et musculaire) et du bruit. Après identification, les artéfacts et le bruit doivent être éliminés avec une perte minimale d'information, car dans le cas d'EEG, il est de grande importance de ne pas perdre d'information potentiellement utile à l'analyse (visuelle ou automatique) et donc au diagnostic médical. Plusieurs étapes sont nécessaires pour atteindre cet objectif : séparation et identification des sources d'artéfacts, élimination du bruit de mesure et reconstruction de l'EEG "propre". A travers une approche de type séparation aveugle de sources (SAS), la première partie vise donc à séparer les signaux EEG dans des sources informatives cérébrales et des sources d'artéfacts extra-cérébraux à éliminer. Une deuxième partie vise à classifier et éliminer les sources d'artéfacts et elle consiste en une étape de classification supervisée. Le bruit de mesure, quant à lui, il est éliminé par une approche de type débruitage par ondelettes. La mise en place d'une méthodologie intégrant d'une manière optimale ces trois techniques (séparation de sources, classification supervisée et débruitage par ondelettes) constitue l'apport principal de cette thèse. La méthodologie développée, ainsi que les résultats obtenus sur une base de signaux d'EEG réels (critiques et inter-critiques) importante, sont soumis à une expertise médicale approfondie, qui valide l'approche proposée / The goal of this research is the electroencephalographic (EEG) signals preprocessing. More precisely, we aim to develop a methodology to obtain a "clean" EEG through the extra- cerebral artefacts (ocular movements, eye blinks, high frequency and cardiac activity) and noise identification and elimination. After identification, the artefacts and noise must be eliminated with a minimal loss of cerebral activity information, as this information is potentially useful to the analysis (visual or automatic) and therefore to the medial diagnosis. To accomplish this objective, several pre-processing steps are needed: separation and identification of the artefact sources, noise elimination and "clean" EEG reconstruction. Through a blind source separation (BSS) approach, the first step aims to separate the EEG signals into informative and artefact sources. Once the sources are separated, the second step is to classify and to eliminate the identified artefacts sources. This step implies a supervised classification. The EEG is reconstructed only from informative sources. The noise is finally eliminated using a wavelet denoising approach. A methodology ensuring an optimal interaction of these three techniques (BSS, classification and wavelet denoising) is the main contribution of this thesis. The methodology developed here, as well the obtained results from an important real EEG data base (ictal and inter-ictal) is subjected to a detailed analysis by medical expertise, which validates the proposed approach
5

Nouvelles propositions pour la résolution exacte du sac à dos multi-objectif unidimensionnel en variables binaires

Jorge, Julien 11 May 2010 (has links) (PDF)
Ce travail porte sur la résolution exacte d'un problème d'optimisation combinatoire multi-objectif. Nous cherchons d'une part à confirmer l'efficacité de l'algorithme dit en deux phases, et d'autre part à poser une généralisation des procédures de séparation et évaluation, populaires dans le cadre mono-objectif mais presque absentes en multi-objectif. Notre étude s'appuie sur le problème multi-objectif de sac à dos unidimensionnel en variables binaires. Ce dernier est un classique de l'optimisation combinatoire, présent comme sous problème dans de nombreux problèmes d'optimisation. La première partie de nos travaux porte sur un pré-traitement permettant de réduire la taille d'instances de ce problème. Nous mettons en évidence plusieurs propriétés permettant de déterminer a priori une partie de la structure de toutes les solutions efficaces. Nous nous attachons ensuite à décrire une procédure performante de type deux phases pour ce problème, tout d'abord dans le cas bi-objectif. Nous étendons ensuite cette procédure pour des instances ayant trois objectifs ou plus. Les résultats obtenus sont comparés aux meilleurs algorithmes existants pour ce problème et confirment l'efficacité de l'approche en deux phases. La dernière partie de notre travail concerne la généralisation au cas multi-objectif d'une procédure de séparation et évaluation. Nous identifions plusieurs difficultés auxquelles nous répondons en proposant deux nouvelles procédures. Les expérimentations numériques indiquent que ces dernières permettent de résoudre des instances en des temps raisonnables, bien qu'elles n'atteignent pas les performances d'une procédure de type deux phases.
6

Contribution à la détection et à l'analyse des signaux EEG épileptiques : débruitage et séparation de sources

Romo-Vázquez, Rebeca 24 February 2010 (has links) (PDF)
L'objectif principal de cette thèse est le pré-traitement des signaux d'électroencéphalographie (EEG). En particulier, elle vise à développer une méthodologie pour obtenir un EEG dit "propre" à travers l'identification et l'élimination des artéfacts extra-cérébraux (mouvements oculaires, clignements, activité cardiaque et musculaire) et du bruit. Après identification, les artéfacts et le bruit doivent être éliminés avec une perte minimale d'information, car dans le cas d'EEG, il est de grande importance de ne pas perdre d'information potentiellement utile à l'analyse (visuelle ou automatique) et donc au diagnostic médical. Plusieurs étapes sont nécessaires pour atteindre cet objectif : séparation et identification des sources d'artéfacts, élimination du bruit de mesure et reconstruction de l'EEG "propre". A travers une approche de type séparation aveugle de sources (SAS), la première partie vise donc à séparer les signaux EEG dans des sources informatives cérébrales et des sources d'artéfacts extra-cérébraux à éliminer. Une deuxième partie vise à classifier et éliminer les sources d'artéfacts et elle consiste en une étape de classification supervisée. Le bruit de mesure, quant à lui, il est éliminé par une approche de type débruitage par ondelettes. La mise en place d'une méthodologie intégrant d'une manière optimale ces trois techniques (séparation de sources, classification supervisée et débruitage par ondelettes) constitue l'apport principal de cette thèse. La méthodologie développée, ainsi que les résultats obtenus sur une base de signaux d'EEG réels (critiques et inter-critiques) importante, sont soumis à une expertise médicale approfondie, qui valide l'approche proposée.
7

Amélioration des rendements de traitement des déchets par digestion anaérobie : rôle d'un pré-traitement thermique et d'un traitement en bioréacteur en deux étapes / Enhanced anaerobic digestion of organic solid waste through thermal pretreatment and biofilm based two-stage reactors

Yeshanew, Martha Minale 15 December 2016 (has links)
La digestion anaérobie est utilisée depuis près d’un siècle comme un traitement efficace des déchets organiques. L’intérêt de ce traitement en anaérobie est en essor, car il présente des avantages significatifs sur les traitements alternatifs biologiques et d’autres options d’élimination des déchets. Cette étude se focalise sur l’optimisation du processus de digestion anaérobie en utilisant deux stratégies différentes. La première vise à augmenter la biodégradabilité du substrat par un prétraitement thermique. La seconde technique repose sur l’utilisation d’un système de biofilms pour augmenter le taux de production de biogaz et minimiser la taille du réacteur.Les déchets alimentaires sont principalement utilisés comme substrat modèle de par leur composition, leur abondance et leur renouvellement. Dans ces travaux de thèse, l’influence de la température des prétraitements thermiques sur la solubilisation de la matière organique, ainsi que la production de méthane des déchets alimentaires sous différentes conditions ont été étudié. Une amélioration significative de la solubilisation et de la biodégradabilité des déchets alimentaires ont été observés pour tous les prétraitements thermiques sur les déchets alimentaires comparativement aux déchets non traités. La plus importante amélioration (28%) de la biodégradabilité a été observée pour les déchets alimentaires traités à la plus basse température de prétraitements (80°C). Les résultats montrent une corrélation forte entre le type de substrats (carbohydrate, protéines et teneur en lipides), la température de prétraitement thermique et son efficacité dans l’amélioration de la biodégradabilité.Dans une seconde partie, une opération prolongée d’un système intégré à deux étages, incluant une cuve agitée en continu et un réacteur à biofilm anaérobie a été réalisé pour produire du biohytane (biohydrogène et méthane) à partir de déchets alimentaires. Le réacteur à biofilm anaérobie a été utilisé pour remédier au lessivage de la biomasse du réacteur. La formation d’une biomasse mature et équilibrée a amélioré de façon importante la stabilité du processus, ce dernier n’ayant pas été affecté par un raccourcissement du temps de rétention hydraulique (HRT) de 6 à 3,7 jours dans le premier réacteur, et de 20 à 1,5 jours dans le second réacteur. De plus, le système à deux étages, constitué d’un pilote à l’échelle d’un batch pour la fermentation sombre et d’un réacteur à biofilm anaérobie, coproduisant de l’hydrogène et du méthane à partir de la fraction organique des déchets solide ménagers (OFMSW), a été utilisé afin de déterminer la capacité d’un réacteur à biofilm anaérobie à supporter un choc de charge organique. Les résultats montrent une récupération plus rapide du réacteur à biofilm anaérobie après un évènement de charge organique / Anaerobic digestion (AD) has been used over a century for an effective treatment of organic wastes. Interest in anaerobic treatment is continually increasing since it presents significant advantages when compared to alternative biological treatments and waste disposal options. This research study was mainly focused on optimization of the AD process, that was achieved through two different strategies. The first aimed at increasing the substrate biodegradability by a means of thermal pretreatment. The second was focused on the application of a biofilm based system to improve the biogas production rates and minimize the reactor size.Food waste (FW) was mainly used as a model substrate due to its suitable composition, abundance and renewability. In this thesis the influence of thermal pretreatment temperature on organic matter solubilization and methane yield of FW under different operational conditions was investigated. Significant improvement of the FW solubilization and biodegradability were observed for all thermally pretreated FW compared to the untreated FW. The highest biodegradability enhancement, i.e. + 28 %, was observed for FW treated at the lowest thermal pretreatment temperature, i.e. 80 ⁰C. The results showed a strong correlation between the substrate type (e.g. carbohydrate, protein and lipid content), the thermal pretreatment temperature and its effectiveness in promoting the biodegradability.In the second part of the work, a prolonged operation of an integrated two-stage system, including a continuously stirred tank and an anaerobic biofilm reactor, was carried out to produce biohythane (biohydrogen and methane) from the FW. The anaerobic biofilm reactor was employed to overcome the biomass wash-out from the reactor. The formation of a well-matured and balanced AD biomass greatly improved the process stability, which was not affected by shortening the hydraulic retention time (HRT) from 6 to 3.7 days in the first reactor and from 20 to 1.5 days in the second reactor. Moreover a two-stage system, comprised of a pilot scale batch dark fermenter and an anaerobic biofilm reactor co-producing hydrogen and methane from the organic fraction of municipal solid waste (OFMSW), was used to assess the capability of the anaerobic biofilm reactor to face an organic shock loads. The results showed a faster recovery of anaerobic biofilm reactor performance after the shock load events
8

Preprocessing and analysis of environmental data : Application to the water quality assessment of Mexican rivers / Pré-traitement et analyse des données environnementales : application à l'évaluation de la qualité de l'eau des rivières mexicaines

Serrano Balderas, Eva Carmina 31 January 2017 (has links)
Les données acquises lors des surveillances environnementales peuvent être sujettes à différents types d'anomalies (i.e., données incomplètes, inconsistantes, inexactes ou aberrantes). Ces anomalies qui entachent la qualité des données environnementales peuvent avoir de graves conséquences lors de l'interprétation des résultats et l’évaluation des écosystèmes. Le choix des méthodes de prétraitement des données est alors crucial pour la validité des résultats d'analyses statistiques et il est assez mal défini. Pour étudier cette question, la thèse s'est concentrée sur l’acquisition des données et sur les protocoles de prétraitement des données afin de garantir la validité des résultats d'analyse des données, notamment dans le but de recommander la séquence de tâches de prétraitement la plus adaptée. Nous proposons de maîtriser l'intégralité du processus de production des données, de leur collecte sur le terrain et à leur analyse, et dans le cas de l'évaluation de la qualité de l'eau, il s’agit des étapes d'analyse chimique et hydrobiologique des échantillons produisant ainsi les données qui ont été par la suite analysées par un ensemble de méthodes statistiques et de fouille de données. En particulier, les contributions multidisciplinaires de la thèse sont : (1) en chimie de l'eau: une procédure méthodologique permettant de déterminer les quantités de pesticides organochlorés dans des échantillons d'eau collectés sur le terrain en utilisant les techniques SPE–GC-ECD (Solid Phase Extraction - Gas Chromatography - Electron Capture Detector) ; (2) en hydrobiologie : une procédure méthodologique pour évaluer la qualité de l’eau dans quatre rivières Mexicaines en utilisant des indicateurs biologiques basés sur des macroinvertébrés ; (3) en science des données : une méthode pour évaluer et guider le choix des procédures de prétraitement des données produites lors des deux précédentes étapes ainsi que leur analyse ; et enfin, (4) le développement d’un environnement analytique intégré sous la forme d’une application développée en R pour l’analyse statistique des données environnementales en général et l’analyse de la qualité de l’eau en particulier. Enfin, nous avons appliqué nos propositions sur le cas spécifique de l’évaluation de la qualité de l’eau des rivières Mexicaines Tula, Tamazula, Humaya et Culiacan dans le cadre de cette thèse qui a été menée en partie au Mexique et en France. / Data obtained from environmental surveys may be prone to have different anomalies (i.e., incomplete, inconsistent, inaccurate or outlying data). These anomalies affect the quality of environmental data and can have considerable consequences when assessing environmental ecosystems. Selection of data preprocessing procedures is crucial to validate the results of statistical analysis however, such selection is badly defined. To address this question, the thesis focused on data acquisition and data preprocessing protocols in order to ensure the validity of the results of data analysis mainly, to recommend the most suitable sequence of preprocessing tasks. We propose to control every step in the data production process, from their collection on the field to their analysis. In the case of water quality assessment, it comes to the steps of chemical and hydrobiological analysis of samples producing data that were subsequently analyzed by a set of statistical and data mining methods. The multidisciplinary contributions of the thesis are: (1) in environmental chemistry: a methodological procedure to determine the content of organochlorine pesticides in water samples using the SPE-GC-ECD (Solid Phase Extraction – Gas Chromatography – Electron Capture Detector) techniques; (2) in hydrobiology: a methodological procedure to assess the quality of water on four Mexican rivers using macroinvertebrates-based biological indices; (3) in data sciences: a method to assess and guide on the selection of preprocessing procedures for data produced from the two previous steps as well as their analysis; and (4) the development of a fully integrated analytics environment in R for statistical analysis of environmental data in general, and for water quality data analytics, in particular. Finally, within the context of this thesis that was developed between Mexico and France, we have applied our methodological approaches on the specific case of water quality assessment of the Mexican rivers Tula, Tamazula, Humaya and Culiacan.
9

De l'analyse de données d'expression à la reconstruction de réseau de gènes

Agier, Marie 07 December 2006 (has links) (PDF)
Le premier aspect de ce travail concerne le pré-traitement et l'analyse de données d'expression dans le cadre de deux principaux projets dont l'objectif global est d'améliorer le diagnostic et le pronostic du cancer du sein et de mieux cibler les traitements. Un processus de pré-traitement des données d'expression optimisé a été mis en place et plusieurs analyses ont été réalisées et ont permis d'identifier des gènes permettant de mettre en evidence un profil d'expression caractéristique du statut ganglionnaire des patientes et de la réponse thérapeutique à un traitement chimiothérapeutique particulier, le doxétaxel. Une nouvelle technique de reconstruction de réseaux de gènes basée sur la notion de règles entre gènes a ensuite été proposée, l'idée étant d'offrir aux biologistes la possibilité de choisir parmi plusieurs sémantiques, le sens des règles qu'ils souhaitent générer. L'originalité de ce travail est de proposer un cadre global pouvant inclure un grand nombre de sémantiques pour les règles et d'utiliser des méthodes identiques de génération, de post-traitement et de visualisation pour toutes les sémantiques proposées. La notion de sémantiques bien-formées i.e. pour lesquelles les axiomes d'Armstrong sont justes et complets, est introduite. Un résultat est également donné permettant de savoir simplement si une sémantique est ou non bien-formée. Une visualisation des règles sous forme globaux i.e. incluant plusieurs sémantiques est proposée. Finalement, cette approche a été développée sous forme d'un module appelé RG intégré à un logiciel d'analyse de données d'expression de gènes, le logiciel MeV de TIGR. Ce travail s'inscrit dans le contexte émergent de la fouille de données d'expression de gènes. Elle s'est déroulée, dans le cadre d'un contrat CIFRE au sein de trois structures : la société Diagnogène, le LIMOS et le Centre de Lutte contre le Cancer de la Région Auvergne
10

Contribution au développement de composites 100% bio-sourcés : synthèse de polyépoxydes bio-sourcés, traitement de fibres de chanvre au CO2 supercritique et incidence sur les propriétés des matériaux / Contribution to the development of 100% bio-based composites : synthesis of bio-based polyepoxides, supercritical CO2 treatment of hemp fibers and impact on the materials properties.

Francois, Camille 13 September 2018 (has links)
Ces travaux de thèse constituent une contribution au développement de composites chanvre/époxy 100% bio-sourcés. Les enjeux environnementaux actuels favorisent l'émergence de matériaux issus de ressources renouvelables telles que les fibres végétales mais conduisant aussi à une large gamme de synthons bio-sourcés, notamment à l'origine de prépolymères époxydiques. Une étude approfondie des deux constituants (fibres de chanvre et matrices polyépoxydiques) est réalisée avant l'étape d'élaboration des composites. Un traitement au CO2 supercritique est appliqué sur les fibres de chanvre utilisées comme renfort dans les matériaux composites. Le résultat de ce traitement mène à une meilleure individualisation ainsi qu'à une baisse du pouvoir hygroscopique des fibres. Ces aspects, décisifs pour garantir de bonnes propriétés pour le composite final, sont néanmoins nuancés par une baisse des propriétés ultimes en traction à l'échelle des fibres mais également à l'échelle du composite. De la même façon, la diminution du pouvoir hygroscopique des fibres après traitement se répercute à l'échelle du composite, permettant ainsi d'améliorer la durabilité du composite. La synthèse des résines époxydiques utilisées dans cette étude est réalisée à partir de ressources renouvelables et abondantes telles que la lignine. Les polyépoxydes thermodurcissables ainsi préparés présentent de bonnes performances, compatibles avec le cahier des charges pour des applications composites à renfort végétal. Au regard des résultats obtenus, les composites 100% bio-sourcés sont des matériaux d'avenir. Leur développement nécessite néanmoins une étude approfondie de leur durabilité. / This thesis contributes to the development of 100% bio-based hemp/epoxy composites. Current environmental issues favor the emergence of materials derived from renewable resources such as plant fibres and a wide range of bio-based building-blocks, source of epoxy prepolymers in particular. An intensive investigation of the two constituents (hemp fibres and polyepoxidic matrix) is carried out before the composites manufacturing. Supercritical CO2 treatment is applied to hemp fibres used as reinforcement in composite materials. This treatment, not optimized, leads to better individualization as well as a decrease in the hygroscopic power of the fibres. These aspects, which are essential in order to guarantee good properties for the final composite, are nevertheless qualified by a loss of mechanical properties at the fibre scale but also at the composite scale. In the same way, the decrease in the hygroscopic power of the hemp fibres after treatment is reflected at the composite scale, thus improving the durability of the crosslinked material. The synthesis of the epoxy resins used in this study is made from abundant resources such as lignin. The thermosetting polyepoxides prepared in this study have good performance, compatible with the specification for composite applications with plant fibres reinforcement. In view of the results obtained, 100% bio-based composites are materials with a high future potential. Nevertheless, their development requires a comprehensive sustainability study.

Page generated in 0.3669 seconds