• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 2
  • 1
  • Tagged with
  • 9
  • 9
  • 9
  • 9
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Apport de la chimiométrie et des plans d’expériences pour l’évaluation de la qualité de l’huile d’olive au cours de différents processus de vieillissement / Contribution of chemometrics and experimental designs for evaluating the quality of olive oil during different aging process

Plard, Jérôme 17 January 2014 (has links)
L'huile d'olive est un élément important de l'alimentation méditerranéenne. Cependant lorsqu'une huile vieillit, elle se dégrade et perd ses propriétés. Il est donc important de connaitre l'évolution de la composition de l'huile en fonction de ses conditions de stockage et de fabrication. Ce suivi a été effectué sur deux huiles de fabrication différente, une huile fruité vert et une huile fruité noir, obtenue à partir d'olive à maturité que l'on a laissé fermenter quelques jours. De manière à obtenir rapidement des vieillissements poussés, ces deux huiles ont été vieillies artificiellement, par procédé thermique , et par procédé photochimique. Ces vieillissements ont été réalisés sur des volumes différents de manière à déterminer l'impact du rapport surface/masse. En parallèle, des échantillons de chacune des deux huiles ont été conservés durant 24 mois dans des conditions de stockage différentes déterminées à l'aide d'un plan d'expériences. Les paramètres influençant le plus la conservation de l'huile d'olive sont l'apport en oxygène, la luminosité et la température. Ces influences ont été déterminées à partir du suivi des principaux paramètres de qualité La réponse des plans a permis de mettre en évidence des interactions entre ces différents paramètres. L'analyse de la composition de l'huile ainsi que de tous les critères de qualité demande beaucoup de temps et consomme une grande quantité de solvant. Afin de pallier à ces désagréments, les résultats ont également été utilisés pour construire des modèles chimiométriques permettant de déterminer ces grandeurs à partir des spectres proche et moyen infrarouge des échantillons. / Olive oil is an important component of the Mediterranean diet. When oil ages, it deteriorates and loses its properties. It is therefore important to know the evolution of the oil composition according to the conditions of storage and manufacturing. This monitoring was carried out on two different oils manufacturing, green fruity oil obtained from olives harvested before maturity, and black fruit oil obtained from olives harvest at maturity and fermented for few days under controlled conditions. To obtain quickly pushed aging, these two oils were artificially aged by heat process (heated to 180 °C under supply of O2), and photochemical process (under an UV lamp and under supply of O2). These aging were performed on different volumes to determine the impact of surface/weight ratio. In parallel, samples of both oils were stored for 24 months under different storage conditions determined using an experimental design. The parameters affecting the most the conservation of olive oil are oxygen, light and temperature. These influences were determined from the monitoring of key quality criteria. Response of experimental design helped to highlight the interactions between these different parameters. The analysis of the oil composition as well as all the quality criteria requires a large amount of solvents and a lot of time consumer. To overcome these inconveniences, chemometric models has been built to determine these criteria from the near and mid-infrared spectra of samples. Natural aging is very little advanced in comparison to accelerated aging, so predictive models were established from the results of natural aging and accelerated separately.
2

Développement de méthodes d'analyse de données en ligne / Development of methods to analyze data steams

Bar, Romain 29 November 2013 (has links)
On suppose que des vecteurs de données de grande dimension arrivant en ligne sont des observations indépendantes d'un vecteur aléatoire. Dans le second chapitre, ce dernier, noté Z, est partitionné en deux vecteurs R et S et les observations sont supposées identiquement distribuées. On définit alors une méthode récursive d'estimation séquentielle des r premiers facteurs de l'ACP projetée de R par rapport à S. On étudie ensuite le cas particulier de l'analyse canonique, puis de l'analyse factorielle discriminante et enfin de l'analyse factorielle des correspondances. Dans chacun de ces cas, on définit plusieurs processus spécifiques à l'analyse envisagée. Dans le troisième chapitre, on suppose que l'espérance En du vecteur aléatoire Zn dont sont issues les observations varie dans le temps. On note Rn = Zn - En et on suppose que les vecteurs Rn forment un échantillon indépendant et identiquement distribué d'un vecteur aléatoire R. On définit plusieurs processus d'approximation stochastique pour estimer des vecteurs directeurs des axes principaux d'une analyse en composantes principales (ACP) partielle de R. On applique ensuite ce résultat au cas particulier de l'analyse canonique généralisée (ACG) partielle après avoir défini un processus d'approximation stochastique de type Robbins-Monro de l'inverse d'une matrice de covariance. Dans le quatrième chapitre, on considère le cas où à la fois l'espérance et la matrice de covariance de Zn varient dans le temps. On donne finalement des résultats de simulation dans le chapitre 5 / High dimensional data are supposed to be independent on-line observations of a random vector. In the second chapter, the latter is denoted by Z and sliced into two random vectors R et S and data are supposed to be identically distributed. A recursive method of sequential estimation of the factors of the projected PCA of R with respect to S is defined. Next, some particular cases are investigated : canonical correlation analysis, canonical discriminant analysis and canonical correspondence analysis ; in each case, several specific methods for the estimation of the factors are proposed. In the third chapter, data are observations of the random vector Zn whose expectation En varies with time. Let Rn = Zn - En be and suppose that the vectors Rn form an independent and identically distributed sample of a random vector R. Stochastic approximation processes are used to estimate on-line direction vectors of the principal axes of a partial principal components analysis (PCA) of ~Z. This is applied next to the particular case of a partial generalized canonical correlation analysis (gCCA) after defining a stochastic approximation process of the Robbins-Monro type to estimate recursively the inverse of a covariance matrix. In the fourth chapter, the case when both expectation and covariance matrix of Zn vary with time n is considered. Finally, simulation results are given in chapter 5
3

Détection de métaux lourds dans les sols par spectroscopie d'émission sur plasma induit par laser (LIBS)

Sirven, Jean-Baptiste 18 September 2006 (has links) (PDF)
Dans les domaines de l'analyse, du contrôle et de la mesure physique, le laser constitue un outil métrologique particulièrement puissant et polyvalent, capable d'apporter des réponses concrètes à des problématiques variées, y compris d'ordre sociétal. Parmi ces dernières, la contamination des sites et des sols par les métaux lourds est un enjeu de santé publique important qui requiert de disposer de moyens de mesure adaptés aux réglementations existantes et suffisamment souples d'utilisation. Technique rapide et ne nécessitant pas de préparation de l'échantillon, la spectroscopie sur plasma induit par laser (LIBS) présente des avantages très intéressants pour réaliser des mesures sur site de la teneur en métaux lourds à l'échelle de la dizaine de ppm; la conception d'un appareil portable à moyen terme est envisageable.<br />Dans cette thèse nous montrons d'abord que le régime femtoseconde ne présente pas d'avantages par rapport au régime nanoseconde standard pour notre problématique. Ensuite nous mettons en œuvre un traitement avancé des spectres LIBS par des méthodes chimiométriques dont les performances améliorent sensiblement les résultats des analyses qualitatives et quantitatives d'échantillons de sols.
4

Développement de méthodes d'analyse de données en ligne

Bar, Romain 29 November 2013 (has links) (PDF)
On suppose que des vecteurs de données de grande dimension arrivant en ligne sont des observations indépendantes d'un vecteur aléatoire. Dans le second chapitre, ce dernier, noté Z, est partitionné en deux vecteurs R et S et les observations sont supposées identiquement distribuées. On définit alors une méthode récursive d'estimation séquentielle des r premiers facteurs de l'ACP projetée de R par rapport à S. On étudie ensuite le cas particulier de l'analyse canonique, puis de l'analyse factorielle discriminante et enfin de l'analyse factorielle des correspondances. Dans chacun de ces cas, on définit plusieurs processus spécifiques à l'analyse envisagée. Dans le troisième chapitre, on suppose que l'espérance θn du vecteur aléatoire Zn dont sont issues les observations varie dans le temps. On note Zn_tilde = Zn − θn et on suppose que les vecteurs Zn_tilde forment un échantillon indépendant et identiquement distribué d'un vecteur aléatoire Z_tilde. On définit plusieurs processus d'approximation stochastique pour estimer des vecteurs directeurs des axes principaux d'une analyse en composantes principales (ACP) partielle de Z_tilde. On applique ensuite ce résultat au cas particulier de l'analyse canonique généralisée (ACG) partielle après avoir défini un processus d'approximation stochastique de type Robbins-Monro de l'inverse d'une matrice de covariance. Dans le quatrième chapitre, on considère le cas où à la fois l'espérance et la matrice de covariance de Zn varient dans le temps. On donne finalement des résultats de simulation dans le chapitre 5.
5

Chimiométrie appliquée à la spectroscopie de plasma induit par laser (LIBS) et à la spectroscopie terahertz / Chemometric applied to laser-induced breakdown spectroscopy (LIBS) and terahertz spectroscopy

El Haddad, Josette 13 December 2013 (has links)
L’objectif de cette thèse était d’appliquer des méthodes d’analyse multivariées au traitement des données provenant de la spectroscopie de plasma induit par laser (LIBS) et de la spectroscopie térahertz (THz) dans le but d’accroître les performances analytiques de ces techniques.Les spectres LIBS provenaient de campagnes de mesures directes sur différents sites géologiques. Une approche univariée n’a pas été envisageable à cause d’importants effets de matrices et c’est pour cela qu’on a analysé les données provenant des spectres LIBS par réseaux de neurones artificiels (ANN). Cela a permis de quantifier plusieurs éléments mineurs et majeurs dans les échantillons de sol avec un écart relatif de prédiction inférieur à 20% par rapport aux valeurs de référence, jugé acceptable pour des analyses sur site. Dans certains cas, il a cependant été nécessaire de prendre en compte plusieurs modèles ANN, d’une part pour classer les échantillons de sol en fonction d’un seuil de concentration et de la nature de leur matrice, et d’autre part pour prédire la concentration d’un analyte. Cette approche globale a été démontrée avec succès dans le cas particulier de l’analyse du plomb pour un échantillon de sol inconnu. Enfin, le développement d’un outil de traitement par ANN a fait l’objet d’un transfert industriel.Dans un second temps, nous avons traité des spectres d’absorbance terahertz. Ce spectres provenaient de mesures d’absorbance sur des mélanges ternaires de Fructose-Lactose-acide citrique liés par du polyéthylène et préparés sous forme de pastilles. Une analyse semi-quantitative a été réalisée avec succès par analyse en composantes principales (ACP). Puis les méthodes quantitatives de régression par moindres carrés partiels (PLS) et de réseaux de neurons artificiels (ANN) ont permis de prédire les concentrations de chaque constituant de l’échantillon avec une valeur d’erreur quadratique moyenne inférieure à 0.95 %. Pour chaque méthode de traitement, le choix des données d’entrée et la validation de la méthode ont été discutés en détail. / The aim of this work was the application of multivariate methods to analyze spectral data from laser-induced breakdown spectroscopy (LIBS) and terahertz (THz) spectroscopy to improve the analytical ability of these techniques.In this work, the LIBS data were derived from on-site measurements of soil samples. The common univariate approach was not efficient enough for accurate quantitative analysis and consequently artificial neural networks (ANN) were applied. This allowed quantifying several major and minor elements into soil samples with relative error of prediction lower than 20% compared to reference values. In specific cases, a single ANN model didn’t allow to successfully achieving the quantitative analysis and it was necessary to exploit a series of ANN models, either for classification purpose against a concentration threshold or a matrix type, or for quantification. This complete approach based on a series of ANN models was efficiently applied to the quantitative analysis of unknown soil samples. Based on this work, a module of data treatment by ANN was included into the software Analibs of the IVEA company. The second part of this work was focused on the data treatment of absorbance spectra in the terahertz range. The samples were pressed pellets of mixtures of three products, namely fructose, lactose and citric acid with polyethylene as binder. A very efficient semi-quantitative analysis was conducted by using principal component analysis (PCA). Then, quantitative analyses based on partial least squares regression (PLS) and ANN allowed quantifying the concentrations of each product with a root mean square error (RMSE) lower than 0.95 %. All along this work on data processing, both the selection of input data and the evaluation of each model have been studied in details.
6

Low b-values diffusion weighted imaging of the in vivo human heart / Imagerie pondérée en diffusion par faibles valeurs de b du coeur humain in vivo

Rapacchi, Stanislas 17 January 2011 (has links)
L'Imagerie par Résonance Magnétique pondérée en Diffusion (IRM-D) permet l'accès à l'information structurelle des tissus au travers de la lecture du mouvement brownien des molécules d'eau. Ses applications sont nombreuses en imagerie cérébrale, tant en milieu clinique qu'en recherche. Néanmoins le mouvement physiologique créé une perte de signal supplémentaire au cours de l'encodage de la diffusion. Cette perte de signal liée au mouvement limite les applications de l'IRM-D quant à l'imagerie cardiaque. L'utilisation de faibles valeurs de pondération (b) réduit cette sensibilité mais permet seulement l'imagerie du mouvement incohérent intra-voxel (IVIM) qui contient la circulation sanguine et la diffusion des molécules d'eau. L'imagerie IVIM possède pourtant de nombreuses applications en IRM de l'abdomen, depuis la caractérisation tissulaire à la quantification de la perfusion, mais reste inexplorée pour l'imagerie du coeur. Mon travail de thèse correspond à l'évaluation des conditions d'application de l'IRM-D à faibles valeurs de b pour le coeur humain, afin de proposer des contributions méthodologiques et d'appliquer les techniques développées expérimentalement. Nous avons identifié le mouvement cardiaque comme une des sources majeures de perte de signal. Bien que le mouvement global puisse être corrigé par un recalage non-rigide, la perte de signal induite par le mouvement perdure et empêche l'analyse précise par IRM-D du myocarde. L'étude de cette perte de signal chez un volontaire a fourni une fenêtre temporelle durable où le mouvement cardiaque est au minimum en diastole. Au sein de cette fenêtre optimale, la fluctuation de l'intensité atteste d'un mouvement variable résiduel. Une solution de répéter les acquisitions avec un déclenchement décalé dans le temps permet la capture des minimas du mouvement, c.-à-d. des maximas d'intensité en IRM-D. La projection du maximum d'intensité dans le temps (TMIP) permet ensuite de récupérer des images pondérées en diffusion avec un minimum de perte de signal lié au mouvement. Nous avons développé et évalué différentes séquences d'acquisition combinées avec TMIP : la séquence d'imagerie écho-planaire classique par écho de spin (SE-EPI) peut être adaptée mais souffre du repliement d'image ; une séquence Carr-Purcell-Meiboom-Gill combinée avec une préparation d'encodage de diffusion est plus robuste aux distorsions spatiales mais des artefacts de bandes noires empêchent son applicabilité ; finalement une séquence double-SE-EPI compensant les courants de Foucault et pleinement optimisée produit des images IRM-D moins artefactées. Avec cette séquence, l'IRM-D-TMIP permet la réduction significative de la perte de signal liée au mouvement pour l'imagerie cardiaque pondérée en diffusion. L'inconvénient avec TMIP vient de l'amplification du bruit positif d'intensité. Afin de compenser cette sensibilité du TMIP, nous séparons le bruit d'intensité des fluctuations lentes liées au mouvement grâce à une nouvelle approche basée sur l'analyse en composantes principales (PCA). La décomposition préserve les détails anatomiques tout en augmentant les rapports signal et contraste-à-bruit (SNR, CNR). Avec l'IRM-D-PCATMIP, nous augmentons à la fois l'intensité finale et la qualité d'image (SNR) en théorie et expérimentalement. Les bénéfices ont été quantifiés en simulation avant d'être validés sur des volontaires. De plus la technique a montré des résultats reproductibles sur des patients post-infarctus aigue du myocarde, avec un contraste cohérent avec la position et l'étendue de la zone pathologique. Contrairement à l'imagerie cérébrale, l'imagerie IRM-D par faibles valeurs de pondération in vivo doit être différentiée des analyses IRM-D ex-vivo. Ainsi l'IRM-D-PCATMIP offre une technique sans injection pour l'exploration du myocarde par imagerie IVIM. Les premiers résultats sont encourageants pour envisager l'application sur un modèle expérimental d'une maladie cardiovasculaire [etc...] / Diffusion weighted magnetic resonance imaging (DW-MRI, or DWI) enables the access to the structural information of body tissues through the reading of water molecules Brownian motion. Its applications are many in brain imaging, from clinical practice to research. However physiological motion induces an additional signal-loss when diffusion encoding is applied. This motion-induced signal-loss limits greatly its applications in cardiac imaging. Using low diffusion-weighting values (b) DWI reduces this sensitivity but permits only the imaging of intravoxel incoherent motion (IVIM), which combines both water diffusion and perfusion. IVIM imaging has many applications in body MRI, from tissue characterization to perfusion quantification but remains unexplored for the imaging of the heart. The purpose of this work was to evaluate the context of low b-values DWI imaging of the heart, propose methodological contributions and then apply the developed techniques experimentally. We identified cardiac motion as one of the major sources of motion-induced signal loss. Although bulk motion can be corrected with a non-rigid registration algorithm, additional signal-loss remains uncorrected for and prevents accurate DWI of the myocardium. The study of diffusion-weighted signal-loss induced by cardiac motion in a volunteer provided a time-window when motion is at minimum in diastole. Within this optimal time-window, fluctuation of intensity attests of variable remaining physiological motion. A solution to repeat acquisition with shifted trigger-times ease the capture of motion amplitude minima, i.e. DWI-intensity maxima. Temporal maximum intensity projection (TMIP) finally retrieves diffusion weighted images of minimal motion-induced signal-loss. We evaluated various attempts of sequence development with TMIP: usual spin-echo echo-planar imaging (se-EPI) sequence can be improved but suffers aliasing issues; a balanced steady-state free-precession (b-SSFP) combined with a diffusion preparation is more robust to spatial distortions but typical banding artifacts prevent its applicability; finally a state-of-the-art double-spin-echo EPI sequence produces less artifacted DWI results. With this sequence, TMIP-DWI proves to significantly reduce motion-induced signal-loss in the imaging of the myocardium. The drawback with TMIP comes from noise spikes that can easily be highlighted. To compensate for TMIP noise sensitivity, we separated noise spikes from smooth fluctuation of intensity using a novel approach based on localized principal component analysis (PCA). The decomposition was made so as to preserve anatomical features while increasing signal and contrast to noise ratios (SNR, CNR). With PCATMIP-DWI, both signal-intensity and SNR are increased theoretically and experimentally. Benefits were quantified in a simulation before being validated in volunteers. Additionally the technique showed reproducible results in a sample of acute myocardial infarction (AMI) patients, with a contrast matching the extent and location of the injured area. Contrarily to brain imaging, in vivo low b-values DWI should be differentiated from ex vivo DWI pure diffusion measurements. Thus PCATMIP-DWI might provide an injection-free technique for exploring cardiac IVIM imaging. Early results encourage the exploration of PCATMIP-DWI in an experimental model of cardiac diseases. Moreover the access to higher b values would permit the study of the full IVIM model for the human heart that retrieves and separates both perfusion and diffusion information
7

Chimiométrie appliquée à la spectroscopie de plasma induit par laser (LIBS) et à la spectroscopie terahertz

El Haddad, Josette 13 December 2013 (has links) (PDF)
L'objectif de cette thèse était d'appliquer des méthodes d'analyse multivariées au traitement des données provenant de la spectroscopie de plasma induit par laser (LIBS) et de la spectroscopie térahertz (THz) dans le but d'accroître les performances analytiques de ces techniques.Les spectres LIBS provenaient de campagnes de mesures directes sur différents sites géologiques. Une approche univariée n'a pas été envisageable à cause d'importants effets de matrices et c'est pour cela qu'on a analysé les données provenant des spectres LIBS par réseaux de neurones artificiels (ANN). Cela a permis de quantifier plusieurs éléments mineurs et majeurs dans les échantillons de sol avec un écart relatif de prédiction inférieur à 20% par rapport aux valeurs de référence, jugé acceptable pour des analyses sur site. Dans certains cas, il a cependant été nécessaire de prendre en compte plusieurs modèles ANN, d'une part pour classer les échantillons de sol en fonction d'un seuil de concentration et de la nature de leur matrice, et d'autre part pour prédire la concentration d'un analyte. Cette approche globale a été démontrée avec succès dans le cas particulier de l'analyse du plomb pour un échantillon de sol inconnu. Enfin, le développement d'un outil de traitement par ANN a fait l'objet d'un transfert industriel.Dans un second temps, nous avons traité des spectres d'absorbance terahertz. Ce spectres provenaient de mesures d'absorbance sur des mélanges ternaires de Fructose-Lactose-acide citrique liés par du polyéthylène et préparés sous forme de pastilles. Une analyse semi-quantitative a été réalisée avec succès par analyse en composantes principales (ACP). Puis les méthodes quantitatives de régression par moindres carrés partiels (PLS) et de réseaux de neurons artificiels (ANN) ont permis de prédire les concentrations de chaque constituant de l'échantillon avec une valeur d'erreur quadratique moyenne inférieure à 0.95 %. Pour chaque méthode de traitement, le choix des données d'entrée et la validation de la méthode ont été discutés en détail.
8

Elaboration de céramiques phosphocalciques pour l'ingénierie tissulaire osseuse : étude de l’influence des propriétés physico-chimiques des matériaux sur le comportement biologique in vitro / Elaboration of phosphocalcic ceramics for bone tissue engineering : influence of physico-chemical properties of materials on the biological behavior in vitro

Germaini, Marie-Michèle 24 January 2017 (has links)
Cette thèse transdisciplinaire réalisée en collaboration avec le laboratoire SPCTS (Sciences des Procédés Céramiques et Traitement de Surface) et l’EA 3842 (Homéostasie cellulaire et pathologies) de l’université de Limoges est un projet de recherche à l’interface entre la biologie et la chimie et a été consacrée à l’étude de l’influence des propriétés physico-chimiques de biocéramiques de phosphate de calcium sur leur comportement biologique in vitro.L’exploration des processus d’interaction entre matériaux et cellules reste une problématique scientifique de premier plan tant d’un point de vue fondamental qu’appliqué pour la mise au point de biomatériaux performants. L’objectif final est d’optimiser l’efficacité thérapeutique des céramiques phosphocalciques comme matériaux de substitution pour la régénération osseuse. La première partie de la thèse est une revue bibliographique générale présentant la problématique actuelle abordée en lien avec les besoins cliniques et les limitations des études actuelles. Les connaissances sur la biologie du tissu osseux sain ainsi que les aspects de régulation du processus de remodelage osseux ont également été abordés dans ce chapitre. Ce chapitre se termine par une synthèse bibliographique sur les biomatériaux et la régénération osseuse. Le chapitre 2 est relatif à la synthèse puis à la caractérisation physico-chimique des matériaux céramiques. Des céramiques de trois compositions chimiques : HA (hydroxyapatite : Ca10(PO4)6(OH)2 , SiHA (hydroxyapatite silicatée : Ca10(PO4)5,6(SiO4)0,42(OH)1,6 et CHA (hydroxyapatite carbonatée : Ca9,5(PO4)5,5(CO3)0,48(OH)1,08(CO3)0,23 , chacune avec deux microstructures différentes : dense ou poreuse, ont été élaborées et rigoureusement caractérisées (porosité, topographie de surface, mouillabilité, potentiel zêta, taille des grains, distribution et taille des pores, surface spécifique). Le chapitre 3 décrit l’approche expérimentale employée pour l’évaluation biologique des interactions matériaux/cellules explorées dans ce travail. Les analyses biologiques ont été réalisées avec deux lignées cellulaires différentes. La lignée cellulaire pré-ostéoblastique MC3T3-E1 et la lignée cellulaire de monocytes/macrophages, précurseurs des ostéoclastes RAW 264.7, (très importantes pour les aspects osseux, mais moins souvent explorées que les lignées ostéoblastiques dans la littérature). Enfin, le chapitre 4 reporte et commente les résultats biologiques obtenus dans ce travail. Tous les biomatériaux évalués dans cette étude sont biocompatibles, néanmoins, le biomatériau poreux CHA s’est avéré le plus prometteur des six variantes de biomatériaux testés. / This transdisciplinary thesis, carried out in collaboration with the SPCTS laboratory (sciences of ceramic processes and surface treatment) and EA 3842 (Cellular homoeostasis and pathologies) of the University of Limoges, is a research project at the interface between biology and chemistry and was devoted to the study of the influence of the physico-chemical properties of calcium phosphate bioceramics on their biological behavior in vitro.The exploration of the processes of interaction between materials and cells remains a major scientific issue, both from a fundamental and applied point of view for the development of highperformance biomaterials. The ultimate objective is to optimize the therapeutic efficiency of phosphocalcic ceramics as substitute materials for bone regeneration.The first part of the thesis is a general bibliographic review presenting the current issues tackled with the clinical needs and limitations of current studies. Knowledge of the biology of healthy bone tissue as well as the regulatory aspects of the bone remodeling process was also discussed in this chapter. It includes also a bibliographic overview of biomaterials and bone regeneration.Chapter 2 relates to the synthesis and the physico-chemical characterization of ceramic materials. HA (hydroxyapatite: Ca10 (PO4) 6 (OH) 2, SiHA (silicated hydroxyapatite: Ca10 (PO4) 5.6 (SiO4) 0.42 (OH) 1.6 and CHA (carbonated hydroxyapatite: Ca9.5 (PO4) 5.5 (CO3) 0.48 (OH) 1.08 (CO3) 0.23, ceramics each with two different microstructures : dense or porous, have been elaborated and thoroughly characterized (porosity, surface topography, wettability, zeta potential, grain size, pore size and distribution, specific surface area). Chapter 3 describes the experimental approach used for the biological evaluation of the interactions between materials and cells. Biological analyzes were performed with two different cell lines. The pre-osteoblastic MC3T3-E1 cell line and the RAW 264.7cell line of monocytes / macrophages, precursors of the steoclasts, (very important for the bone aspects, but less often explored than the osteoblastic lines in the literature). Finally, Chapter 4 reports and comments on the biological results obtained in this work. All biomaterials evaluated are biocompatible, nevertheless, the porous CHA biomaterial was the most promising of the six variants of biomaterials tested.
9

Phytochemical investigation of Acronychia species using NMR and LC-MS based dereplication and metabolomics approaches / Etude phytochimique d’espèces du genre Acronychia en utilisant des approches de déréplication et métabolomique basées sur des techniques RMN et SM

Kouloura, Eirini 28 November 2014 (has links)
Les plantes médicinales constituent une source inexhaustible de composés (des produits naturels - PN) utilisé en médecine pour la prévention et le traitement de diverses maladies. L'introduction de nouvelles technologies et méthodes dans le domaine de la chimie des produits naturels a permis le développement de méthodes ‘high throughput’ pour la détermination de la composition chimique des extraits de plantes, l'évaluation de leurs propriétés et l'exploration de leur potentiel en tant que candidats médicaments. Dernièrement, la métabolomique, une approche intégrée incorporant les avantages des technologies d'analyse moderne et la puissance de la bioinformatique s’est révélé un outil efficace dans la biologie des systèmes. En particulier, l'application de la métabolomique pour la découverte de nouveaux composés bioactifs constitue un domaine émergent dans la chimie des produits naturels. Dans ce contexte, le genre Acronychia de la famille des Rutaceae a été choisi sur la base de son usage en médecine traditionnelle pour ses propriétés antimicrobienne, antipyrétique, antispasmodique et anti-inflammatoire. Nombre de méthodes chromatographiques modernes, spectrométriques et spectroscopiques sont utilisées pour l'exploration de leur contenu en métabolites suivant trois axes principaux constituant les trois chapitres de cette thèse. En bref, le premier chapitre décrit l’étude phytochimique d’Acronychia pedunculata, l’identification des métabolites secondaires contenus dans cette espèce et l'évaluation de leurs propriétés biologiques. Le deuxième chapitre vise au développement de méthodes analytiques pour l'identification des dimères d’acétophénones (marqueurs chimiotaxonomiques du genre) et aux stratégies utilisées pour la déréplication de ces différents extraits et la caractérisation chimique des composés par UHPLC-HRMSn. Le troisième chapitre se concentre sur l'application de méthodologies métabolomique (RMN et LC-MS) pour l'analyse comparative (entre les différentes espèces, origines, organes), pour des études chimiotaxonomiques (entre les espèces) et pour la corrélation des composés contenus avec une activité pharmacologique. / Medicinal plants constitute an unfailing source of compounds (natural products – NPs) utilised in medicine for the prevention and treatment of various deceases. The introduction of new technologies and methods in the field of natural products chemistry enabled the development of high throughput methodologies for the chemical composition determination of plant extracts, evaluation of their properties and the exploration of their potentials as drug candidates. Lately, metabolomics, an integrated approach incorporating the advantages of modern analytical technologies and the power of bioinformatics has been proven an efficient tool in systems biology. In particular, the application of metabolomics for the discovery of new bioactive compounds constitutes an emerging field in natural products chemistry. In this context, Acronychia genus of Rutaceae family was selected based on its well-known traditional use as antimicrobial, antipyretic, antispasmodic and anti-inflammatory therapeutic agent. Modern chromatographic, spectrometric and spectroscopic methods were utilised for the exploration of their metabolite content following three basic axes constituting the three chapters of this thesis. Briefly, the first chapter describes the phytochemical investigation of Acronychia pedunculata, the identification of secondary metabolites contained in this species and evaluation of their biological properties. The second chapter refers to the development of analytical methods for the identification of acetophenones (chemotaxonomic markers of the genus) and to the dereplication strategies for the chemical characterisation of extracts by UHPLC-HRMSn. The third chapter focuses on the application of metabolomic methodologies (LC-MS & NMR) for comparative analysis (between different species, origins, organs), chemotaxonomic studies (between species) and compound-activity correlations.

Page generated in 0.51 seconds