• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 200
  • 83
  • 12
  • 1
  • Tagged with
  • 303
  • 81
  • 71
  • 38
  • 35
  • 31
  • 29
  • 28
  • 27
  • 25
  • 25
  • 24
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Architecture de communication multimédia et multi-réseaux

Berthou, Pascal 13 December 2001 (has links) (PDF)
Les progrès récents dans le domaine des technologies de communications ont ouvert la voie à de nouveaux réseaux et les applications multimédias distribuées se sont développées. Elles ont pour principales caractéristiques des débits élevés, des flux continus avec de fortes contraintes temporelles, et des besoins en synchronisation pour préserver la cohérence de leur présentation. Les réseaux de communication actuels ne pouvant tout offrir à la fois (hauts débits, qualité et respect des contraintes temporelles), la multiplicité des supports de communication et des services permet d'envisager une nouvelle voie : le choix du support de communication en fonction des contraintes de l'application. Si cette multiplicité possède des attraits, elle recèle aussi de nombreuses difficultés qu'il faut maîtriser comme l'hétérogénéité des services de bout en bout. Ceci nous a conduit à concevoir et à réaliser une nouvelle architecture de communication " multi-réseaux " prenant en compte les besoins spécifiques des applications multimédias. D'une part, lorsque plusieurs réseaux sont accessibles, un protocole permettant de sélectionner la meilleure interface de communication en fonction des besoins spécifiques des flux multimédias a été défini. Afin de préserver la synchronisation multimédia, des mécanismes d'ordres partiels sont intégrés au protocole. D'autre part, lorsque des domaines très hétérogènes doivent être traversés par un flux, une solution qui permet de préserver la qualité de service des protocoles de transport est proposée. Elle est basée sur le principe de la rupture des connexions transport par des proxys situés en bordure de domaine. Un modèle de flux associant un langage de spécification des flux multimédias à des mécanismes de traitement de ces flux par le protocole est proposé pour formaliser les spécifications de qualité de service. Enfin, cette thèse a contribué à développer des mécanismes de déploiement dynamique de protocoles de t ransport.
102

Emboitement de compétences relatives aux transports publics et frontières institutionnelles dans une agglomération multipolaire : le cas des Alpes-Maritimes.

Courteix, Julian 02 July 2013 (has links) (PDF)
La coordination des institutions, par le biais de la création d'un périmètre de transport unique, est-elle la solution la mieux à même de faciliter le report modal au bénéfice des modes collectifs dans l'agglomération multipolaire azuréenne ? L'inadaptation des réseaux aux mobilités actuelles engendre des problèmes aigus de gestion du transport public. Cette inadaptation repose sur l'inadéquation des structures institutionnelles qui ne sont pas à la bonne échelle. Les pôles multiples doivent être reliés à des réseaux urbains interdépendants et cette nécessité s'accompagne de l'invention de nouvelles formes de gouvernement. Le travail comporte un premier chapitre présentant le cadre théorique de la relation entre agglomération multipolaire, institutions et organisation du transport dans un contexte spatial dense. En effet, les AOTU étaient, au départ, distinctes, ce choix étant justifié par l'état de l'urbanisation lors de leur création, mais elles gèrent des territoires désormais jointifs. Or, on ne peut imposer un périmètre conforme à un bassin de vie, d'où des inadaptations flagrantes.Un deuxième chapitre étudie les actions des autorités organisatrices du transport public dans l'espace multipolaire azuréen : la complexité de l'organisation institutionnelle est-elle la proie d'un effet de frontière entre AO ? Le Département est en retrait face à la croissance des AOTU et notamment de Métropole Nice Côte d'Azur ; cela forme un espace politique inadapté au contexte géographique. Une nouvelle structure fédérative, le SYMITAM, est créée mais ne remplit pas son rôle de coordination ; devant seconder le Département, elle est mise de fait au service de l'AOTU la plus conquérante.Enfin, grâce à l'analyse des mobilités et notamment par la mesure des actifs stables et sortants de chaque commune, et par les axes de TCSP, de TER et les pôles d'échanges qu'il serait nécessaire d'implanter pour mieux organiser les interrelations entre le littoral et le sous-ensemble intérieur, un troisième chapitre propose une résorption de l'effet de frontière par l'élaboration de nouveaux périmètres institutionnels. Nous montrons les AO les plus à même d'organiser la gestion de ce nouveau format territorial afin de contrecarrer la parcellisation institutionnelle.
103

Segmentation par contours actifs basés alpha-divergences : application à la segmentation d'images médicales et biomédicales

Meziou, Leïla 28 November 2013 (has links) (PDF)
La segmentation de régions d'intérêt dans le cadre de l'analyse d'images médicales et biomédicales reste encore à ce jour un challenge en raison notamment de la variété des modalités d'acquisition et des caractéristiques associées (bruit par exemple).Dans ce contexte particulier, cet exposé présente une méthode de segmentation de type contour actif dont l 'énergie associée à l'obtention de l'équation d'évolution s'appuie sur une mesure de similarité entre les densités de probabilités (en niveau de gris) des régions intérieure et extérieure au contour au cours du processus itératif de segmentation. En particulier, nous nous intéressons à la famille particulière des alpha-divergences. L'intérêt principal de cette méthode réside (i) dans la flexibilité des alpha-divergences dont la métrique intrinsèque peut être paramétrisée via la valeur du paramètre alpha et donc adaptée aux distributions statistiques des régions de l'image à segmenter ; et (ii) dans la capacité unificatrice de cette mesure statistique vis-à-vis des distances classiquement utilisées dans ce contexte (Kullback- Leibler, Hellinger...). Nous abordons l'étude de cette mesure statistique tout d'abord d'un point de vue supervisé pour lequel le processus itératif de segmentation se déduit de la minimisation de l'alpha-divergence (au sens variationnel) entre la densité de probabilité courante et une référence définie a priori. Puis nous nous intéressons au point de vue non supervisé qui permet de s'affranchir de l'étape de définition des références par le biais d'une maximisation de distance entre les densités de probabilités intérieure et extérieure au contour. Par ailleurs, nous proposons une démarche d'optimisation de l'évolution du paramètre alpha conjointe au processus de minimisation ou de maximisation de la divergence permettant d'adapter itérativement la divergence à la statistique des données considérées. Au niveau expérimental, nous proposons une étude comparée des différentes approches de segmentation : en premier lieu, sur des images synthétiques bruitées et texturées, puis, sur des images naturelles. Enfin, nous focalisons notre étude sur différentes applications issues des domaines biomédicaux (microscopie confocale cellulaire) et médicaux (radiographie X, IRM) dans le contexte de l'aide au diagnotic. Dans chacun des cas, une discussion sur l'apport des alpha-divergences est proposée.
104

Modèles déformables et Multirésolution pour la détection de contours en traitement d'images

El Omary, Youssef 24 October 1994 (has links) (PDF)
Les modèles déformables ou les contours actifs sont utilisés pour extraire les caractéristiques visuelles dans une image, en particulier les contours d'objets.<br />Notre propos dans cette thèse, est d'étudier ces modèles dans un environnement multirésolution.<br />Commençant par une étude des contours actifs à haute résolution, nous démontrons un théorème d'existence pour les contours actifs fermés et les contours actifs à extrémités libres. Nous présentons ensuite un nouveau modèle appelé la bulle déformable, qui a l'avantage d'avoir une représentation discrète, d'être relativement robuste au bruit et à la texture et d'agir par faibles déformations.<br />Ensuite nous étudions quelques techniques de multirésolution, en présentant les avantages et les inconvénients de chacune. A travers une proposition que nous avons montrée, nous établissons le lien entre la multirésolution et la notion de minimisation d'énergie.<br />Enfin, nous terminons par une proposition originale qui consiste à faire coopérer les contours actifs et la multirésolution. Cette coopération s'agrémente de plusieurs approches pour faire passer le contour du haut de la pyramide vers sa base. Elle associe entre autres une factorisation du modèle des contours actifs, d'une part selon une démarche de type membrane effectuée à basse résolution, et d'autre part selon une démarche de type plaque mince au travers des différentes résolutions supérieures permettant de réajuster le contour détecté jusqu'à la résolution initiale.
105

Structure locale autour d'hétéroatomes dans des matériaux alumino- et borosilicates pour la catalyse

Nagendrachar Garaga, Mounesha 28 May 2013 (has links) (PDF)
En dépit de l'importance considérable des matériaux alumino- et borosilicates pour la catalyse, l'origine moléculaire de leur activité demeure mal comprise. Ceci tient à la difficulté de caractériser le désordre structural local généré au sein du réseau silicaté par l'incorporation d'hétéroatomes. Le caractère local de la résonance magnétique nucléaire (RMN) à l'état solide en fait une technique adaptée pour résoudre cette question majeure. Les silicates en feuillés auto-assemblés en présence de surfactants sont d'excellents systèmes modèles pour l'étude de la structure locale autour d'hétéroatomes de B ou d'Al car la synthèse, la structure moléculaire et la signature RMN 29Si simple de leurs formes siliceuses sont parfaitement maîtrisées. L'incorporation dans leurs réseaux silicatés de différentes quantités d'Al ou de B et leurs conséquences ont été étudiées par des méthodologies avancées de RMN permettant de sonder les interactions à travers l'espace ou les liaisons chimiques entre noyaux de 29Si, 27Al, 11B et/ou 1H, une approche qui peut être étendue à la substitution atomique dans une argile aluminosilicate et un nouveau borosilicate de calcium. Ces résultats ont été combinés à la modélisation moléculaire pour construire et valider des modèles structuraux capables de décrire les distorsions et les réarrangements parfois profonds du réseau résultant de la substitution. Cela a révélé des différences frappantes entre les conséquences de l'incorporation d'Al ou de B dans deux matériaux de morphologie semblables mais de structures moléculaires différentes, et offre une occasion unique de comprendre les propriétés régissant l'incorporation d'hétéroatomes dans les silicates.
106

Vers la conception moléculaire de catalyseurs d'hydrotraitement préparés à partir de précurseurs métallo-organiques

Alphazan, Thibault 25 October 2013 (has links) (PDF)
L'enjeu de cette thèse réside dans la compréhension et l'amélioration de la sulfuration de catalyseurs à base de W. Elle a pour objectif la rationalisation des différentes étapes de préparation de catalyseurs d'hydrotraitement de type NiWS depuis la préparation jusqu'au test catalytique par une approche moléculaire (appelée "chimie de surface contrôlée" ou CSC), ce qui permet de proposer de nouvelles voies pour lever le verrou majeur, lié à la mauvaise sulfuration du W. Au cœur de cette approche se situe l'utilisation d'une méthode de préparation originale, ayant recours à des composés moléculaires métallo-organiques bien-définis comme précurseurs de la phase sulfurée WS2, combinée à une analyse poussée par spectroscopies multiples (IR, RMN, XPS) et chimie computationnelle.La famille des alcoxydes de tungstène a été sélectionnée ; les précurseurs mono ou di-nucléaires tels que W(OEt)6, [W(=O)(OEt)4]2 ou [W(OEt)5]2 ont été greffés sur silice-alumine partiellement deshydroxylée, et leur conversion en phase sulfure a montré que le type de précurseurs moléculaires influençaient peu les propriétés des catalyseurs non promus (WS2/ASA), en termes de taux de sulfuration (déterminé par XPS) ou d'activité catalytique, en hydrogénation du toluène en présence d'aniline. Le composé [W(OEt)5]2 a ensuite été sélectionné pour approfondir l'étude des catalyseurs préparés par CSC.L'approche visant à améliorer la compréhension des différentes espèces de surface formées a été réalisée par l'étude des matériaux avant et après sulfuration. L'augmentation de la quantité de W déposé sur les matériaux CSC a permis de révéler la formation de (1) une couche d'espèces greffées sur la surface de silice-alumine, puis (2) de couches successives, formées d'espèces plus mobiles. L'étude portant sur la sulfuration de ces matériaux en fonction de leur teneur en W, et de la température de sulfuration, a permis de les comparer aux catalyseurs sulfurés dits "conventionnels". Cette étude approfondie a mis en évidence une amélioration de la sulfuration du W pour les matériaux CSC aux températures habituellement utilisées (350°C). La vitesse intrinsèque d'hydrogénation des catalyseurs CSC, jusqu'à deux fois supérieure à celle des catalyseurs conventionnels, a en partie été expliquée par un meilleur taux de sulfuration, et par la morphologie 2D des feuillets WS2 (STEM-HAADF), de forme triangulaire tronquée, dans le cas d'un catalyseur conventionnel.Finalement, ayant démontré que l'emploi d'espèces moléculaires mono et binucléaires permettait d'améliorer les catalyseurs non promus par rapport à l'approche conventionnelle utilisant des clusters polyanioniques, les catalyseurs promus de type NiW/ASA ont été étudiés. Différents précurseurs ont été utilisés (par exemple Ni(acac)2) ainsi que différentes méthodes de dépôt (dépôt du nickel sur un matériau sulfuré, ou non) et quantités de nickel. Ces travaux ont permis d'estimer l'influence de ces paramètres sur la sulfurabilité du W et du Ni, ainsi que sur l'activité catalytique des catalyseurs, et montrer que l'emploi d'une approche moléculaire dans la préparation des phases NiWS supportées permet d'améliorer la promotion des feuillets sulfures par le nickel, mais aussi d'accéder à des catalyseurs pouvant avoir des vitesses intrinsèques d'hydrogénation quatre fois supérieures celles de catalyseurs conventionnelles de référence. Ces résultats catalytiques sont très probablement liés à une balance optimisée entre "nature" et "quantité" de sites actifs mixtes Ni-W. Cela démontre l'intérêt d'une approche moléculaire pour la préparation de catalyseurs d'hydrotraitement plus performants.
107

Etude de mécanismes d'hybridation pour les détecteurs d'imagerie Infrarouge

Bria, Toufiq 07 December 2012 (has links) (PDF)
L'évolution de la microélectronique suit plusieurs axes notamment la miniaturisation des éléments actifs (réduction de taille des transistors), et l'augmentation de la densité d'interconnexion qui se traduisent par la loi de Gordon Moore qui prédit que la densité d'intégration sur silicium doublerait tous les deux ans. Ces évolutions ont pour conséquence la réduction des prix et du poids des composants. L'hybridation ou flip chip est une technologie qui s'inscrit dans cette évolution, elle consiste en l'assemblage de matériaux hétérogènes. Dans cette étude il s'agit d'un circuit de lecture Silicium et d'un circuit de détection InP ou GaAs assemblés par l'intermédiaire d'une matrice de billes d'indium. La connexion flip chip est basée sur l'utilisation d'une jonction par plots métalliques de faibles dimensions qui permet de diminuer les pertes électriques (faible inductance et faible bruit), une meilleure dissipation thermique, une bonne tenue mécanique. Enfin elle favorise la miniaturisation avec l'augmentation de la compacité et de la densité d'interconnexion.Les travaux de thèse se concentrent sur deux axes principaux. Le premier concerne l'hybridation par brasure avec la technologie des billes d'indium par refusion, et le second concerne l'hybridation par pression à température ambiante (nano-scratch) par l'intermédiaire des nanostructures (Nano-fils d'or, Nano-fils ZnO). Ces travaux ont permis la réalisation d'un détecteur InGaAs avec extension visible de format TV 640*512 pixels au pas de 15 µm. Ces travaux ont également permis la validation mécanique de l'assemblage d'un composant de format double TV 1280*1024 pixels au pas de 10 µm par cette même méthode de reflow. Pour l'axe hybridation à froid, nos travaux ont permis la validation d'une méthode de croissance de nano-fils ZnO par une voix hydrothermique à basse température (<90°C).
108

Étude et mise au point d'un filtre actif d'harmoniques en vue d'améliorer la qualité de l'alimentation électrique /

Beaulieu, Steeve, January 2007 (has links)
Thèse (M.Eng.) -- Université du Québec à Chicoutimi, 2007. / La p. de t. porte en outre: Mémoire présenté comme exigence partielle de la maîtrise en ingénierie. CaQCU Bibliogr.: f. [121]-124. Document électronique également accessible en format PDF. CaQCU
109

Modeling of the emission of active galactic nuclei at Fermi's era / Modélisation de l'émission des noyaux actifs de galaxie à l'ère Fermi

Vuillaume, Thomas 16 October 2015 (has links)
Les noyaux actifs de galaxie (NAG) sont les objets les plus énergétiques de l'univers. Cette incroyable puissance provient de l'énergie gravitationnel de matière en rotation autour d'un trou noir super-massif siégeant au centre des galaxies. Environ 10% des NAG sont pourvus de jets relativistes émanant de l'objet central (trou noir et matière environnante) et s'étalant sur des échelles de l'ordre de la galaxie hôte. Ces jets sont observés à toutes les longueurs d'ondes, de la radio aux rayons gamma les plus énergétiques. En dépit de nombreuses études et d'instruments de plus en plus précis depuis leur découverte dans les années 1950, les NAG sont encore très mal compris et la formation, la composition et l'accélération des jets sont des questions encore pleinement ouvertes. Le modèle le plus répandu visant à reproduire l'émission des NAG, le modèle "une zone" repose souvent sur des hypothèse ad-hoc et ne parvient pas à apporter une modélisation satisfaisante.Le paradigme du "two-flow" (deux fluides) développé à l'IPAG et basé sur une idée originale de Sol et al (1989) a pour but de fournir une vision unifiée et cohérente des jets de NAG. Cette théorie repose sur une l'hypothèse principale que les jets seraient en fait composés de deux fluides co-axiaux: une colonne centrale composée d'un plasma purement leptonique (électrons/positrons) se déplaçant à des vitesses relativistes et responsable pour la grande partie de l'émission non thermique observée entourée par une enveloppe composée d'un plasma baryonique (électrons/protons), régie pas la magnéto-hydrodynamique, se déplaçant à des vitesses sous-relativistes mais transportant la majorité de l'énergie. Cette hypothèse est basée sur des indices observationnels ainsi que sur des arguments théoriques et permet d'expliquer nombre des caractéristiques des NAG.Afin d'étudier plus en profondeur le paradigme du two-flow, un modèle numérique basé sur ses concepts et produisants des observables comparables aux observations est nécessaire.Durant ma thèse, j'ai participé au développement de ce modèle, m'intéressant notamment à la diffusion Compton inverse de photons provenant de l'extérieur du jet. Ce processus, primordial dans la modélisation des NAG, est aussi central dans le paradigme du two-flow car il est à l'origine de l'accélération de la colonne via l'effet fusée Compton. Pour cela, j'ai du développer des nouvelles approximations analytiques de la diffusion Compton d'une distribution thermique de photons.En m'intéressant à l'effet fusée Compton, j'ai pu montré que dans le champ de photon thermique d'un NAG, le facteur de Lorentz d'ensemble du plasma pouvait être sujet à des variations le long du jet en fonction de la distance à l'objet central. Ces variations peuvent avoir un effet important sur l'émission observée et peuvent induire de la variabilité spatiale et temporelle. J'ai également montré que les facteurs de Lorentz terminaux obtenus étaient compatibles avec les conditions physiques attendus dans les jets et avec les observations.Le modèle complet produit des DES directement comparables aux observations. Néanmoins, le modèle est par nature erratique et il est quasiment impossible de relier directement les paramètres du modèles avec les DES produites. Malheureusement, les procédures standards d'adaptation automatique aux données (e.g. basé sur les méthodes de gradient) ne sont pas adaptées au modèle à cause de son grand nombre de paramètres, de sa non-linéarité et du temps de calcul important. Afin de palier à ce problème, j'ai développé une procédure d'adaptation automatique basée sur les algorithmes génétiques. L'utilisation de cet outil a permis la reproduction de plusieurs DES par le modèle. J'ai également montré que le modèle était capable de reproduire les DES observées avec des facteurs de Lorentz d'ensemble relativement bas, ce qui pourrait potentiellement apporter une harmonisation entre les observations et les nécessités théoriques. / Active galactic nuclei (AGN) are the most energetic objects known in the universe. Their fantastic energy is due to efficient conversion of gravitational energy of mass accreted on super-massive black-holes at the center of galaxy into luminous energy. 10% of AGN are even more incredible as they display relativistic jets on galaxy scales. Those jets are observed at all energies, from far radio to highest gamma-rays. Despite intense study since their discovery in the 50's and more and more observations, favored by rapid progress in instrumentation, AGN are still widely misunderstood. The questions of formation, composition, and acceleration of jets are central but still a matter of debates. Models aiming at reproducing observed emission have been developed throughout the years. The most common one, the one-zone model, often relies on ad hoc hypothesis and does not provide a satisfactory answer.The two-flow paradigm developed at IPAG and based on an original idea from Sol et al (1989) aims at giving a more coherent and physical representation of AGN jets. The principal assumption is that jets are actually composed of two coaxial flows: an inner spine made of a pure pair plasma, moving at relativistic speed and responsible for the non-thermal observed emission surrounded by an external sheath, made of a baryonic MHD plasma, midly relativistic but carrying most of the power. The two-flow paradigm finds roots in observations as well as theoretical arguments and has been able to explain many AGN features.During my PhD, I studied this paradigm and contributed to the development of a numerical model based on its concepts. I have been particularly interested in the inverse Compton scattering of thermal photons, fundamental process in the modeling of AGN emission, as well as the Compton rocket effect, key to the acceleration of the spine in the two-flow paradigm.However, taking into account the inverse Compton emission, with the complete cross-section (including the Klein-Nishina regime) and the anisotropy can be very time consuming. To accomplish fast and efficient computation of the external Compton emission, I have had to formulate new analytical approximations of the scattering of a thermal distribution of photons.I have also studied the Compton rocket effect, responsible for the acceleration of the inner spine in the two-flow paradigm. I showed that the resulting bulk Lorentz factor of the flow in the complex photon field of an AGN is subject to variations along the jet as a function of the distance to the central engine. These variations can have drastic effects on the observed emission and could induce variability, both spatially and temporally.I also showed that the terminal bulk Lorentz factor obtained are compatible with physical conditions expected in jets and with observations.The complete model produce spectral energy distribution (SED) comparable to observed ones. However, the model is by nature erratic and it is difficult to make a direct link between the model parameters (input) and the SED (output). Unfortunately, standard data fitting procedures (e.g. based on gradient methods) are not adapted to the model due to its important number of parameters, its important computing time and its non-linearity. In order to circumvent this issue, I have developed a fitting tool based on genetic algorithms. The application of this algorithm allowed me to successfully fit several SED. In particular, I have also showed that the model, because based on a structured jet model, can reproduce observations with low bulk Lorentz factor, thus giving hope to match observations and theoretical requirements in this matter.
110

Elaboration de biomatériaux pour la délivrance contrôlée de principes actifs hydrophobes / Lipid nanoparticles incorporated into biopolymer-based hydrogels; materials for controlled rate of drug delivery.

Racine, Lisa 22 November 2016 (has links)
Le développement de nouveaux systèmes pour la délivrance locale et contrôlée de principes actifs (PA) peut avoir plusieurs intérêts : augmenter la biodisponibilité du PA, délivrer une forte dose prolongée en limitant les effets secondaires, et améliorer le confort du patient. Pour développer ces nouveaux systèmes de délivrance, des matériaux composites ont été élaborés. Ces matériaux sont constitués d’une matrice hydrogel intégrant des nanoparticules lipidiques (LNPs) capables de solubiliser un principe actif hydrophobe. Cette double encapsulation a pour but de solubiliser puis de délivrer un principe actif hydrophobe qui ne pourrait pas être encapsulé directement dans la matrice hydrophile, et de retarder sa libération en créant des interactions particules/polymères. Nous avons élaboré différents matériaux en sélectionnant 2 polysaccharides largement utilisés pour des applications biomédicales : la carboxyméthylcellulose (CMC) et le chitosane (CS). Ces 2 polymères ont été mélangés à du poly(éthylène glycol) (PEG), un polymère synthétique flexible, pour augmenter les possibilités de moduler la structure et les propriétés mécaniques de la matrice. Ces hydrogels hybrides de CMC/PEG ou CS/PEG réticulés chimiquement par chimies clics, ont été proposés sous forme d’hydrogel en volume, de films ou d’éponges. Après un travail sur le développement et la caractérisation de ces nouvelles matrices hydrogels, les propriétés des matériaux composites polysaccharides/LNPs ont été évaluées et corrélées à la diffusion des particules dans le réseau hydrogel. / Due to their high biocompatibility, macroscale hydrogels have been studied as promising materials for the design of drug delivery systems (DDS). Such systems devoted to the local administration and prolonged drug release can improve the efficacy of pharmaceutical coumpounds while limiting undesired side-effects. Hydrogels present a high water content and soft consistency with mechanical properties that can match those of biological tissues. Nevertheless, these systems are essentially limited to the delivery of hydrophilic drugs. Our approach for extended release of hydrophobic drugs is to design composite materials composed of lipid nanoparticles (LNPs) entrapped within polysaccharide hydrogels. We selected two polysaccharides which are currently used in pharmaceutical and biomedical applications: carboxymethylcellulose (CMC) and chitosan (CS). We also used poly(ethylene glycol) (PEG) as a plasticizer to tune the matrix mechanical properties. Three types of LNP-loaded hybrid materials were studied; i) bulk CMC/PEG hydrogels, ii) CS/PEG films, and iii) CS/PEG sponges. These materials were chemically crosslinked through attractive click reactions. LNPs were successfully entrapped within the three materials without affecting their properties. A deeper study was conducted with the CMC/PEG composite hydrogel. The LNP release profiles were correlated with the network structure and particles properties. The different materials appear promising systems for the time-controlled delivery of therapeutics.

Page generated in 0.0473 seconds