• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1848
  • 783
  • 197
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2805
  • 1335
  • 681
  • 505
  • 400
  • 358
  • 341
  • 275
  • 261
  • 260
  • 257
  • 246
  • 245
  • 242
  • 233
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
511

Segmentation des fibres de la matière blanche

Côté, Marc-Alexandre January 2012 (has links)
Ce mémoire porte sur la segmentation des fibres de la matière blanche et sur le développement d'outils visuels permettant d'interagir avec les résultats. Pour y parvenir, une métrique innovatrice permettant de quantifier la différence entre deux fibres de la matière blanche est créée. Cette mesure fait appel à des notions de multirésolution, de courbure, de torsion afin de caractériser la forme géométrique d'une fibre. Elle regroupe également des mesures plus simples telles la distance du cosinus, la distance euclidienne entre les centres de masse et la différence des longueurs d'arc pour capter respectivement l'orientation, la translation et la taille d'une fibre. Ensuite, une nouvelle technique de segmentation permettant de gérer des quantités importantes de données est développée. Finalement, ces nouvelles méthodes sont validées sur différents jeux de données.
512

Analyse d'algorithmes de type Nesterov et leurs applications à l'imagerie numérique

Simard, Catherine January 2015 (has links)
Ce mémoire se veut d'abord un recueil des principales variantes de l'algorithme optimal en pire cas pour la résolution de problèmes convexes et fortement convexes sans contraintes présenté par Yurii Nesterov en 1983 et en 2004. Ces variantes seront présentées dans un cadre unifié et analysées de manière théorique et empirique. On y retrouve une analyse des rôles des différents paramètres composant l'algorithme de base ainsi que de l'influence des constantes L et mu, respectivement la constante de Lipschitz du gradient et la constante de forte convexité de la fonction objectif, sur le comportement des algorithmes. On présentera également une nouvelle variante hybride et nous démontrerons empiriquement qu'elle performe mieux que plusieurs variantes dans la majorité des situations. La comparaison empirique des différentes variantes sur des problèmes sans contraintes utilise un modèle de calcul se basant sur le nombre d'appels à un oracle de premier ordre plutôt que sur le nombre d'itérations. Enfin, une application de ces variantes sur trois instances de problèmes en imagerie numérique ainsi qu'une analyse empirique des résultats obtenus en confrontation avec la méthode optimale FISTA et l'algorithme classique L-BFGS-B viennent clore ce mémoire.
513

Mesure du rythme respiratoire sans contact

Chauvin, Ronan January 2014 (has links)
Une séance de téléréadaptation consiste à mettre en interaction une personne sous traitement dans son lieu de résidence avec un professionnel dans une clinique, via Internet, dans le but de mener à distance une consultation ou un traitement. Un exemple typique de séances de téléréadaptation implique la tenue d'exercices sur vélo stationnaire, accompagnés entre autres de la mesure de signes vitaux. Actuellement, le système utilisé par l'équipe de recherche en téléréadaptation de l'Université de Sherbrooke mesure seulement le rythme cardiaque ainsi que la saturation d'oxygène du patient. Pour que les cliniciens puissent avoir plus d'informations sur l'activité de la personne et donc pouvoir mieux adapter leurs consignes lors des séances, il faut que des informations supplémentaires soient ajoutées, telles que le rythme respiratoire, l'échelle de Borg, la vitesse et le niveau de résistance sélectionné lors de séances sur un vélo stationnaire. Ce projet de maîtrise porte sur une de ces mesures, soit celle du rythme respiratoire sans contact. La détection sans contact est moins gênante pour le patient, non biaisée et ne demande pas le port d'un capteur supplémentaire. L'objectif principal du projet est de développer une technique de mesure du rythme respiratoire sans contact utilisant une caméra thermique pan-tilt montée sur un trépied et placée devant le vélo stationnaire. Le système doit être capable de suivre la région bouche-nez d'une personne en temps réel lorsqu'elle est en mouvement grâce à un algorithme de suivi traitant une séquence d'images. La première étape a consisté à passer en revue les techniques envisageables pour mesurer le rythme respiratoire. Ensuite, il a été nécessaire de sélectionner une technique de mesure sans contact, de l'implémenter, de la rendre robuste aux mouvements, et de la tester en conditions réelles. Enfin, les performances du système développé ont été évaluées en comparant ce dernier avec une mesure provenant d'une ceinture respiratoire. Les résultats démontrent que le système fonctionne en temps réel lorsque le patient déplace ou effectue des rotations de sa tête sur le vélo stationnaire. Des recommandations sont faites pour minimiser les limitations du système, par exemple en cas de présence de personnes dans l'arrière-plan ou lorsque le patient parle. Le système réalisé est maintenant prêt pour être déployé lors de sessions de téléréadaptation à domicile afin de vérifier l'acceptabilité et la facilité d'utilisation du système.
514

Tomodensitométrie par comptage de photons

Riendeau, Joel January 2009 (has links)
La tomodensitométrie (TDM) est une modalité d'imagerie médicale anatomique extrêmement utile en imagerie moléculaire. Elle permet de localiser de façon précise les sources d'émissions détectées en tomographie d'émission par positrons (TEP) relativement à des repères anatomiques facilement identifiables dans les images à haute résolution de la TDM. La localisation s'effectue par superposition des images issues de la TDM et de la TEP, cette dernière étant susceptible de ne contenir que peu de repères anatomiques selon le radiotraceur utilisé. Classiquement, la TDM et la TEP se jumellent en juxtaposant axialement un scanner de chaque modalité de sorte que le sujet traverse successivement chaque appareil pour effectuer les deux acquisitions indépendamment. Cette translation diminue la qualité de la fusion des images, puisque les organes du sujet peuvent se déplacer légèrement, ce qui rend l'alignement difficile après la reconstruction. De plus, dans un grand nombre d'études en imagerie moléculaire, il s'est avéré que la dose de radiations X transmise au sujet lors de l'acquisition TDM peut influencer les résultats quantitatifs obtenus en TEP, ce qui rend ces études difficilement répétables. Les tomodensitomètres actuels mesurent exclusivement le flux de radiation traversant le sujet en intégrant la charge créée par les photons X lors de leur interaction photoélectrique dans un dispositif de conversion de lumière en électrons. Ce mode d'acquisition dit"d'intégration" filtre bien le bruit à haute fréquence mais accumule toutefois le courant de fuite du photodétecteur. Pour obtenir un rapport signal à bruit (S/B) adéquat en TDM, il est nécessaire d'augmenter la dose de radiations transmise de façon significative. Cette technique ne se prête pas bien à l'imagerie moléculaire où la dose injectée joue un rôle limitatif sur le diagnostic et d'autres solutions doivent être apportées. Un mode de mesure du flux de radiation novateur, qui compte individuellement chacun des photons à l'aide d'une électronique de traitement rapide, constitue une alternative au problème d'intégration et permet d'éliminer partiellement le bruit électronique. La bande passante du préamplificateur doit cependant être élevée pour permettre la détection de plusieurs millions de photons par secondes par canal d'acquisition, afin de réduire le temps total d'acquisition nécessaire. Une telle électronique a été développée à Sherbrooke et jumelée à de puissants processeurs de traitement numériques [i.e. numérique]. Cette chaîne d'acquisition double modalité (TEP/TDM), la chaîne LabPETTM, sert déjà à la mesure de TEP dans un scanner commercial pour petits animaux. Le développement d'algorithmes de traitement numériques adaptés au comptage de photons en tomodensitométrie permettrait à cette chaîne d'effectuer une mesure moins bruitée et nécessitant donc une dose substantiellement réduite. De plus, la technologie LabPETTM pourra, à partir d'un même anneau de détection, effectuer une acquisition bimodale TEP/TDM qui s'avérera moins coûteuse, occupera moins d'espace et facilitera la fusion des images TEP/TDM. Les travaux de ce mémoire ont permis d'obtenir une méthode de traitement numérique capable de supporter le comptage des photons à un débit de plusieurs millions d'événements par secondes par détecteur avec une chaîne LabPETTM. La méthode fonctionne par prédiction du signal et se base sur la réponse impulsionnelle de la chaîne placée en mode de préamplification TDM. Cette méthode ouvre la porte au développement du LabPET/TDM, un appareil bimodal intégré de faible dose.
515

Développement d'actionneurs pneumatiques compliants pour la robotique binaire appliquée aux interventions intra-IRM pour la prostate

Miron, Geneviève January 2012 (has links)
En raison de l'augmentation continuelle des coûts en santé, il est profitable de détecter et traiter tôt les cancers afin de diminuer les coûts de traitement à long terme. La problématique s'applique particulièrement au cancer de la prostate, qui constitue 25 % des nouveaux cas de cancer chaque année. Afin de pouvoir détecter avec un niveau de confiance élevé les petites tumeurs durant les premiers stades de développement, l'Imagerie par résonance magnétique (IRM) peut être utilisée en raison de la qualité de son imagerie des tissus mous. Cependant, les IRM offrent un accès limité au patient (diamètre < 70 cm), limitant ainsi les possibilités d'interventions intra-IRM.En combinant la précision et la polyvalence d'un système robotique et la précision de l'imagerie par IRM, il serait donc possible de pouvoir détecter et traiter tôt les petites tumeurs pour augmenter les chances de survie des patients, et ainsi, réduire une partie des coûts en santé. Les interventions visées incluent la biopsie (prélèvement), la cryothérapie (brûlure par le froid), la curiethérapie (dépôt de pastilles émettrices de radiations) et l'ablation thermique par laser. La compatibilité IRM (qui exige le fonctionnement sous un champ magnétique de plus de 7 teslas) et l'espace confiné sont les deux principaux défis de la robotique en IRM, et nécessitent l'implantation de nouveaux types d'actionneurs. Le mémoire présente la conception et la fabrication de muscles pneumatiques de polymère et leur application à un manipulateur robotisé pour le cancer de la prostate. L'intégration des muscles pneumatiques dans des structures de polymère permet de simplifier leur fabrication, en plus d'assurer plus de précision en diminuant les erreurs liées à la fabrication. Une méthode de conception est développée, utilisant un modèle de manipulateur et quatre modèles de muscles. La modélisation des muscles débute par un modèle géométrique et est suivie d'un raffinement géométrique par éléments finis. Les éléments finis servent également à valider l'hypothèse de déformation uniaxiale du muscle qui sert de prémisse au troisième modèle, un modèle 1-D analytique qui prédit les performances du muscle. Enfin, le muscle est modélisé en se basant sur une caractérisation expérimentale. Les muscles pneumatiques, intégrés dans une architecture parallèle, permettent d'améliorer la précision des interventions intra-IRM tout en maintenant un rapport efficacité-coût élevé. Les performances des muscles pneumatiques et du manipulateur sont validées expérimentalement et permettent d'atteindre les requis cliniques de l'application de détection et traitement du cancer de la prostate. Les expériences en laboratoire et en IRM ont en effet permis de démontrer une erreur en boucle fermée inférieure à 0.5 mm, une rigidité adéquate de 0.32 N/mm et une absence d'impact du manipulateur sur la qualité des images d'IRM. Enfin, les performances des muscles pneumatiques intégrés ouvrent la porte à de nouvelles applications et à un changement de paradigme pour la conception de robots binaires précis à faible coût.
516

Le puits à retournement temporel dans le domaine audible : un outil de focalisation et d'imagerie à haute résolution de sources sonores et vibratoires

Bavu, Éric January 2008 (has links)
Le développement de techniques de focalisation et d'imagerie à haute résolution pour les sources acoustiques et vibratoires à basse fréquence est l'un des enjeux de la recherche actuelle en acoustique, notamment pour exciter localement et analyser des structures vibroacoustiques complexes tout en conservant des propriétés de haute résolution. Ces propriétés sont nécessaires lorsque la taille des objets étudiés est plus petite que la longueur d'onde mise en jeu. Nous désirons une méthode flexible, rapide, précise, non invasive, et unifiée d'excitation et d'analyse. Celle-ci doit être applicable tant dans le domaine des vibrations dans les structures que dans le domaine des ondes acoustiques tridimensionnelles. Pour cela, nous nous basons sur la technique du puits à retournement temporel, qui n'a, à ce jour, été mise en oeuvre que pour la focalisation d'ondes de Lamb dans une cavité ergodique ou avec des ondes électromagnétiques. Aucune technique d'imagerie n'a, avant cette thèse, été dérivée du puits à retournement temporel. La méthode du puits à retournement temporel est adaptée pour la focalisation à basse fréquence. Elle permet d'exciter localement une structure avec une grande intensité, et possède des capacités de super-résolution. Malgré tout, nous démontrons que cette méthode est difficilement applicable en situation pratique, puisqu'elle fait perdre le caractère non invasif nécessaire à la plupart des applications. En revanche, nous présentons dans ce manuscrit une technique nouvelle d'imagerie de sources vibratoires et acoustiques, basée sur le puits à retournement temporel. Cette technique non invasive d'imagerie, utilisant des dispositifs de mesure similaires aux techniques de formations de voies ou d'holographie en champ proche, permet d'obtenir une image des sources vibratoires ou acoustiques à très haute résolution de manière rapide. L'approche de cette nouvelle méthode d'imagerie est décrite. Des applications à l'imagerie de sources d'impact sur une plaque encastrée, ainsi qu'à l'imagerie de sources acoustiques en champ libre et en milieu sous-marin profond sont proposées. Une application à l'imagerie de sources acoustiques à basse fréquence sur une guitare est développée. Ces résultats représentent les premières applications de l'imagerie par puits à retournement temporel numérique. Les limites, la théorie, et la mise en oeuvre de cette technique d'imagerie à haute résolution sont étudiées et détaillées. II est démontré que cet outil possède des performances et des limites similaires à l'holographie en champ proche, tout en dépassant les capacités à basse fréquence des techniques classiques de localisation limitées en résolution couramment utilisées, comme le beamforming ou le retournement temporel.
517

Restauration adaptative des contours par une approche inspirée de la prédiction des performances

Rousseau, Kami January 2008 (has links)
En télédétection, les cartes de contours peuvent servir, entre autres choses, à la restitution géométrique, à la recherche d'éléments linéaires, ainsi qu'à la segmentation. La création de ces cartes est faite relativement tôt dans la chaîne de traitements d'une image. Pour assurer la qualité des opérations subséquentes, il faut veiller à obtenir une carte de contours précise. Notre problématique est de savoir s'il est possible de diminuer la perte de temps liée au choix d'algorithme et de paramètre en corrigeant automatiquement la carte de contours. Nous concentrerons donc nos efforts sur le développement d'une méthode de détection/restauration de contours adaptative. Notre méthode s'inspire d'une technique de prédiction des performances d'algorithmes de bas niveau. Elle consiste à intégrer un traitement par réseau de neurones à une méthode"classique" de détection de contours. Plus précisément, nous proposons de combiner la carte de performances avec la carte de gradient pour permettre des décisions plus exactes. La présente étude a permis de développer un logiciel comprenant un réseau de neurones entraîné pour prédire la présence de contours. Ce réseau de neurones permet d'améliorer les décisions de détecteurs de contours, en réduisant le nombre de pixels de fausses alarmes et de contours manqués. La première étape de ce travail consiste en une méthode d'évaluation de performance pour les cartes de contours. Une fois ce choix effectué, il devient possible de comparer les cartes entre elles. Il est donc plus aisé de déterminer, pour chaque image, la meilleure détection de contours. La revue de la littérature réalisée simultanément a permis de faire un choix d'un groupe d'indicateurs prometteurs pour la restauration de contours. Ces derniers ont servi à la calibration et à l'entrainement d'un réseau de neurones pour modéliser les contours. Par la suite, l'information fournie par ce réseau a été combinée par multiplication arithmétique avec les cartes d'amplitudes de détecteurs"classiques" afin de fournir de nouvelles cartes d'amplitude du gradient. Le seuillage de ces contours donne des cartes de contours"optimisées". Sur les images aéroportées du jeu de données South Florida, la médiane des mesures-F de la pour l'algorithme de Sobel passe de 51,3 % avant la fusion à 56,4 % après. La médiane des mesures-F pour l'algorithme de Kirsch amélioré est de 56,3 % et celle de Frei-Chen amélioré est de 56,3 %. Pour l'algorithme de Sobel avec seuillage adaptatif, la mesure-F médiane est de 52,3 % avant fusion et de 57,2 % après fusion.En guise de comparaison, la mesure-F médiane pour le détecteur de Moon, mathématiquement optimal pour contours de type"rampe", est de 53,3 % et celle de l'algorithme de Canny, est de 61,1 %. L'applicabilité de notre algorithme se limite aux images qui, après filtrage, ont un rapport signal sur bruit supérieur ou égal à 20. Sur les photos au sol du jeu de données de South Florida, les résultats sont comparables à ceux obtenus sur les images aéroportées. Par contre, sur le jeu de données de Berkeley, les résultats n'ont pas été concluants. Sur une imagette IKONOS du campus de l'Université de Sherbrooke, pour l'algorithme de Sobel, la mesure-F est de 45,7 % «0,9 % avant la fusion et de 50,8 % après. Sur une imagette IKONOS de l'Agence Spatiale Canadienne, pour l'algorithme de Sobel avec seuillage adaptatif, la mesure-F est de 35,4 % «0,9 % avant la fusion et de 42,2 % après. Sur cette même image, l'algorithme de Argyle (Canny sans post-traitement) a une mesure-F de 35,1 % «0,9 % avant fusion et de 39,5 % après. Nos travaux ont permis d'améliorer la banque d'indicateurs de Chalmond, rendant possible le prétraitement avant le seuillage de la carte de gradient. À chaque étape, nous proposons un choix de paramètres permettant d'utiliser efficacement la méthode proposée. Les contours corrigés sont plus fins, plus complets et mieux localisés que les contours originaux. Une étude de sensibilité a été effectuée et permet de mieux comprendre la contribution de chaque indicateur. L'efficacité de l'outil développé est comparable à celle d'autres méthodes de détection de contours et en fait un choix intéressant pour la détection de contours. Les différences de qualité observées entre notre méthode et celle de Canny semble être dues à l'utilisation, ou non, de post-traitements. Grâce au logiciel développé, il est possible de réutiliser la méthodologie; cette dernière a permis d'opérationnaliser la méthode proposée. La possibilité de réutiliser le filtre, sans réentrainement est intéressante. La simplicité du paramétrage lors de l'utilisation est aussi un avantage. Ces deux facteurs répondent à un besoin de réduire le temps d'utilisation du logiciel.
518

Évaluation longitudinale des changements morphologiques et métaboliques survenant chez un modèle raton de convulsions fébriles atypiques

Clerk-Lamalice, Olivier January 2010 (has links)
Les convulsions fébriles (CF) surviennent chez 2 à 5 % des jeunes enfants. La grande majorité de ces épisodes sont complètement bénins et aucune conséquence ne découle de ces convulsions. Une récente étude a par contre démontré qu'au sein d'une population pédiatrique atteinte d'épilepsie du lobe temporal (ELT), plusieurs enfants ont développé des CF avant l'apparition de ce trouble neurologique. De plus, cette étude a démontré une prévalence élevée de double pathologie chez ces enfants (sclérose de l'hippocampe et malformation corticale), suggérant un lien de causalité entre les CF, la malformation corticale et le développement de l'ELT. En se basant sur ces observations cliniques, la présente étude a pour but d'étudier les changements morphologiques et métaboliques cérébraux survenant suite aux convulsions hyperthermiques chez un modèle raton atteint de dysplasie corticale focale. Pour ce faire, une analyse du changement d'intensité de signal IRM en pondération-T[indice inférieur 2] et de multiples images TEP obtenues à l'aide de différents radiotraceurs([[indice supérieur 18]F]-FDG, [[indice supérieur 13]N]-NH[indice inférieur 3], [[indice supérieur 11]C]-acétoacétate) a été effectuée. De plus, un suivi longitudinal du développement volumétrique de l'hippocampe et des ventricules latéraux a été effectué. Les résultats de cette étude présentent une atteinte plus prononcée de l'hippocampe suite aux convulsions hyperthermiques chez le cerveau avec dysplasie corticale. En effet, 5 h après l'induction des convulsions hyperthermiques, un hyposignal IRM T[indice inférieur 2] est présent dans l'hippocampe de ce groupe comparativement au groupe contrôle atteint de dysplasie corticale seule. Les images TEP acquises pendant des convulsions hyperthermiques prolongées révèlent une inhomogénéité importante de captation du [[indice supérieur 18]F]-FDG au sein des structures cérébrales. L'hippocampe est d'ailleurs la structure avec la plus faible captation de [[indice supérieur 18]F]-FDG. À P38, une atrophie de l'hippocampe dorsal et une dilatation des ventricules latéraux sont mesurées au sein du groupe d'intérêt. Nos observations nous amènent à poser l'hypothèse que les perturbations remarquées chez le rat adulte sont causées par une vascularisation immature et inhomogène de l'hippocampe à P10 causant une atteinte hypoxique durant l'épisode de convulsion fébrile atypique. Ces résultats suggèrent donc que l'hypoxie durant un épisode de convulsions fébrile atypique mérite d'être davantage investiguée afin de développer de nouvelles avenues thérapeutiques pouvant diminuer l'impact des convulsions fébriles atypiques sur le développement cérébral.
519

Intégration de détecteurs plastiques à scintillation aux dosimètres à gel de polymère pour l'obtention de mesures de doses radiatives calibrées en trois dimensions

Tremblay, Nicolas January 2011 (has links)
Les gels de polymère sont des dosimètres chimiques à l'intérieur desquels une réaction de polymérisation est induite par les radiations en fonction de la dose. Ces dosimètres ont la particularité de pouvoir donner des distributions de doses en trois dimensions. Ce type de mesure pourrait être particulièrement utile dans le contexte où, en radiothérapie moderne, les distributions de doses incluent souvent de forts gradients et deviennent de plus en plus complexes. Cependant, les gels de polymères ne s'avèrent toujours pas une méthode de mesure exacte, puisque divers facteurs, parfois difficilement contrôlables, peuvent influencer la polymérisation. Le but principal des expérimentations décrites dans ce mémoire est de trouver une méthode de calibration pouvant améliorer l'exactitude des gels de polymère. L'approche préconisée ici consiste à mesurer des points de dose de référence à l'intérieur des gels durant les irradiations et à les utiliser comme points de calibration. Pour ce faire, les détecteurs plastiques à scintillation (PSD) s'avèrent un choix judicieux, puisqu'ils sont petits, équivalents à l'eau et assez précis et exacts pour être une référence fiable. Dans un premier temps, un montage de détecteurs plastiques à scintillation a été fabriqué et caractérisé. Le montage et les logiciels d'analyse ont ensuite été validés par des mesures de rendement en profondeur faites avec un appareil au cobalt-60 en utilisant la déconvolution chromatique comme méthode de calibration. Des PSD ont ensuite été insérées dans des dosimètres à gel de polyacrylamide (PAG) qui sont ensuite irradiés à l'aide de champs radiatifs filtrés. Des fioles de calibrations contenant du gel provenant de la même recette ont également été irradiées pour obtenir une courbe de calibration dite standard. La distribution des valeurs de vitesses de relaxation nucléaire transverse (R[indice inférieur 2]) a été déterminée à partir d'une séquence multi-échos et multicouches faite à l'Imagerie par résonnance magnétique. D'autres points de calibrations furent obtenus en assignant la valeur de R[indice inférieur 2] autour des PSD à la valeur de la dose qu'elles ont mesurée. Un point de calibration provenant d'une fibre située dans une région à faible gradient de dose fut utilisé pour corriger la courbe calibration standard, générant trois nouvelles courbes de calibration.Les mesures de dose obtenues avec toutes les courbes de calibration ont ensuite été comparées à des simulations du logiciel de planification de traitement Pinnacle[indice supérieur 3] et à des mesures prises avec des films radiochromiques (GAFCHROMIC[indice supérieur TM] EBT2) dans les mêmes conditions que le gel.
520

Étude préclinique de la poudre de pelure de pomme séchée comme suppresseur du phénotype malin des gliomes

Pouliot, Audrey January 2014 (has links)
Le glioblastome multiforme est le plus fréquent et le plus agressif des gliomes malins. Suite au diagnostic, la survie médiane des patients est de 12 à 15 mois. Le traitement de première ligne consiste en une chirurgie de résection suivie de chimiothérapie combinée à la radiothérapie. Malgré la combinaison de plusieurs modalités de traitement, la survie des patients n'est prolongée que de quelques mois. Or, plusieurs études ont démontré que les extraits de pelure de pomme peuvent inhiber la prolifération et induire la mort cellulaire de lignées cancéreuses in vitro, dont quelques-unes sur des cellules provenant de gliomes malins. Des propriétés anticancéreuses ont été observées in vivo sur des tumeurs d'hépatome, de cancer du sein et de mélanome. Dans ce contexte, il apparaissait intéressant d'évaluer le potentiel thérapeutique de la pelure de pomme dans le cancer cérébral. Nous avons donc conçu une étude en 2 volets: tout d'abord un volet in vitro impliquant 3 lignées cellulaires de gliomes de haut grade (F98, U-118 MG et U-87 MG) exposées à 0,1, 0,2 et 0,4 mg/mL de PPPS; puis un volet in vivo portant sur des tumeurs développées suite à l'implantation de cellules F98 chez les rats Fischer, qui ont été gavés quotidiennement avec de la PPPS (61,71 mg/kg ou 123,43 mg/kg) ou de l'eau (contrôle) à partir du 10e jour post implantation. Dans les 3 lignées cellulaires, les traitements de PPPS diminuent de façon significative le métabolisme cellulaire et augmentent la proportion de la population hypodiploïde. En présence de PPPS, la croissance et l'invasion des sphéroïdes de F98 et de U-87 MG sont inhibées. La PPPS diminue de moitié la proportion de cellules F98 en phase S, et fait augmenter dans les U-118 MG les deux marqueurs d’autophagie étudiés, soit p62 et LC3-II. Par contre, aucune différence dans la survie des rats Fischer-F98 n'a été observée entre le groupe contrôle et les groupes traités. La taille des tumeurs ainsi que les marqueurs d'apoptose et d'autophagie ne présentaient pas de différence entre les groupes. Les résultats obtenus ouvrent la voie à l'exploration plus approfondie des mécanismes des effets in vitro observés, tout en suggérant d'envisager d'autres voies d'administration de la PPPS in vivo.

Page generated in 0.0559 seconds