• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5992
  • 1675
  • 727
  • 10
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 8347
  • 2697
  • 2693
  • 1642
  • 1361
  • 1225
  • 866
  • 847
  • 823
  • 646
  • 587
  • 528
  • 514
  • 498
  • 479
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
731

Réduction de la distance interphase des conducteurs d'une ligne de transport d'énergie électrique causée par du vent turbulent

Parent, Louis-Philippe January 2015 (has links)
Un réseau de transport d'énergie électrique doit être le plus robuste possible pour répondre aux besoins de la société. Les lignes aériennes de transport doivent donc faire face aux contraintes environnementales sans qu'il y ait de dommages structuraux. Les exigences esthétiques, comme avoir des lignes plus compactes près des grands centres de distribution, jumelées au rapprochement des conducteurs électriques face à une charge de vent remettent en question l'optimisation des critères de conception actuels. Les méthodes actuelles pour représenter le comportement dynamique des lignes électriques et déterminer les distances interphases à respecter sont basées sur des hypothèses simplificatrices ou sur des formules empiriques basées sur l'expérience des gestionnaires de réseau. L'objectif principal de ce projet de recherche est donc de développer une approche numérique pour étudier l'effet d'une charge de vent turbulent sur le rapprochement interphase de deux phases de conducteurs électriques afin de justifier les méthodes de calcul actuelles. L'étude se concentrera sur un nombre limité de portées avec des faisceaux de conducteurs simples et sans charge de glace. Un modèle par éléments finis de deux portées d'un conducteur simple a été développé à l'aide du logiciel Code-Aster. La génération de la charge de vent a été faite séparément à l'aide du logiciel WindGen. Le logiciel génère des signaux corrélés de vent turbulent en fonctions temporelles par la méthode de représentation spectrale. Les signaux sont ensuite convertis en charges de vent compatibles avec le solveur d'éléments finis. Les résultats du modèle numérique sont d'abord comparés avec une série d'essais dynamiques mesurant l'angle d'inclinaison des chaînes d'isolateur au vent effectués par Hydro-Québec sur une ligne expérimentale. Une fois la méthode de calcul validée, une étude paramétrique est effectuée pour étudier l'effet de divers paramètres sur le rapprochement interphase. L'effet de la longueur des portées, de la séparation interphase initiale, de la flèche des conducteurs, de la vitesse du vent, de l'intensité de turbulence du vent et de la corrélation spatiale des signaux de vent est évalué. Parallèlement, une campagne de mesure in situ pour enregistrer des vitesses de vent en plusieurs points dans l'espace a été effectuée pour étudier la corrélation spatiale. Les résultats de la campagne ont permis de justifier l'utilisation des valeurs de référence des coefficients de corrélation, ainsi que de fournir une plage de données à analyser lors de l'étude paramétrique. Les résultats du projet de recherche permettront aux concepteurs de réaliser que les dégagements requis pour la distance interphase des lignes de transport d'électricité sous un vent turbulent sont affectés par plusieurs paramètres qui ne sont pas nécessairement tous pris en compte dans les équations empiriques utilisées. Certaines sections de lignes de transport peuvent apporter un risque plus grand de court-circuit phase-phase entre les conducteurs. À long terme, de tels outils numériques peuvent aider l'analyse de ces cas spéciaux.
732

Influence de l'âge sur le seuil de perturbation vers l'avant pour le relâchement d'une inclinaison, le relâchement d'une inclinaison avec translation de surface et la translation de surface

Pierre, Magali January 2016 (has links)
Les chutes sont aujourd’hui considérées comme un problème majeur de santé public de par leur nombre, coûts et conséquences importantes, qui ne cesse de croître dû au vieillissement de la population. Prévenir les chutes est donc devenu indispensable. Deux études expérimentales précédentes ont démontré que la méthode du seuil de perturbation permet de comparer les résultats de différentes perturbations posturales ou de leurs combinaisons. Pour poursuivre ce travail, nous avons déterminé l’angle d’inclinaison initial maximal vers l’avant pour trois vitesses de translation de surface (nulle, lente, rapide) et la vitesse de translation de surface maximale vers l’arrière desquels 10 jeunes adultes, 8 adultes mi-âgés et 8 adultes âgés en santé pouvaient être relâchés et/ou tirés et tout de même rétablir leur équilibre en un seul pas. Les résultats ont montré que l’angle d’inclinaison et la vitesse de translation maximum diminuaient avec l’âge. L’angle d’inclinaison maximal diminuait aussi avec la vitesse de translation de surface. Aux angles d’inclinaison ou vitesses de translation maximum, alors que les variables d’initiation, d’exécution et de géométrie de la réponse étaient presque toutes affectées par l’âge, seules les variables de géométrie de la réponse étaient affectées par la perturbation posturale. Malgré tout, les seuils de perturbations formé par ces quatre perturbations posturales diminuaient avec l’âge; séparaient efficacement les chutes (70-80%) des rétablissements (67-74%); et étaient similaires à ceux obtenus précédemment en utilisant des relâchement d’une inclinaison (avec et sans tirages à la taille), tirages à la taille (en marchant) et translations de surface chez des adultes jeunes et âgées. Une étude théorique récente a montré qu’un modèle de pendule inverse à barre mince sur surface glissante peut prédire avec précision l’issue (chute ou rétablissement) de relâchements d’une inclinaison et translations de surface chez de jeunes adultes. Nous l’avons donc utilisé pour simuler la position et la vitesse angulaire de l’initiation de la perturbation jusqu’à l’initiation de la réponse pour les essais maximum des trois études expérimentales précédentes de : 1) relâchements d’une inclinaison (avec ou sans tirages à la taille) et tirages à la taille en marchant chez des adultes jeunes et âgés, et 2) relâchements d’une inclinaison (avec ou sans translations de surface) et translations de surface chez des adultes jeunes, mi-âgés et âgés. Les résultats ont montré que la majorité des erreurs moyennes quadratiques et des erreurs au temps de réaction entre les positions et vitesses angulaires expérimentales et théoriques étaient inférieures à 4% et 5% respectivement. Seules les erreurs de vitesses angulaires pour les relâchements d’une inclinaison avec tirages à la taille (<13%) et translations de surface (<8%), étaient plus grandes. Mieux encore, les positions et vitesses angulaires théoriques à la fin du temps de réaction pour ces essais maximum ont formé des seuils de perturbation très similaires à ceux obtenus dans les trois études expérimentales précédentes. La méthode du seuil de perturbation a maintenant été établie expérimentalement et théoriquement pour trois des cinq différents types de perturbations posturales, ainsi que pour deux combinaisons, fournissant donc des preuves additionnelles que le choix de la perturbation posturale n’affecte pas la limite du rétablissement de l’équilibre.
733

Courbes de fragilité pour la vulnérabilité sismique de barrages-poids en béton

Bernier, Carl January 2015 (has links)
Les barrages-poids en béton sont des structures essentielles afin de régulariser les apports en eau potable, la gestion des bassins hydrologiques et la génération d'électricité. Par contre, la plupart des barrages-poids, au Québec, ont été conçus et construits au cours du dernier siècle avec des méthodes d'analyse et des forces sismiques qui sont jugées inadéquates aujourd'hui. En effet, au cours des dernières décennies, les connaissances en sismologie, en dynamique des structures et en génie parasismique ont grandement évolué, rendant nécessaire la réévaluation des barrages existants afin d'assurer la sécurité du public. Actuellement, des méthodes déterministes, utilisant des facteurs de sécurité, sont utilisées pour évaluer la sécurité des barrages. Cependant, étant donné le caractère aléatoire des sollicitations sismiques et des incertitudes sur les matériaux et propriétés d'un barrage, les méthodes probabilistes se révèlent plus adaptées et deviennent de plus en plus populaires. L'une de ces méthodes est l'utilisation de courbes de fragilité. Ces courbes sont des fonctions permettant de représenter la probabilité d'endommagement ou de rupture d'une structure pour toute une gamme de chargement. Ce projet de recherche présente donc le développement de courbes de fragilité pour évaluer la vulnérabilité sismique de barrage-poids en béton. La méthodologie est appliquée à un barrage spécifique, le barrage-poids aux Outardes-3, le plus grand barrage-poids en béton au Québec. La méthode des éléments finis est utilisée pour modéliser ce barrage et prendre en compte les différentes interactions entre le barrage, le réservoir et la fondation. De plus, des résultats d'essais dynamiques in situ sont utilisés pour calibrer le modèle numérique. Les courbes de fragilité sont ensuite générées à l'aide d'analyses dynamiques temporelles non linéaires afin d'évaluer deux états limites d'endommagement : le glissement à la base du barrage et le glissement aux joints de reprise dans le barrage. Les incertitudes associées aux paramètres de modélisation et à la sollicitation sismique sont incluses dans l'analyse de fragilité et ces sources d'incertitudes sont propagées à l'aide d'une méthode d'échantillonnage. Une étude de sensibilité est également réalisée afin de déterminer les paramètres de modélisation ayant une influence significative sur la réponse sismique du système. L'incertitude associée à la variation spatiale des propriétés du barrage est également prise en compte et est modélisée à l'aide de champs aléatoires ; cette source d'incertitude peut s'avérer importante pour des ouvrages de grandes dimensions comme les barrages. Les résultats montrent que la variation spatiale des propriétés du barrage a un impact minime sur la fragilité du barrage aux Outardes-3 et qu'elle pourrait être négligée. Malgré tout, la méthodologie mise en place pour développer des courbes de fragilité applicables aux barrages-poids est efficace, pratique et donne d'excellents résultats. Par surcroît, un des grands avantages des courbes de fragilité est qu'elles permettent d'obtenir des informations quantitatives sur la vulnérabilité d'un barrage au contraire des méthodes déterministes actuelles.
734

Contrôle supervisé de systèmes à évènements discrets temps-réel

Ouédraogo, Lucien January 2008 (has links)
Cette thèse porte sur la synthèse de superviseurs pour des systèmes a événements discrets temps-réel (SEDTRs) modélisés par des automates temporises (ATs). Comme l'espace d'états d'un AT est en général infini, et que la théorie du contrôle supervise de RAMADGE et WONHAM, que nous avons adaptée, est opérationnelle pour des automates a états finis (AEFs), nous avons utilisé l'approche consistant à transformer les ATs modélisant le procédé et la spécification sous la forme d'AEFs. Nous avons donc tout d'abord étendu et amélioré une méthode de transformation des ATs en AEFs particuliers appelés automates Set-Exp (ASEs). Cette méthode de transformation, appelée SetExp, permet de réduire le problème d'explosion des états et est appropriée pour le contrôle supervise de SEDTRs. Nous avons ensuite amélioré et étendu une méthode de contrôle centralise fondée sur SetExp, c'est-à-dire que les ATs modélisant le procédé et la spécification sont d'abord transformes en ASEs et le problème est résolu en adaptant la théorie de RAMADGE et WONHAM aux ASEs. Pour la résolution du problème de contrôle centralise, nous avons identifié les conditions d'existence de solution et avons proposé une procédure algorithmique pour la synthèse du superviseur le moins restrictif. Suite à cela, nous avons développé une méthode de contrôle modulaire, fondée sur SetExp et la méthode de contrôle centralise. Pour le contrôle modulaire également, nous avons identifié les conditions d'existence de solution et propose une procédure de synthèse de superviseurs modulaires les moins restrictifs. D'autre part, nous avons étendu la méthode de contrôle centralise fondée sur SetExp au cas où le superviseur a une observation partielle des événements du procédé. Pour cette méthode de contrôle sous observation partielle des événements, nous avons identifié les conditions d'existence de solution et propose une procédure pour synthétiser un superviseur sous observation partielle. Enfin, nous avons réalisé un outil logiciel appelé SEAtool, qui implémente la transformation SetExp et les méthodes de contrôle centralise et modulaire. Nous avons étudié, à l'aide de SEAtool, l'application de nos méthodes de contrôles centralise et modulaire a des systèmes concrets simples.
735

Développement de la sensibilité dans l'imagerie médicale TEP à détecteurs multiples

Rechka, Sanae January 2010 (has links)
Cette thèse s'inscrit dans la perspective d'augmentation de la sensibilité de scanners de tomographie d'émission par positrons (TEP) en baissant le seuil d'énergie pour intégrer les événements de faible énergie dans l'image TEP.Cette baisse du seuil nécessite une évaluation correcte des interactions multiples particulièrement dues à la diffusion Compton inter-cristal, afin d'assurer un comptage précis des coïncidences fortuites et vraies, et conséquemment une quantification exacte de la distribution de l'activité dans l'objet. Afin d'atteindre cet objectif, et vu la complexité des phénomènes de la diffusion Compton et des coïncidences fortuites, les développements ainsi que la validation de ce travail de recherche ont été assistés par le simulateur évolué GATE"Geant4 application for tomographic emission". D'abord un modèle de simulation GATE pour le scanner LabPET a été développé et validé théoriquement et expérimentalement. Ce modèle a ensuite servi à l'étude du mécanisme de la diffusion Compton inter-cristal et des coïncidences fortuites, notamment en lien avec la fixation du seuil d'énergie. Finalement, une technique d'estimation des fortuits tenant compte des interactions multiples a été développée et validée dans différentes conditions d'imagerie et pour différents seuils d'énergie, en utilisant principalement le modèle GATE du LabPET et aussi d'autres géométries de scanners. À l'opposé des méthodes revues dans la littérature, cette technique assure une faible erreur d'estimation des coïncidences fortuites (< 2%) même à très bas seuils d'énergie en présence de la diffusion Compton inter-cristal ou à très hautes activités, et permet d'atteindre une haute sensibilité de scanner.Cette thèse a fait l'objet de différentes communications scientifiques dans des conférences et journaux internationaux.
736

Modélisation CFD du procédé de cuisson avec couplage des transferts de chaleur et de masse

Boulet, Micaël January 2012 (has links)
Une des composantes clefs pour l'amélioration de la qualité et de l'efficacité énergétique du procédé de cuisson est la capacité à modéliser et simuler celui-ci. Dû à la nature physique et géométrique de ce procédé très complexe, les techniques de Computational Fluid Dynamics (CFD) représentent un puissant outil de modélisation. Or, le recours aux méthodes CFD pour simuler la cuisson est une tendance récente et il n'y a pas encore de modèle couplant transfert de chaleur et de masse tout en considérant à la fois l'enceinte et le produit. Cette thèse présente un travail de recherche précurseur dans la modélisation CFD et multi-physique du procédé de cuisson, en particulier au niveau du couplage enceinte-produit. Dans un premier temps, considérant principalement l'enceinte, la simulation tridimensionnelle d'un four de laboratoire est réalisée en considérant le modèle k-epsilon realizable pour la turbulence et le modèle de radiosité S2S pour le rayonnement. En modélisant en détail un instrument de mesure au centre du four, la simulation est comparée aux mesures expérimentales. Il est ainsi démontré que la température des parois rayonnantes est un paramètre critique, due à la dominance du transfert par rayonnement. Une connaissance limitée de ces températures réduit la précision du modèle. Deuxièmement, afin de palier ce désavantage, une méthode inverse originale est développée afin de déterminer la température rayonnante des parois à partir de mesures d'un instrument placé au centre du four. Les résultats démontrent l'efficacité de la méthode tant dans sa capacité à retrouver les températures de parois que dans sa légèreté en coût de calcul. Ce dernier étant un avantage certain lorsque la méthode est implantée dans un code CFD, car ces codes sont intrinsèquement très intensifs en quantité de calcul. Finalement, un modèle couplant enceinte et produit en cuisson est modélisé et simulé. Le produit de cuisson est considéré multiphasique (eau liquide, vapeur et pâte sèche). Le changement de phase est modélisé avec une formulation originale où le taux d'évaporation obéit à une équation hors équilibre en dessous de 100°C, puis à une équation d'ébullition à partir de cette température. Grace à un maillage dynamique, un front d'évaporation est simulé pour la première fois en 2 dimensions Afin de tenir compte de la participation de l'humidité dans l'enceinte du four, le modèle de rayonnement Discrete Ordinates est utilisé. La simulation de l'évolution de la température ainsi que des phases liquide et vapeur dans le pain est en accord avec les comportements reconnus dans la littérature. Combiné à une corrélation reconnue pour le coefficient d'absorption, l'effet de l'humidité dans l'enceinte sur les flux de rayonnement est quantifié. Entre autre, une réduction significative de ces flux est observée lorsque les parois rayonnantes sont plus chaudes que l'air du four. La pose d'un modèle multi-physique englobant autant l'enceinte que le produit en cuisson est très prometteur pour l'amélioration du contrôle du procédé de cuisson. Ce travail de recherche développe un tel modèle et aboutit à des techniques originales de modélisation et de simulation propres à l'implantation dans les codes CFD.
737

Amélioration des performances d’athlètes en fauteuil roulant d’athlétisme à partir d’une configuration optimale

Masson, Geneviève January 2015 (has links)
L’objectif principal de ce projet de recherche était de démontrer qu’il est possible d’améliorer le temps de course des athlètes paralympiques en fauteuil roulant d’athlétisme de 4% en variant leur configuration. Une revue de littérature a permis d’établir qu’il est clair que la configuration de l’athlète dans son fauteuil roulant d’athlétisme est l’un des points majeurs dans l’optimisation de la performance, et que peu d’auteurs ont réussi à démontrer l’influence de la variation de la position d’un athlète sur l’amélioration de ses performances. En partant de l’hypothèse selon laquelle il existerait une position optimale de l’athlète dans son fauteuil roulant d’athlétisme lui permettant d’augmenter ses performances, les opportunités pouvant influencer la performance des athlètes ont été listées et quantifiées. Les limitations relatives à ces avenues d’amélioration ont été énoncées afin de déterminer dans quelle mesure elles permettent d’augmenter les performances d’un athlète. Par la suite, une étude expérimentale comprenant quatre participants, conjointement avec une étude théorique, ont permis de démontrer que la variation de la configuration de l’athlète influence la vitesse maximale atteinte lors d’un essai lancé sur ergomètre, en plus de permettre à l’athlète de maximiser l’énergie produite de manière « passive » entre le moment du contact et du relâchement, c’est-à-dire en n’utilisant que l’énergie cinétique et potentielle gravitationnelle du membre supérieur, l’énergie potentielle élastique provenant de la contraction musculaire étant négligée. Les résultats découlant de cette étude permettent de positionner de façon préliminaire de nouveaux athlètes ou des athlètes voulant améliorer leur configuration, en leur proposant une première configuration qui leur permet de sauver plusieurs mois, voire plusieurs années, d’itérations d’optimisation de leur configuration.
738

Caractérisation, modélisation et validation du transfert radiatif d'atmosphères non standard : impact sur les corrections atmosphériques d'images de télédétection

Zidane, Shems January 2012 (has links)
Cette étude est basée sur des données multi-altitudes aéroportées acquises en juillet 2004 lors d'un événement atmosphérique inhabituel dans la région de Saint-Jean-sur-Richelieu. Nous entendons en cela une atmosphère dont la distribution des aérosols ne respecte pas les variations habituellement implémentée dans les codes de transfert radiatifs. Les surfaces au sol imagées pendant cette campagne de terrain couvraient une variété spectrale assez diversifiée, à savoir des surfaces agricoles, des plans d'eau et des zones urbaines et forestières. L'aspect multi-altitude de cette acquisition de données a permis de caractériser les mêmes cibles au sol avec des contributions de l'atmosphère variant en fonction de l'altitude considérée afin de caractériser au mieux la perturbation observée durant cette campagne et de permettre une meilleure caractérisation de la perturbation apportée par une variation non-standard (panache de fumée). La transformation de la luminance apparente aux trois altitudes en réflectance apparente et l'implémentation de la perturbation apportée par le panache de fumée dans un modèle classique a permis une correction atmosphérique appliquée aux deux altitudes les plus hautes. Les résultats ont démontré une cohérence avec les réflectances apparentes de validation qui confirmait la véracité de notre modélisation du cas non-standard. Ces résultats ont d'autant plus étés pertinent [i.e. pertinents] pour la plus haute altitude de 3,17km : la réflectance apparente à cette altitude est au dessus de la majeur [i.e. majeure] partie du panache de fumée et intègre une bonne proportion de la perturbation apportée par ce panache, ce qui représente un test probant de notre capacité à corriger adéquatement l'influence de cette perturbation. Les perturbations atmosphériques standard sont évidemment prises en compte dans la majorité des modèles atmosphériques, mais ceux-ci sont souvent basés sur des variations monotones des caractéristiques physiques de l'atmosphère avec l'altitude. Lorsque la radiation atmosphérique est perturbée, par un panache de fumée ou un événement de pollution atmosphérique local et non standard, cela nécessite une modélisation et une modification adéquate des modèles existants en fonction des paramètres que l'on pourra obtenir sur ladite perturbation. Les intrants principaux de cette étude étaient ceux normalement utilisés lors d'une correction atmosphérique classique à savoir les luminances apparentes mesurées par un imageur aéroporté mais à trois altitudes différentes et l'épaisseur optique des aérosols (AOD) qui était acquise depuis le sol. La méthodologie que nous avons employé [i.e. employée] utilise aussi un code de transfert radiatif (CAM5S, pour Canadian Modified 5S, qui vient directement du code de transfert radiatif 5S dans le visible et proche infrarouge). Cependant il nous faudra aussi avoir recours à d'autres paramètres et données afin de modéliser correctement la situation atmosphérique particulière présente sur les images multi-altitude acquises pendant la campagne de terrain à Saint-Jean-sur-Richelieu. Nous avons alors élaboré un protocole de modélisation de perturbation atmosphérique non standard où une gamme de données auxiliaires disponibles est venue compléter nos données principales. Cela a permis l'élaboration d'une méthodologie robuste et relativement simple adaptée à notre problématique. Ces données auxiliaires, à savoir des données météorologiques, des profils LEDAR, différentes images satellites et des données de photomètres solaires qui ont permis la détermination de la fonction de phase des aérosols, ont été suffisantes pour établir une modélisation adéquate du panache de fumée observé en terme de distribution verticale non monotone des paramètres physiques relevés lors de cette campagne. Cette distribution non-standard à été par la suite interprétée en terme de profil spécifique de l'AOD qui a remplacé les profils des AOD employés dans le modèle de correction atmosphérique CAM5S. En fonction de cette modélisation, nous montrons que l'erreur entre les réflectances apparentes au sol obtenu [i.e. obtenue] par le processus de correction atmosphérique et les réflectances apparentes au sol provenant du processus de validation dR*(0), moyenné quadratiquement à travers les bandes visibles, reste majoritairement dans une gamme inférieure à 0,01 d'erreur quadratique moyenne des R*(0) après avoir modélisé la perturbation non-standard, ce qui permet une estimation plus acceptable des réflectances multi-altitude et du biais existant entre la prise en compte et la non prise en compte de cette perturbation dans le modèle atmosphérique. D'importants écarts ont néanmoins été observés, majoritairement attribuables à la difficulté apportée par les conditions d'acquisition, les grandes disparités observées entre l'échantillonnage des mêmes surfaces aux trois altitudes, et probablement des erreurs de modélisation et/ou de calibration. La nécessité d'améliorer le processus d'acquisition, de modélisation et de prévision de telle perturbation est largement décrit dans ce document afin de permettre à l'avenir d'établir un protocole d'acquisition plus adapté grâce notamment à une surveillance et un suivi des perturbations atmosphériques maintenant possible grâce aux outils décrits. L'originalité de cette étude réside dans une nouvelle approche de la caractérisation de ces perturbations atmosphériques par l'incorporation d'une structure non standard dans un modèle de correction atmosphérique opérationnel et de démontrer que cette approche présente des améliorations significatives des résultats par rapport à une approche qui ignore la perturbation du profil vertical standard tout en utilisant des valeurs d'AOD totaux correctement mesurés. Le modèle de profil que nous avons employé était simple et robuste, mais a capturé suffisamment de caractéristiques du panache pour réaliser des améliorations significatives en termes de précision de correction atmosphérique. Le processus global d'aborder tous les problèmes rencontrés dans l'analyse de notre perturbation des aérosols nous a aidé à construire une méthodologie appropriée pour caractériser ces événements sur la base de la disponibilité des données, distribué gratuitement et accessibles à la communauté scientifique. Cela rend cette étude adaptable et exportable à d'autres problématiques du même genre.
739

En quête des déterminants structuraux de la liaison et de l'activation des récepteurs couplés aux protéines G étude de mutagénèse et de modélisation moléculaire sur le récepteur de type 1 de l'angiotensine II (HAT[indice inférieur 1])

Beaulieu, Marie-Ève January 2006 (has links)
Les récepteurs couplés aux protéines G (GPCRs) sont des protéines à sept domaines transmembranaires (TM) impliquées dans la médiation des stimuli tels la lumière, les odeurs, les neuromédiateurs et les hormones à travers la membrane plasmique. La détermination des bases structurales de la liaison et de l'activation des GPCRs est d'une importance capitale dans notre compréhension de ces phénomènes, et à plus forte raison dans le développement de nouveaux médicaments, comme en témoigne le fait que plus de la moitié des médicaments actuellement sur le marché ciblent directement ou indirectement ces récepteurs. Cependant, leur caractéristique membranaire défie les limites actuelles des méthodes de détermination de structure par Résonance Magnétique Nucléaire (RMN) ou par diffraction des rayons X et la seule structure de GPCR déterminée expérimentalement à ce jour est celle de la rhodopsine bovine (bRho) (PALCZEWSKI et al., 2000). Malgré une identité de séquence limitée entre ces récepteurs, la présence de plusieurs résidus strictement conservés dans les 7 TMs des GPCRs classés dans la famille A suggère qu'ils partagent un même mécanisme moléculaire d'activation. De plus, il a été montré que la mutation du résidu conservé N[indice supérieur 3.35] mène à l'activation constitutive de plusieurs GPCRs, dont les récepteurs PAF, B[indice inférieur 2], CXCR4 et hAT[indice inférieur 1]. Par ailleurs l'analyse du modèle du récepteur hAT[indice inférieur 1] basé sur l'homologie avec la bRho révèle une interaction entre le résidu N111[indice supérieur 3.35] et un résidu strictement conservé, D74[indice supérieur 2.50]. Fait intéressant, des expériences précédentes ont montré que la mutation du résidu D74[indice supérieur 2.50] conserve l'affinité du récepteur pour le ligand AngII mais empêche l'isomérisation de hAT[indice inférieur 1] dans une forme active capable d'activer la protéine G et de médier la transduction du signal à travers la membrane plasmique (HUNYADY et al., 1994). Dans la présente étude, une analyse approfondie du modèle du récepteur de type 1 de l'angiotensine II (hAT[indice inférieur 1]) combinée aux essais de production d'IP de récepteurs hAT[indice inférieur 1] mutants conçus de façon rationnelle appuie l'importance d'une interaction entre des résidus conservés (D74[indice supérieur 2.50] et N111[indice supérieur 3.35]) dans la stabilisation de l'état inactif du récepteur. Ainsi, la mutation de N111[indice supérieur 3.35] pour un résidu glycine déstabilise la forme inactive du récepteur, favorisant son isomérisation dans une forme active. Au contraire, la mutation du résidu D74[inidce supérieur 2.50] pour une asparagine stabilise hAT[indice inférieur 1] dans une forme inactive, empêchant l'isomérisation du récepteur dans une forme active.Les variations locales du potentiel électrostatique dans l'intérieur majoritairement hydrophobe du récepteur et de ses mutants suggèrent que la solvatation optimale de D74[indice supérieur 2.50] est critique dans l'isomérisation de hAT[indice inférieur 1] dans une forme active. La présence de plusieurs autres résidus conservés polaires à proximité de D74[indice supérieur 2.50] corrobore l'importance de la solvatation de ce résidu dans la perspective d'un mécanisme d'activation conservé pour tous les GPCRs de la famille A.
740

Modélisation pharmacocinétique de la réponse tumorale à la thérapie photodynamique simultanément avec l'imagerie TEP

Boubacar, Paté January 2008 (has links)
L'objectif de ce travail consiste à étudier la réponse tumorale à la thérapie photodynamique (TPD), notamment en examinant les mécanismes d'action de 2 photosensibilisateurs utilisés pour cette TPD, à savoir l'Aluminium phtalocyanine tétrasulfonée (AlPcS[indice inférieur 4]), et le Zinc phtalocyanine disulfonée (ZnPcS[indice inférieur 2]). L'étude aborde le problème à travers la modélisation pharmacocinétique décrivant la captation tumorale du [18F]-fluorodésoxyglucose durant la thérapie phtodynamique sur les tumeurs, avec comme objectif de mettre en évidence les phénomènes métaboliques transitoires durant le traitement. La tomographie d'émission par positons, qui est un outil d'imagerie puissant et non invasif permettant d'étudier in vivo les processus biologiques et moléculaires au niveau oncologique, a été combinée à la TPD pour l'évaluation en temps réel de la réponse tumorale. Des travaux antérieurs, mis en oeuvre à travers un protocole qui comporte deux tumeurs dont l'une sera traitée tandis que l'autre a servi de contrôle, ont mis en évidence le potentiel énorme de cette combinaison. En effet, la faisabilité d'utiliser l'imagerie TEP en temps réel avec des infusions continues de FDG a été démontrée afin d'étudier la réponse métabolique tumorale durant la thérapie photodynamique chez un modèle de rongeur. La pertinence de la méthode a notamment été mise en évidence dans l'étude des changements métaboliques transitoires survenant aux niveaux tumoral et systémique pendant et tout de suite après la TPD, particulièrement pour la caractérisation des mécanismes d'action de différents PS. Une simple observation visuelle a permis de noter des différences significatives entre les profils de captation du FDG, dépendamment du PS utilisé. Ces différences offrent une façon rapide de distinguer entre un mécanisme de destruction directe ou indirecte des cellules tumorales et ce, en temps réel. Toutefois, cette approche basée sur des observations et des approximations comporte malheureusement un grand handicap. Elle ne permet pas, en toute rigueur, de prévoir les comportements tumoraux. Ce mémoire propose une approche plus formelle pour étudier les mécanismes d'action des PS à travers une modélisation pharmacocinétique de la réponse tumorale. C'est le modèle pharmacocinétique standard du FDG, modèle compartimental, qui a servi de base à notre étude. En effet, nous avons, dans une première approche, introduit la notion de perturbation pour caractériser l'effet du traitement sur le comportement normal d'une tumeur. Mais cette notion de perturbation a mis en évidence le fait que la courbe sanguine est aussi affectée. En tenant compte de cette réalité, il a fallu recourir à l'analyse factorielle pour pouvoir extraire la courbe sanguine qui servira de fonction d'entrée au modèle. Nous avons supposé que cette perturbation portait sur les constantes de transfert entre les compartiments. Cela a permis de relier l'effet du traitement aux paramètres et surtout a démontré l'inutilité probable de la durée prolongée de l'illumination. Une deuxième approche a consisté à modéliser la tumeur traitée comme un ensemble de deux populations cellulaires. Cela a permis d'abord de prendre en compte la tumeur contrôle du protocole comme une référence, mais surtout d'introduire la notion de survie cellulaire après le traitement.

Page generated in 0.0737 seconds