• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1250
  • 436
  • 125
  • 10
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1823
  • 854
  • 456
  • 310
  • 282
  • 216
  • 203
  • 193
  • 182
  • 166
  • 164
  • 144
  • 142
  • 141
  • 130
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
991

Effets du taux de déformation sur la rupture ductile des aciers à haute performance : Expériences et modélisation

Dunand, Matthieu 25 June 2013 (has links) (PDF)
L'industrie automobile emploie massivement les Aciers à Haute Performance (AHP) pour la fabrication des caisses en blanc, en raison de leur rapport résistance/masse élevé. Ils sont utilisés afin d'augmenter la sécurité des occupants en cas de crash, ou de réduire la masse du véhicule grâce à une diminution des sections utiles. En parallèle, le prototypage virtuel est omniprésent dans le processus de conception des nouveaux véhicules. En prenant l'exemple d'une caisse en blanc automobile, la conception de la structure globale et des procédés de mise en forme de ses composants nécessite des modèles prédictifs et fiables décrivant le comportement et la rupture des matériaux utilisés. Des efforts soutenus ont été entrepris ces cinq dernières années pour développer des modèles prédisant la rupture des AHP sous chargement statique. Pourtant les taux de déformations rencontrés lors d'opération de mise en forme sont de l'ordre de 10 s-1, et peuvent atteindre 103 s-1 lors de crashs. Le but de cette thèse est de développer une méthode fiable permettant d'évaluer l'influence du taux de déformation et de l'état de contrainte sur la rupture ductile d'AHP initialement non-fissurés. Une procédure expérimentale est conçue pour caractériser le comportement et l'initiation de la rupture dans des tôles chargées en traction à grande vitesse de déformation. La précision du dispositif est évaluée grâce à des validations numériques et expérimentales. Par la suite, une série d'expériences est réalisée à petite, moyenne et grande vitesse de déformation sur différents types d'éprouvettes de traction, afin de couvrir un spectre étendu d'états de contraintes. Une analyse détaillée de chaque expérience par la méthode des Éléments Finis permet de déterminer le trajet de chargement et l'état de déformation et de contrainte à la rupture dans chaque éprouvette, tout en prenant en compte les phénomènes de striction. La déformation à la rupture est significativement plus élevée à grande vitesse de déformation qu'à basse vitesse. De plus, les résultats montrent que l'influence du taux de déformation sur la ductilité ne peut pas être découplée de l'état de contrainte. Le modèle de comportement constitue un élément essentiel de cette approche hybride expérimentale-numérique. Un modèle de plasticité dépendant du taux de déformation est proposé pour prédire la réponse mécanique des AHP sur toute la plage de déformation, taux de déformation et état de contrainte couverte par le programme expérimental. La précision du modèle est validée par comparaison de mesures expérimentales globales et locales aux prédictions numériques correspondantes. De plus, l'influence de la discrétisation spatiale utilisée dans les simulations par Eléments Finis sur la précision de l'approche hybride expérimentale-numérique est quantifiée. Il est montré qu'un maillage fin d'éléments hexaédriques est nécessaire pour obtenir des prédictions précises jusqu'à la rupture. Ce type de maillage n'est pas compatible avec des applications industrielles à grande échelle pour des raisons évidentes d'efficacité numérique. C'est pourquoi une méthode de remaillage dynamique d'éléments coque vers des éléments solides est présentée et évaluée. Cette méthode permet d'obtenir des prédictions fiables de l'initiation de la rupture dans des tôles sans compromettre dramatiquement l'efficacité numérique obtenue grâce aux éléments coque. La seconde partie de ce travail s'intéresse aux micro-mécanismes responsables de la rupture ductile du matériau étudié. Une analyse micrographique du matériau soumis à différents niveaux de déformation permet d'identifier l'enchainement des mécanismes d'endommagement. Ces observations suggèrent que le mécanisme critique conduisant à la rupture est la localisation de la déformation plastique dans une bande de cisaillement à l'échelle du grain. Un model numérique reposant sur la déformation d'une cellule élémentaire 3D contenant une cavité est développé pour modéliser ce phénomène. Il est montré que le mécanisme de localisation à l'échelle micro de l'écoulement plastique dans une bande de cisaillement permet d'expliquer la dépendance de la ductilité à l'état de contrainte et au taux de déformation observée à l'échelle macro.
992

The relationship between fructose consumption and risk of obesity in two Aboriginal populations

Emad, Zohreh 04 1900 (has links)
Résumé La prédominance de l'obésité qui touche les enfants et les adultes a augmenté dans le monde entier ces dernières décennies. Les différentes études épidémiologiques ont prouvé que l'obésité est devenue une préoccupation profonde de santé aux États-Unis et au Canada. Il a été montré que l'obésité a beaucoup d’effets sur la santé ainsi il serait important de trouver différentes causes pour le gain de poids. Il est clair que l'obésité soit la condition de multiples facteurs et implique des éléments génétiques et environnementaux. Nous nous concentrons sur les facteurs diététiques et particulièrement le fructose où sa consommation a parallèlement augmenté avec l'augmentation du taux d'obésité. La forme principale du fructose est le sirop de maïs à haute teneur en fructose (HFCS) qui est employé en tant qu'édulcorant primordial dans la plupart des boissons et nourritures en Amérique du Nord. Il a été suggéré que la prise du fructose serait probablement un facteur qui contribue à l’augmentation de la prédominance de l'obésité. L'objectif de cette étude était d'évaluer s'il y a un rapport entre la consommation du fructose et le risque d'obésité. Nous avons travaillé sur deux bases de données des nations Cree et Inuit. Nous avons eu un groupe de 522 adultes Cree, (263 femmes et 259 hommes) dans deux groupes d'âge : les personnes entre 20 et 40 ans, et les personnes de 40 à 60 ans. Nous les avons classés par catégorie en quatre groupes d'indice de masse corporelle (IMC). L'outil de collecte de données était un rappel de 24 heures. En revanche, pour la base de données d'Inuit nous avons eu 550 adultes (301 femmes et 249 hommes) dans deux groupes d'âge semblables à ceux du Cree et avec 3 catégories d’indice de masse corporelle. Les données dans la base d'Inuit ont été recueillies au moyen de deux rappels de 24 heures. Nous avons extrait la quantité de fructose par 100 grammes de nourriture consommés par ces deux populations et nous avons créé des données de composition en nourriture pour les deux. Nous avons pu également déterminer les sources principales du fructose pour ces populations. Aucun rapport entre la consommation du fructose et l’augmentation de l’indice de masse corporelle parmi les adultes de Cree et d'Inuit n’a été détecté. Nous avons considéré l’apport énergétique comme facteur confondant potentiel et après ajustement, nous avons constaté que l'indice de masse corporelle a été associé à l’apport énergétique total et non pas à la consommation du fructose. Puisque dans les études qui ont trouvé une association entre la consommation de fructose et l’obésité, le niveau de la consommation de fructose était supérieure à 50 grammes par jour et comme dans cette étude ce niveau était inférieur à cette limite (entre 20.6 et 45.4 g/jour), nous proposons que des effets negatifs du fructose sur la masse corporelle pourraient être testés dans des populations à plus haute consommation. Les essais cliniques randomisés et éventuelles études cohortes avec différents niveaux de consommation de fructose suivis à long terme pourraient aussi être utiles. Mots clés : fructose, sirop de maïs à haute teneur en fructose (HFCS), obésité et poids excessif / Summary The prevalence of obesity has increased worldwide in recent decades in both children and adults. Different epidemiologic studies have shown that obesity has become a serious health concern in United States and Canada. It has been proved that obesity has many adverse health outcomes so it is important to identify the different causes of weight gain. It is clear that obesity is a multifactor condition and involves both genetic and environmental elements. In this study, we focus on dietary factors, specifically the consumption of fructose that has increased in parallel to the increase in the obesity rate. The main form of fructose in the diet is high fructose corn syrup (HFCS) that is used principally as a sweetener in most beverages and foods in North America. It has been suggested that the intake of fructose may possibly be a contributing factor to the increased incidence of obesity. The objective of this study was to assess if there is a relationship between consumption of fructose and risk of obesity. We worked on two databases. The first database contained 24-hour recall data collected from a sample of 522 Cree adults (263 women and 259 men), divided into two age groups: people between 20 and 40 years old, and people from 40 to 60 years old. We categorized them into four body mass index (BMI) groups. The second database contained data from two 24-hour recalls administered to 550 Inuit adults (301 women and 249 men). These adults were divided into two age groups similar to Cree and with three BMI categories. The amount of fructose per 100 grams of food consumed by these two samples was calculated and we created food composition data for both. We also determined the main sources of fructose in these populations that was sugar sweetened beverages. Based on our results, we could not detect any relationship between consumption of fructose and an increase in BMI among Cree and Inuit adults. We considered energy intake as a potential cofounding factor and, after adjustment, we found that BMI was associated with total energy intake and not with the consumption of fructose. Since in studies that have found this association the level of fructose consumption was more than 50 grams per day but in this study, this level was lower than this limit ( from 20.6 to 45.4 g / day) , we suggest that negative effects of fructose on body weight may appear only at higher dose. Randomized clinical trials and prospective cohort studies using different levels of consumption with long term follow up could be useful. Key words: Fructose, High Fructose Corn Syrup (HFCS), Obesity, and Overweight
993

Étude de la diffusion dans les hydrogels polymères par spectroscopie et imagerie RMN

Thérien-Aubin, Héloïse January 2007 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
994

Mesure et Prévision de la Volatilité pour les Actifs Liquides

Chaker, Selma 04 1900 (has links)
Le prix efficient est latent, il est contaminé par les frictions microstructurelles ou bruit. On explore la mesure et la prévision de la volatilité fondamentale en utilisant les données à haute fréquence. Dans le premier papier, en maintenant le cadre standard du modèle additif du bruit et le prix efficient, on montre qu’en utilisant le volume de transaction, les volumes d’achat et de vente, l’indicateur de la direction de transaction et la différence entre prix d’achat et prix de vente pour absorber le bruit, on améliore la précision des estimateurs de volatilité. Si le bruit n’est que partiellement absorbé, le bruit résiduel est plus proche d’un bruit blanc que le bruit original, ce qui diminue la misspécification des caractéristiques du bruit. Dans le deuxième papier, on part d’un fait empirique qu’on modélise par une forme linéaire de la variance du bruit microstructure en la volatilité fondamentale. Grâce à la représentation de la classe générale des modèles de volatilité stochastique, on explore la performance de prévision de différentes mesures de volatilité sous les hypothèses de notre modèle. Dans le troisième papier, on dérive de nouvelles mesures réalizées en utilisant les prix et les volumes d’achat et de vente. Comme alternative au modèle additif standard pour les prix contaminés avec le bruit microstructure, on fait des hypothèses sur la distribution du prix sans frictions qui est supposé borné par les prix de vente et d’achat. / The high frequency observed price series is contaminated with market microstructure frictions or noise. We explore the measurement and forecasting of the fundamental volatility through novel approaches to the frictions’ problem. In the first paper, while maintaining the standard framework of a noise-frictionless price additive model, we use the trading volume, quoted depths, trade direction indicator and bid-ask spread to get rid of the noise. The econometric model is a price impact linear regression. We show that incorporating the cited liquidity costs variables delivers more precise volatility estimators. If the noise is only partially absorbed, the remaining noise is closer to a white noise than the original one, which lessens misspecification of the noise characteristics. Our approach is also robust to a specific form of endogeneity under which the common robust to noise measures are inconsistent. In the second paper, we model the variance of the market microstructure noise that contaminates the frictionless price as an affine function of the fundamental volatility. Under our model, the noise is time-varying intradaily. Using the eigenfunction representation of the general stochastic volatility class of models, we quantify the forecasting performance of several volatility measures under our model assumptions. In the third paper, instead of assuming the standard additive model for the observed price series, we specify the conditional distribution of the frictionless price given the available information which includes quotes and volumes. We come up with new volatility measures by characterizing the conditional mean of the integrated variance.
995

Etude expérimentale et modélisation de l'influence de la constitution chimique et de la répartition de la pollution sur le contournement des isolateurs haute tension

Slama, Amine 13 July 2011 (has links) (PDF)
Ce travail porte sur la caractérisation optique et électrique ainsi que la modélisation mathématique du contournement d'isolateurs pollués en tenant compte de la forme de tension appliquée, de la répartition ainsi que de la constitution chimique du dépôt polluant. Sous tension de choc de foudre (1,2/50μs), la morphologie des décharges ainsi que les courants associés dépendent de la tension (forme, amplitude, polarité),de la répartition de la pollution et de sa conductivité. Les vitesses moyennes de la décharge mesurées dépendent de la polarité appliquée à la pointe et de la conductivité de la pollution. Le temps critique correspondant aux conditions critiques est de l'ordre de 9/10 du temps total de contournement quelles que soient la polarité de la tension et la conductivité de la pollution. La constitution chimique de la couche de pollution a peu d'effet sur la tension critique contrairement aux courants critiques. Les valeurs des constantes caractéristiques n et N sont fonction de la nature chimique des dépôts et de la polarité de la tension. Le modèle élaboré montre que les constantes caractéristiques de la décharge n et N sont des paramètres dynamiques et dépendent des éléments du circuit électrique équivalent du système et des paramètres thermiques de la décharge. Les relations des conditions critiques du contournement développé relient les paramètres électriques et thermiques du circuit équivalent et la condition de propagation de la décharge. L'application de ce modèle, pour différentes formes de tension et pour plusieurs types de pollution, donne des résultats satisfaisants. L'hypothèse selon laquelle la colonne de la décharge ne contient que de la vapeur d'eau et de l'air constitue une bonne approximation des grandeurs critiques. Sous tension de choc de foudre, les courants et les tensions critiques dépendent de la configuration de la pollution et de la polarité de la tension. Le courant circule à travers une section effective de la pollution. L'introduction de la notion d'épaisseur critique effective et son application au calcul des grandeurs critiques donne de bons résultats pour les cas de figures étudiés. L'épaisseur effective du dépôt est proportionnelle la résistivité de la pollution et dépend dela configuration de la pollution et de la polarité de la pointe. Dans le cas de dépôt de pollution discontinue et/ou non uniforme, les conditions de propagation des décharges sont locales et leurs paramètres caractéristiques varient selon la configuration et la conductivité du dépôt ainsi que la polarité de la tension appliquée. Le modèle développé pour ce cas de figure donne de bons résultats.
996

Comportement vis-à-vis de la corrosion à haute température de métaux (Ti, TA6V) revêtus d'aluminiure de titane

Gateau, Romain 10 December 2010 (has links) (PDF)
Au cours de ce travail, des revêtements intermétalliques TiAlx (x=1,2,3) ont été élaborés sur des substrats à base titane : le titane pur et l'alliage commercial, TA6V. L'objectif était de réaliser des revêtements d'aluminiure en surface et d'étudier le comportement des matériaux revêtus vis-à-vis de l'oxydation à haute température sous air, sous air enrichi en vapeur d'eau et en présence de soufre. Les matériaux revêtus ont été testés à trois températures : 700°C, 800°C et 900°C. Les revêtements ont été réalisés à 1000°C par la méthode de cémentation en caisse. Les revêtements réalisés par ce procédé sont toujours adhérents au substrat. Pendant la réaction d'oxydation, l'existence d'un processus de rétrodiffusion de l'aluminium modifie la nature des phases et l'organisation du revêtement. Les phases TiAl et TiAl2 ne sont pas suffisamment riches en aluminium pour promouvoir la formation d'une couche d'alumine protectrice quelle que soit la température d'oxydation. Lorsque ce sont ces phases qui sont à la surface du revêtement, on assiste toujours à la formation d'une couche superficielle de rutile TiO2. Quand elle constitue la sous-couche externe du revêtement, la phase TiAl3 est assez riche en aluminium pour former une couche d'alumine -Al2O3 couvrante, compacte et protectrice.
997

Ordonnancement de E/S transversal : des applications à des dispositifs / Transversal I/O Scheduling : from Applications to Devices / Escalonamento de E/S Transversal para Sistemas de Arquivos Paralelos : das Aplicações aos Dispositivos

Zanon Boito, Francieli 30 March 2015 (has links)
Ordonnancement d’E/S Transversal pour les Systèmes de Fichiers Parallèles : desApplications aux DispositifsCette thèse porte sur l’utilisation de l’ordonnancement d’Entrées/Sorties (E/S) pour atténuer leseffets d’interférence et améliorer la performance d’E/S des systèmes de fichiers parallèles. Ilest commun pour les plates-formes de calcul haute performance (HPC) de fournir une infrastructurede stockage partagée pour les applications qui y sont hébergées. Dans cette situation,où plusieurs applications accèdent simultanément au système de fichiers parallèle partagé, leursaccès vont souffrir de l’interférence, ce qui compromet l’efficacité des stratégies d’optimisationd’E/S.Nous avons évalué la performance de cinq algorithmes d’ordonnancement dans les serveurs dedonnées d’un système de fichiers parallèle. Ces tests ont été exécutés sur différentes platesformeset sous différents modèles d’accès. Les résultats indiquent que la performance des ordonnanceursest affectée par les modèles d’accès des applications, car il est important pouraméliorer la performance obtenue grâce à un algorithme d’ordonnancement de surpasser sessurcoûts. En même temps, les résultats des ordonnanceurs sont affectés par les caractéristiquesdu système d’E/S sous-jacent - en particulier par des dispositifs de stockage. Différents dispositifsprésentent des niveaux de sensibilité à la séquentialité et la taille des accès distincts, ce quipeut influencer sur le niveau d’amélioration de obtenue grâce à l’ordonnancement d’E/S.Pour ces raisons, l’objectif principal de cette thèse est de proposer un modèle d’ordonnancementd’E/S avec une double adaptabilité : aux applications et aux dispositifs. Nous avons extraitdes informations sur les modèles d’accès des applications en utilisant des fichiers de trace,obtenus à partir de leurs exécutions précédentes. Ensuite, nous avons utilisé de l’apprentissageautomatique pour construire un classificateur capable d’identifier la spatialité et la taille desaccès à partir du flux de demandes antérieures. En outre, nous avons proposé une approche pourobtenir efficacement le ratio de débit séquentiel et aléatoire pour les dispositifs de stockage enexécutant des benchmarks pour un sous-ensemble des paramètres et en estimant les restantsavec des régressions linéaires.Nous avons utilisé les informations sur les caractéristiques des applications et des dispositifsde stockage pour décider automatiquement l’algorithme d’ordonnancement le plus appropriéen utilisant des arbres de décision. Notre approche améliore les performances jusqu’à 75% parrapport à une approche qui utilise le même algorithme d’ordonnancement dans toutes les situations,sans capacité d’adaptation. De plus, notre approche améliore la performance dans 64%de scénarios en plus, et diminue les performances dans 89% moins de situations. Nos résultatsmontrent que les deux aspects - des applications et des dispositifs - sont essentiels pour faire desbons choix d’ordonnancement. En outre, malgré le fait qu’il n’y a pas d’algorithme d’ordonnancementqui fournit des gains de performance pour toutes les situations, nous montrons queavec la double adaptabilité il est possible d’appliquer des techniques d’ordonnancement d’E/Spour améliorer la performance, tout en évitant les situations où cela conduirait à une diminutionde performance. / This thesis focuses on I/O scheduling as a tool to improve I/O performance on parallel file systemsby alleviating interference effects. It is usual for High Performance Computing (HPC)systems to provide a shared storage infrastructure for applications. In this situation, when multipleapplications are concurrently accessing the shared parallel file system, their accesses willaffect each other, compromising I/O optimization techniques’ efficacy.We have conducted an extensive performance evaluation of five scheduling algorithms at aparallel file system’s data servers. Experiments were executed on different platforms and underdifferent access patterns. Results indicate that schedulers’ results are affected by applications’access patterns, since it is important for the performance improvement obtained througha scheduling algorithm to surpass its overhead. At the same time, schedulers’ results are affectedby the underlying I/O system characteristics - especially by storage devices. Differentdevices present different levels of sensitivity to accesses’ sequentiality and size, impacting onhow much performance is improved through I/O scheduling.For these reasons, this thesis main objective is to provide I/O scheduling with double adaptivity:to applications and devices. We obtain information about applications’ access patternsthrough trace files, obtained from previous executions. We have applied machine learning tobuild a classifier capable of identifying access patterns’ spatiality and requests size aspects fromstreams of previous requests. Furthermore, we proposed an approach to efficiently obtain thesequential to random throughput ratio metric for storage devices by running benchmarks for asubset of the parameters and estimating the remaining through linear regressions.We use this information on applications’ and storage devices’ characteristics to decide the bestfit in scheduling algorithm though a decision tree. Our approach improves performance byup to 75% over an approach that uses the same scheduling algorithm to all situations, withoutadaptability. Moreover, our approach improves performance for up to 64% more situations, anddecreases performance for up to 89% less situations. Our results evidence that both aspects- applications and storage devices - are essential for making good scheduling choices. Moreover,despite the fact that there is no scheduling algorithm able to provide performance gainsfor all situations, we show that through double adaptivity it is possible to apply I/O schedulingtechniques to improve performance, avoiding situations where it would lead to performanceimpairment. / Esta tese se concentra no escalonamento de operações de entrada e saída (E/S) como uma soluçãopara melhorar o desempenho de sistemas de arquivos paralelos, aleviando os efeitos dainterferência. É usual que sistemas de computação de alto desempenho (HPC) ofereçam umainfraestrutura compartilhada de armazenamento para as aplicações. Nessa situação, em quemúltiplas aplicações acessam o sistema de arquivos compartilhado de forma concorrente, osacessos das aplicações causarão interferência uns nos outros, comprometendo a eficácia de técnicaspara otimização de E/S.Uma avaliação extensiva de desempenho foi conduzida, abordando cinco algoritmos de escalonamentotrabalhando nos servidores de dados de um sistema de arquivos paralelo. Foramexecutados experimentos em diferentes plataformas e sob diferentes padrões de acesso. Osresultados indicam que os resultados obtidos pelos escalonadores são afetados pelo padrão deacesso das aplicações, já que é importante que o ganho de desempenho provido por um algoritmode escalonamento ultrapasse o seu sobrecusto. Ao mesmo tempo, os resultados doescalonamento são afetados pelas características do subsistema local de E/S - especialmentepelos dispositivos de armazenamento. Dispositivos diferentes apresentam variados níveis desensibilidade à sequencialidade dos acessos e ao seu tamanho, afetando o quanto técnicas deescalonamento de E/S são capazes de aumentar o desempenho.Por esses motivos, o principal objetivo desta tese é prover escalonamento de E/S com duplaadaptabilidade: às aplicações e aos dispositivos. Informações sobre o padrão de acesso dasaplicações são obtidas através de arquivos de rastro, vindos de execuções anteriores. Aprendizadode máquina foi aplicado para construir um classificador capaz de identificar os aspectosespacialidade e tamanho de requisição dos padrões de acesso através de fluxos de requisiçõesanteriores. Além disso, foi proposta uma técnica para obter eficientemente a razão entre acessossequenciais e aleatórios para dispositivos de armazenamento, executando testes para apenas umsubconjunto dos parâmetros e estimando os demais através de regressões lineares.Essas informações sobre características de aplicações e dispositivos de armazenamento são usadaspara decidir a melhor escolha em algoritmo de escalonamento através de uma árvore dedecisão. A abordagem proposta aumenta o desempenho em até 75% sobre uma abordagem queusa o mesmo algoritmo para todas as situações, sem adaptabilidade. Além disso, essa técnicamelhora o desempenho para até 64% mais situações, e causa perdas de desempenho em até 89%menos situações. Os resultados obtidos evidenciam que ambos aspectos - aplicações e dispositivosde armazenamento - são essenciais para boas decisões de escalonamento. Adicionalmente,apesar do fato de não haver algoritmo de escalonamento capaz de prover ganhos de desempenhopara todas as situações, esse trabalho mostra que através da dupla adaptabilidade é possívelaplicar técnicas de escalonamento de E/S para melhorar o desempenho, evitando situações emque essas técnicas prejudicariam o desempenho.
998

Étude des tachykinines et de leurs dérivés peptidiques associés à la douleur neuropathique grâce à l'utilisation de modèles animaux et de la chromatographie en phase liquide couplée à la spectrométrie de masse

Pailleux, Floriane 20 December 2013 (has links) (PDF)
La gestion de la douleur neuropathique reste un challenge en médecine, malgré le nombre de traitements actuellement disponible. L'expérimentation animale a généré beaucoup d'informations concernant la douleur, mais ces connaissances demeurent insuffisantes pour développer de nouveaux analgésiques plus efficaces tout en restant sécuritaires. La douleur est un symptôme clinique complexe avec de multiples origines, et les mécanismes de douleur centraux et périphériques dépendent de l'évolution de la pathologie. Il est donc essentiel d'investiguer plus profondément les mécanismes moléculaires responsables de l'initiation et du maintien de la douleur, afin de cibler de nouvelles voies de transmission de la nociception plus prometteuses pour soulager la neuropathie et développer de meilleures stratégies thérapeutiques. Ce projet s'est donc intéressé plus particulièrement à la famille des tachykinines issues du gène TAC1 (substance P, ses précurseurs et métabolites, et neurokinine A sont les peptides ciblés pour ce projet de recherche), une famille de neuropeptides qui joue un rôle critique dans la transmission nociceptive. Pour réaliser cette étude, nous avons d'abord développé une stratégie de quantification afin de quantifier les expressions des différents neuropeptides bioactifs cibles, par HPLCMS/ MS. Puisqu'il existe différentes stratégies de quantification des peptides par HPLCMS/ MS, une méthode analytique fiable et robuste était nécessaire pour répondre aux objectifs de recherche. Nous avons développé une méthode utilisant la quantification relative avec un étalon interne stable marqué isotopiquement. En effet, pour quantifier les neuropeptides d'intérêt de l'étude, c'est la stratégie qui s'est avérée la plus reproductible et précise. Suite à la mise au point de la stratégie de quantification, nous avons utilisé des modèles animaux, souvent nécessaires pour faire progresser la recherche scientifique sur la compréhension de la douleur
999

Propriétés élastiques des minéraux hydratés : applications à l'anisotropie sismique dans les zones de subduction

Bezacier, Lucile 01 April 2011 (has links) (PDF)
La circulation de matière et la signature sismique des zones de subduction sont fortement dépendantes despropriétés élastiques de deux grands types de minéraux hydratés : les serpentines (antigorite, lizardite etchrysotile) provenant de l'hydratation des minéraux du manteau et le glaucophane, minéral marqueur des schistesbleus et éclogites, faciès métamorphiques caractéristiques des zones de subduction. La détection de ces phasesest parfois difficile. Il est nécessaire de connaître leurs propriétés élastiques afin de mieux comprendre lesimages sismiques acquises. L'objectif de cette thèse est de mesurer et de calculer les propriétés élastiques deminéraux hydratés par la spectroscopie Brillouin (dans le cas de l'antigorite et du glaucophane) et par les calculsab initio (pour la lizardite). Caractériser au mieux ces propriétés permet de les relier à la sismicité dans les zonesde subduction et notamment aux zones de faibles vitesses détectées par diverses méthodes sismiques. Nosmesures ont été réalisées à l'ambiante pour l'antigorite et le glaucophane et à haute pression pour l'antigorite encellule à enclumes de diamants. Les mesures élastiques ont ensuite été couplées à des mesures d'orientationspréférentielles par Electron Back-Scattered Diffraction. Ceci a permis de quantifier l'anisotropie élevée(AVP=37% et AVS=50%) dans la roche totale ainsi que les vitesses sismiques faibles des ondes P et S. Nousavons pu ainsi relier le décalage des ondes S aux retards observés par sismique dans la zone de subduction deRyukyu (Japon). Les observations sismiques montrent que la serpentine est présente dans les zones où lasismicité est faible et apparaît non seulement comme un minéral essentiel des zones de subduction mais en pluscomme un "lubrifiant" permettant aux couches de glisser les unes sur les autres sans engendrer de séismes. Pourle glaucophane, les schistes bleus présentent une anisotropie plus élevée que les éclogites à glaucophane maisces roches sont toutefois difficiles à détecter avec la profondeur, du fait de leurs vitesses élevées comparables àcelles du manteau environnant. Nos calculs par méthode ab initio portent sur un analogue de l'antigorite, lalizardite pour laquelle nous avons établi les constantes élastiques à diverses pressions et en présence de fer ounon. Nous avons mis en évidence une anomalie élastique vers 5 GPa pour la lizardite et 7 GPa pour l'antigorite,que nous avons confirmée ensuite par des mesures de spectroscopies Brillouin et Raman à haute pression.
1000

Astrophysique de laboratoire avec les lasers de haute énergie et de haute puissance : des chocs radiatifs aux jets d'étoiles jeunes

Dizière, Alexandra 20 February 2012 (has links) (PDF)
L'astrophysique de laboratoire est un domaine de la Physique des Hautes Densités d'Énergie en plein essor. Elle vise à recréer en laboratoire des processus physiques difficilement accessibles avec les diagnostics astronomiques. Nous aborderons, dans cette thèse, trois sujets majeurs: 1) les jets issus d'étoiles jeunes caractérisés par une collimation importante et se terminant par un choc d'étrave; 2) les chocs radiatifs pour lesquels le rayonnement propre du choc joue une rôle prépondérant dans sa structure et 3) les chocs d'accrétion dans le cas des variables cataclysmiques magnétiques dont l'important facteur de refroidissement permet d'atteindre la stationnarité. De la conception à la réalisation expérimentale, nous nous attacherons à reproduire en laboratoire chacun de ces processus en respectant les lois d'échelle liant les deux situations (expérimentale et astrophysique) précédemment établies. L'implémentation d'un grand nombre de diagnostics visibles et X nous permettra enfin de les caractériser complètement et de calculer les nombres sans dimension assurant la pertinence astrophysique.

Page generated in 0.2028 seconds