• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2987
  • 1240
  • 249
  • 3
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 4405
  • 1262
  • 857
  • 763
  • 729
  • 538
  • 497
  • 476
  • 472
  • 450
  • 340
  • 336
  • 312
  • 303
  • 294
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Caractérisation des cellules interstitielles des quatre différentes valves cardiaques chez le porc

Bouchard Martel, Joanie 13 April 2018 (has links)
La sténose aortique (SA) est la maladie valvulaire la plus importante des pays industrialisés et la troisième en importance au niveau des maladies cardiovasculaires. Cette maladie dégénérative entraîne un épaississement des feuillets valvulaires menant, dans certains cas, à la calcification de ceux-ci. Malheureusement, dans les débuts de la maladie, les effets néfastes de ces modifications sur la valve sont asymptomatiques et lorsque le diagnostic est posé, en raison des symptômes, il ne reste souvent qu'un traitement possible : le remplacement valvulaire. Plusieurs études sont aujourd'hui centrées sur la pathogénèse de la SA, mais très peu d'entre elles se sont intéressées à investiguer pourquoi la valve aortique (VA), parmi les quatre valves cardiaques, est celle qui se calcifié le plus rapidement. Cette étude cherche donc à identifier des différences entre la VA normale et les trois aux autres valves, pouvant expliquer sa propension à calcifier
52

Intégration de métasurfaces dans le processus de conception optique

Cléroux Cuillerier, Alexandre 14 September 2022 (has links)
L'arrivée au début du millénaire des métasurfaces offre une approche novatrice à la manipulation des ondes électromagnétiques. De l'interaction du front d'onde incident et des méta-atomes, structures fondamentales de la métasurface, émerge des propriétés optiques exotiques que l'on ne retrouve pas chez des matériaux ordinaires. Bien que cette technologie promette de s'affranchir des limitations de l'optique classique, l'intégration de métasurfaces à des systèmes optiques déjà existants demeure une avenue peu explorée. Toutefois, de récents développements dans la modélisation de métasurfaces auraient le potentiel de promouvoir cette intégration. En effet, par la conjonction de modèles et d'outils de conception optique traditionnelle, il serait possible d'extraire efficacement les propriétés optiques de métasurfaces au cœur d'un système optique complexe. Ce projet propose donc une méthode d'intégration des métasurfaces en conception optique grâce à des modèles semi-analytiques permettant de caractériser des structures rectangulaires et cylindriques agissant comme méta-atomes. De cette façon, les propriétés des méta-atomes utiles à la conception optique ont pu être étudiées. En plus de pouvoir obtenir les dimensions de structures permettant à la métasurface d'opérer adéquatement, les comportements de ces structures sous différentes conditions d'illumination ont été établis. Des analyses subséquentes sur la performance et la dispersion chromatique de métalentilles ont révélé des particularités fondamentalement distinctes de l'optique classique. Pour conclure, une démonstration de systèmes combinant métasurfaces avec éléments réfractifs a servi de preuve de concept pour la méthode proposée de conception optique exploitant les métasurfaces de manière avantageuse. / The arrival at the beginning of the millennium of metasurfaces offers an innovative approach to the manipulation of electromagnetic waves. From the interaction of the incident wavefront and the meta-atoms, fundamental structures of the metasurface, emerge exotic optical properties not found in ordinary materials. Although this technology promises to overcome the limitations of conventional optics, the integration of metasurfaces into existing optical systems remains an unexplored avenue. However, recent developments in metasurface modelling have the potential to promote this integration. Indeed, by combining models and traditional optical design tools, it would be possible to efficiently extract the optical properties of metasurfaces within a complex optical system. This project proposes a method for integrating metasurfaces in optical design using semi-analytical models to characterize rectangular and cylindrical structures acting as meta-atoms. In this way, the properties of meta-atoms useful for optical design could be studied. In addition to being able to obtain the dimensions of structures allowing the metasurface to operate adequately, the behavior of these structures under different illumination conditions has been established. Subsequent analyzes of the performance and chromatic dispersion of metalenses have revealed features fundamentally distinct from conventional optics. To conclude, demonstrations of systems combining metasurfaces with refractive elements served as proof of concept for the proposed method of optical design exploiting metasurfaces in an advantageous way.
53

Automated medical scheduling : fairness and quality

Picard-Cantin, Émilie 31 January 2021 (has links)
Dans cette thèse, nous étudions les façons de tenir compte de la qualité et de l’équité dans les algorithmes de confection automatique d’horaires de travail. Nous découpons ce problème en deux parties. La modélisation d’un problème d’horaires permet de créer des horaires plus rapidement qu’un humain peut le faire manuellement, puisqu’un ordinateur peut évaluer plusieurs horaires simultanément et donc prendre des décisions en moins de temps. La première partie du problème étudié consiste à améliorer la qualité des horaires en encodant des contraintes et des préférences à l’aide de modèles mathématiques. De plus, puisque la création est plus rapide à l’aide d’un ordinateur, il est plus facile pour un ordinateur de trouver l’horaire ayant la meilleure qualité lorsque les règles et préférences sont clairement définies. Toutefois, déterminer les règles et préférences d’un groupe de personne n’est pas une tâche facile. Ces individus ont souvent de la difficulté à exprimer formellement leurs besoins et leurs préférences. Par conséquent, la création d’un bon modèle mathématique peut prendre beaucoup de temps, et cela même pour un expert en création d’horaires de travail. C’est pourquoi la deuxième partie de cette thèse concerne la réduction du temps de modélisation à l’aide d’algorithmes capable d’apprendre un modèle mathématique à partir de solutions données comme par exemple, dans notre cas, des horaires de travail. / In this thesis, we study the ways to take quality and fairness into account in the algorithms of automatic creation of work schedules. We separate this problem into two subproblems. The modeling of a scheduling problem allows a faster creation of schedules than what a human can produce manually. A computer can generate and evaluate multiple schedules at a time and therefore make decisions in less time. This first part of the studied problem consists in improving the quality of medical schedules by encoding constraints and preferences using mathematical models. Moreover, since the creation is faster, it is easier for a computer to find the schedule with the highest quality when the rules and the preferences are clearly defined. However, determining the rules and preferences of a group of people is not an easy task. Those individuals often have difficulties formally expressing their requirements and preferences. Therefore, the creation a good mathematical model might take a long time, even for a scheduling expert. This is why the second part of this thesis concerns the reduction of modeling time using algorithms able to learn mathematical models from given solutions, in our case schedules.
54

Essays on Social Networks and Time Series with Structural Breaks

Houndetoungan, Elysée Aristide 05 July 2021 (has links)
Cette thèse, structurée en trois (03) essais, développe de nouveaux modèles économétriques pour l'analyse des interactions sociales et des séries temporelles. Le premier chapitre (coécrit avec le Professeur Vincent Boucher) étudie une méthode d'estimation des effets de pairs à travers les réseaux sociaux lorsque la structure du réseau n'est pas observée. Nous supposons que nous connaissons (avons une estimation convergente de) la distribution du réseau. Nous montrons que cette hypothèse est suffisante pour l'estimation des effets de pairs en utilisant un modèle linéaire en moyennes. Nous proposons un estimateur de variables instrumentales et un estimateur bayésien. Nous présentons et discutons des exemples importants où notre méthodologie peut être appliquée. Nous présentons également une application avec la base de données Add Health largement utilisée et qui comporte de nombreux liens non observés. Nous estimons un modèle des effets de pairs sur la réussite scolaire des élèves. Nous montrons que notre estimateur bayésien reconstruit les liens manquants et permet d'obtenir une estimation valide des effets de pairs. En particulier, nous montrons qu'ignorer les liens manquants sous-estime l'effet endogène des pairs sur la réussite scolaire. Dans le deuxième chapitre, je présente un modèle structurel des effets de pairs dans lequel la variable dépendante est de type comptage (nombre de cigarettes fumées, fréquence des visites au restaurant, fréquence de participation aux activités). Le modèle est basé sur un jeu statique à information incomplète dans lequel, les individus interagissent à travers un réseau dirigé et sont influencés par leur croyance sur la décision de leurs pairs. Je présente des conditions suffisantes sous lesquelles l'équilibre du jeu est unique. Je montre que l'utilisation du modèle spatial autorégressif (SAR) linéaire-en-moyennes ou du modèle Tobit SAR pour estimer les effets de pairs sur des variables de comptage générées à partir du jeu sous-estime asymptotiquement les effets de pairs. Le biais d'estimation diminue lorsque la dispersion de la variable de comptage augmente. Je propose également une application empirique. J'estime les effets de pairs sur le nombre d'activités parascolaires auxquelles les étudiants sont inscrits. En contrôlant l'endogénéité du réseau, je trouve que l'augmentation du nombre d'activités dans lesquelles les amis d'un étudiant sont inscrits d'une unité implique une augmentation du nombre d'activités dans lesquelles l'étudiant est inscrit de 0,295. Je montre également que les effets de pairs sont sous-estimés à 0,150 lorsqu'on ignore la nature de comptage de la variable dépendante. Le troisième chapitre (coécrit avec le Professeur Arnaud Dufays et le Professeur Alain Coen) présente une approche de modélisation de séries temporelles. Les processus avec changements structurels sont une approche flexible pour modéliser des longues séries chronologiques. En considérant un modèle linéaire en moyennes, nous proposons une méthode qui relâche l'hypothèse selon laquelle une cassure structurelle dans une série temporelle implique un changement de tous les paramètres du modèle. Pour ce faire, nous estimons d'abord les dates de cassures potentielles présentées par la série, puis nous utilisons une régression pénalisée pour détecter les paramètres du modèle qui changent à chaque date de cassure. Étant donné que certains segments de la régression peuvent être courts, nous optons pour une fonction de pénalité(presque) non biaisée, appelée fonction de pénalité seamless-L0(SELO). Nous montrons que l'estimateur SELO détecte de manière convergente les paramètres qui varient à chaque cassure et nous proposons d'utiliser un algorithme de maximisation d'espérance de recuit déterministe (DAEM) pour traiter la multimodalité de la fonction objectif. Étant donné que la fonction de pénalité SELO dépend de deux paramètres, nous utilisons un critère pour choisir les meilleurs paramètres et par conséquent le meilleur modèle. Ce nouveau critère présente une interprétation bayésienne qui permet d'évaluer l'incertitude des paramètres ainsi que l'incertitude du modèle. Les simulations de Monte Carlo montrent que la méthode fonctionne bien pour de nombreux modèles de séries temporelles, y compris des processus hétéroscédastiques. Pour un échantillon de 14 stratégies de hedge funds (HF), utilisant un modèle de tarification basé sur l'actif, nous mettons en exergue la capacité prometteuse de notre méthode à détecter la dynamique temporelle des expositions au risque ainsi qu'à prévoir les rendements HF. / This dissertation, composed of three (03) separate chapters, develops new econometric models for peer effects analysis and time series modelling. The first chapter (a joint work with Professor Vicent Boucher) studies a method for estimating peer effects through social networks when researchers do not observe the network structure. We assume that researchers know (a consistent estimate of) the distribution of the network. We show that this assumption is sufficient for the estimation of peer effects using a linear-in-means model. We propose an instrumental variables estimator and a Bayesian estimator. We present and discuss important examples where our methodology can be applied. We also present an application with the widely used Add Health database which presents many missing links. We estimate a model of peer effects on students' academic achievement. We show that our Bayesian estimator reconstructs these missing links and leads to a valid estimate of peer effects. In particular, we show that disregarding missing links underestimates the endogenous peer effect on academic achievement. In the second chapter, I present a structural model of peer effects in which the dependent variable is counting (Number of cigarettes smoked, frequency of restaurant visits, frequency of participation in activities). The model is based on a static game with incomplete information in which individuals interact through a directed network and are influenced by their belief over the choice of their peers. I provide sufficient conditions under which the equilibrium of the game is unique. I show that using the standard linear-in-means spatial autoregressive (SAR) model or the SAR Tobit model to estimate peer effects on counting variables generated from the game asymptotically underestimates the peer effects. The estimation bias decreases when the range of the dependent counting variable increases. I estimate peer effects on the number of extracurricular activities in which students are enrolled. I find that increasing the number of activities in which a student's friends are enrolled by one implies an increase in the number of activities in which the student is enrolled by 0.295, controlling for the endogeneity of the network. I also show that the peer effects are underestimated at 0.150 when ignoring the counting nature of the dependent variable. The third chapter (a joint work with Professor Arnaud Dufays and Professor Alain Coen) presents an approach for time series modelling. Change-point (CP) processes are one flexible approach to model long time series. Considering a linear-in-means models, we propose a method to relax the assumption that a break triggers a change in all the model parameters. To do so, we first estimate the potential break dates exhibited by the series and then we use a penalized likelihood approach to detect which parameters change. Because some segments in the CP regression can be small, we opt for a (nearly) unbiased penalty function, called the seamless-L0 (SELO) penalty function. We prove the consistency of the SELO estimator in detecting which parameters indeed vary over time and we suggest using a deterministic annealing expectation-maximisation (DAEM) algorithm to deal with the multimodality of the objective function. Since the SELO penalty function depends on two tuning parameters, we use a criterion to choose the best tuning parameters and as a result the best model. This new criterion exhibits a Bayesian interpretation which makes possible to assess the parameters' uncertainty as well as the model's uncertainty. Monte Carlo simulations highlight that the method works well for many time series models including heteroskedastic processes. For a sample of 14 Hedge funds (HF) strategies, using an asset based style pricing model, we shed light on the promising ability of our method to detect the time-varying dynamics of risk exposures as well as to forecast HF returns.
55

Implication des récepteurs glutamatergiques NMDA dans la réponse respiratoire et métabolique ainsi que la thermorégulation chez les ratons soumis à l'hypoxie

Mirza, Shafiulla Baig 12 April 2018 (has links)
Le principal objectif de cette étude est de comprendre l'implication des récepteurs NMDA glutamatergiques dans les réponses respiratoires, métaboliques et de thermorégulation en hypoxie au cours du développement. Le glutamate est un des neurotransmetteur excitateur le plus important du système nerveux central, et est impliqué dans de nombreuses fonctions physiologiques, incluant la thermorégulation. Les effets du glutamate sur la thermorégulation dépendent des récepteurs NMDA. Nous avons donc réalisé des enregistrements de ventilation, de métabolisme (consommation d'oxygène et production de CO2) et de température rectale en normoxie et en réponse à une brève hypoxie (12% 02 - 30 minutes) chez des rats mâles et femelles au cours du développement (4, 10 et 20 jours postnatal) et chez l'adulte, après une injection de solution saline ou de MK-801 un antagoniste des récepteurs NMDA. Nos résultats montrent que la régulation de la température corporelle en hypoxie dépend de l'activation des récepteurs NMDA glutamatergiques chez les rats pré pubères. Cet effet augmente avec l'âge: i.e. il est faible chez les animaux âgés de 4 jours et plus important chez les animaux de 20 jours, puis disparaît chez l'adulte. À l'opposé, les récepteurs NMDA sont impliqués dans la réponse ventilatoire à l'hypoxie chez l'adulte, mais pas chez les nouveaux-nés. / The major objective of our present study was to understand the implication of NMDA glutamate receptors in respiratory, metabolic and thermoregulatory responses to hypoxia during development in rats. Glutamate is one of the most important excitatory neurotransmitter, and is involved in numerous physiological processes, including thermoregulation and this is mimicked by specific NMDA glutamate receptors activation and abolished by a specific NMDA glutamate receptor antagonist - MK-801. We recorded ventilation, metabolism (oxygen consumption, carbon dioxide production) and rectal temperature under normoxia and following acute hypoxia in male and female rats during development (P4, P10, P20 and Adults), receiving either saline or the NMDA glutamate receptor antagonist MK-801 (i.p. injection). Our studies have shown that the regulation of body temperature during hypoxia is depends on the activation of the NMDA glutamate receptors in pre-weaning rats and this dependence is increased with the age i.e. the dependence is less in younger P4 rat pups and more in mature P21 pups. Vice Versa, NMDA glutamate receptors are involved in the regulation of hypoxic ventilatory response in adults and not apparent in younger animals.
56

A new mouse model of giant axonal neuropathy suitable for therapeutic testing

Nath, Banshi 18 April 2024 (has links)
Titre de l'écran-titre (visionné le 12 avril 2024) / 8 vidéos en format .avi . Supplementary video file 1 and 2 represents mitochondrial time-lapse recording of Wt and Gan-/- DRG neurons. Supplementary video file 3 and 4 represents lysosomal time-lapse recording of Wt and Gan-/- DRG neurons. Supplementary video file 5 and 6 represents mitochondrial timelapse recording of vehicle (DMSO) and TubA (1μM) treated Gan-/- DRG neurons. Supplementary video file 7 and 8 represent lysosomes time-lapse recording of vehicle (DMSO) and TubA (1μM) treated Gan-/- DRG neurons. / La neuropathie axonale géante (GAN) est une maladie neurodégénérative autosomique récessive mortelle. Les phénotypes d'apparition de la GAN sont des déficits des voies sensorielles et motrices qui évoluent vers l'aréflexie, la perte de la sensibilité profonde et superficielle, l'altération de la démarche, la perte de déplacement autonome et la mort dans les 10 à 30 ans. La gigaxonine est un adaptateur spécifique de substrat des protéines de la famille Cul3-E3 ligase qui favorise la dégradation des protéines du cytosquelette par médiation protéasomale, notamment des protéines de la famille des filaments intermédiaires (IFs). La perte de fonction de la protéine gigaxonine entraîne l'agrégation des protéines des neurofilaments (NFs) dans le système nerveux central (SNC) et le système nerveux périphérique (SNP). La biopsie du nerf sural de patients atteints de GAN a révélé une accumulation massive de IFs provoquant un gonflement des axones, une caractéristique typique de la maladie de GAN. Des fibroblastes humains et des motoneurones iPSc cultivés in vitro ont présenté une accumulation importante de IFs en l'absence de gigaxonine. En outre, les souris knock-out à la gigaxonine présentaient des niveaux accrus de protéines NFs dans le cerveau, la moelle épinière et le nerf sciatique entre l'âge de 3 et 18 mois. Malgré l'accumulation de NFs, ces souris n'ont pas développé de phénotypes typiques de la maladie de la GAN. De plus, les axones géants étaient absents chez ces animaux. Il est bien établi que les NFs jouent un rôle important dans le SNC et le SNP en maintenant le cytosquelette neuronal, la régulation synaptique et le transport axonal. Cependant, nous ne savons toujours pas dans quelle mesure les accumulations de NFs contribuent à la maladie de la GAN. Des études antérieures ont révélé que la formation d'accumulations de NF est parfois associée à un transport axonal défectueux. Dans la maladie de Charcot-Marie-Tooth, il a été constaté que les mutations du gène *NEFL* encodant la sous-unité légère des neurofilaments (Nefl) provoquaient des accumulations de NFs et des défauts dans le transport axonal. En outre, la cultivation des neurones présentant des NFs désorganisés en raison de la surexpression du gène *PRPH* encodant la périphérine (Prph) dans des cellules portant un knock-out du gène Nefl ont présenté un transport axonal des organelles aberrant. Dans cette étude, nous avons généré une souris double transgénique de la maladie de GAN qui est basée sur le croisement de souris transgéniques surexprimant la périphérine (souris TgPer) dans un contexte de portant un knock-out du gène encodant gigaxonine (GanGan$^\textup{-/-}$). Les souris GanGan$^\textup{-/-}$;TgPer obtenues développent à un jeune âge des accumulations de IFs composées des protéines NFs et Prph provoquant le gonflement des motoneurones. En outre, les souris GanGan$^\textup{-/-}$;TgPer présentent des déficits cognitifs et moteurs à l'âge de 12 mois. La microscopie a révélé une perte substantielle du calibre des neurones et des axones chez ces souris. De manière intéressante, des axones géants (≥160µm²) remplis de IF désorganisés ont également été trouvés chez ces souris, une caractéristique typique de la maladie de le GAN. En outre, nous avons également examiné les effets de l'agrégation des NF sur le transport axonal. L'imagerie de cultures de neurones des ganglions spinaux (neurones DRG) GanGan$^\textup{-/-}$ a montré un transport axonal défectueux des mitochondries et des lysosomes. De plus, le traitement avec la Tubastatine A (TubA) a augmenté les niveaux de tubuline acétylée et a restauré le transport axonal normal des mitochondries et des lysosomes dans ces neurones DRG en culture. Nous avons également testé l'effet du médicament TubA chez les souris GanGan$^\textup{-/-}$ ;TgPer. À l'âge de 12 mois, le traitement au TubA des souris GanGan$^\textup{-/-}$;TgPer pendant quelques semaines a entraîné une légère amélioration de la fonction motrice, et en particulier une amélioration significative de la démarche. En conclusion, nous avons réussi à générer un modèle murin de la maladie de la GAN présentant une désorganisation des NF, des déficits cognitifs et un dysfonctionnement moteur. De plus, nous avons montré que la déficience en gigaxonine entraîne une désorganisation des NF ainsi qu'une altération du transport axonal antérograde des organelles. Les souris GanGan$^\textup{-/-}$;TgPer devraient être utiles pour étudier les changements pathogéniques associés à la maladie de la GAN et pour tester des médicaments potentiels. / Giant axonal neuropathy (GAN) is a fatal autosomal recessive neurodegenerative disease. Onset phenotypes of GAN are sensory and motor tract deficits which progress into areflexia, loss of deep and superficial sensitivity, gait impairment, loss of ambulance, and death occurs within 10-30 years of the phenotypic onset. Gigaxonin is a substrate-specific adaptor of the Cul3-E3 ligase family proteins that promotes proteasomal-mediated-degradation of cytoskeletal proteins including intermediate filament (IF) family proteins. Loss of function in gigaxonin protein causes the aggregation of neurofilament (NF) proteins in the central nervous system (CNS) and in the peripheral nervous system (PNS). Sural nerve biopsy of GAN patients revealed massive accumulation of IFs causing swelling of axons, a typical characteristic of GAN disease. *In vitro* cultured human fibroblasts and iPSc motor neurons exhibit severe accumulation of IFs in absence of gigaxonin. Further, gigaxonin knockout mice shows increased levels of NF proteins in brain, spinal cord, and sciatic nerve from the age 3 to 18 months. Despite NF accumulations these mice did not develop overt phenotypes of GAN disease. Moreover, giant axons were absent in these animals. It is well established that NFs play an important role in CNS and PNS in maintaining the neuronal cytoskeletal, synaptic regulation, and axonal transport. Yet, it remains unknown to what extent NF accumulations contribute to the GAN disease. Past studies revealed that the formation of NF accumulations is sometimes associated with defective axonal transport. In Charcot-Marie-Tooth disease mutations in the neurofilament, *NEFL* gene were found to cause accumulations of NFs and defects in axonal transport. In addition, cultured neurons with disorganized NFs due to overexpression of *PRPH* gene in the context of *NEFL* knockout exhibited aberrant axonal transport of organelles. In the present study, we have generated a double transgenic mouse model of GAN disease which is based on the crossing of transgenic mice overexpressing peripherin protein (TgPer) in context of gigaxonin knockout (GanGan$^\textup{-/-}$). The resulting GanGan$^\textup{-/-}$;TgPer mice at a young age develop IF accumulations made up of NF and Prph proteins causing the swelling of the spinal neurons. In addition, GanGan$^\textup{-/-}$;TgPer mice exhibited cognitive and sensory-motor deficits at 12 months of age. Microscopy has revealed substantial neuronal and axon caliber loss in these mice. Interestingly, giant axons (≥160µm²) were also found in these mice filled with disorganized IF, a typical characteristic of GAN disease. In addition, we have also examined the effects of NF aggregation on axonal transport. Live cell imaging has shown defective axonal transport of mitochondria and lysosomes in GanGan$^\textup{-/-}$ cultured DRG neurons. Further, the treatment with Tubastatin A (TubA) increased the levels of acetylated tubulin and restored normal axonal transport of mitochondria and lysosomes in these cultured DRG neurons. Furthermore, we also tested the effect of the TubA drug in GanGan$^\textup{-/-}$ ;TgPer mice. At 12 months of age, TubA treatment of GanGan$^\textup{-/-}$;TgPer mice for a few weeks led to a slight amelioration of motor function, and a significant improvement in gait. In conclusion, we have successfully generated a mouse model of GAN disease exhibiting NF disorganization, cognitive deficits, and sensory-motor dysfunction. Furthermore, we have shown that gigaxonin deficiency causes NF disorganization as well as impairment of anterograde axonal transport of organelles The GanGan$^\textup{-/-}$;TgPer mice should be useful to investigate the pathogenic changes associated with GAN disease and for testing potential drugs.
57

Trois essais sur les banques et le pouvoir de marché

Gagnon-April, Jérôme 24 April 2018 (has links)
Cette thèse examine le rôle du pouvoir de marché dans le marché bancaire. L’emphase est mis sur la prise de risque, les économies d’échelle, l’efficacité économique du marché et la transmission des chocs. Le premier chapitre présente un modèle d’équilibre général dynamique stochastique en économie ouverte comprenant un marché bancaire en concurrence monopolistique. Suivant l’hypothèse de Krugman (1979, 1980) sur la relation entre les économies d’échelle et les exportations, les banques doivent défrayer un coût de transaction pour échanger à l’étranger qui diminue à mesure que le volume de leurs activités locales augmente. Cela incite les banques à réduire leur marge locale afin de profiter davantage du marché extérieur. Le modèle est solutionné et simulé pour divers degrés de concentration dans le marché bancaire. Les résultats obtenus indiquent que deux forces contraires, les économies d’échelle et le pouvoir de marché, s’affrontent lorsque le marché se concentre. La concentration permet aussi aux banques d’accroître leurs activités étrangères, ce qui les rend en contrepartie plus vulnérables aux chocs extérieurs. Le deuxième chapitre élabore un cadre de travail semblable, mais à l’intérieur duquel les banques font face à un risque de crédit. Celui-ci est partiellement assuré par un collatéral fourni par les entrepreneurs et peut être limité à l’aide d’un effort financier. Le modèle est solutionné et simulé pour divers degrés de concentration dans le marché bancaire. Les résultats montrent qu’un plus grand pouvoir de marché réduit la taille du marché financier et de la production à l’état stationnaire, mais incite les banques à prendre moins de risques. De plus, les économies dont le marché bancaire est fortement concentré sont moins sensibles à certains chocs puisque les marges plus élevés donnent initialement de la marge de manoeuvre aux banques en cas de chocs négatifs. Cet effet modérateur est éliminé lorsqu’il est possible pour les banques d’entrer et de sortir librement du marché. Une autre extension avec économies d’échelle montre que sous certaines conditions, un marché moyennement concentré est optimal pour l’économie. Le troisième chapitre utilise un modèle en analyse de portefeuille de type Moyenne-Variance afin de représenter une banque détenant du pouvoir de marché. Le rendement des dépôts et des actifs peut varier selon la quantité échangée, ce qui modifie le choix de portefeuille de la banque. Celle-ci tend à choisir un portefeuille dont la variance est plus faible lorsqu’elle est en mesure d’obtenir un rendement plus élevé sur un actif. Le pouvoir de marché sur les dépôts amène un résultat sembable pour un pouvoir de marché modéré, mais la variance finit par augmenter une fois un certain niveau atteint. Les résultats sont robustes pour différentes fonctions de demandes. / This thesis looks at the role of power market in banking. Emphasis is put on risk taking, economies of scale, economic efficiency and shocks transmission. Chapter 1 presents a dynamic stochastic general equilibrium model with monopolistically competitive banks à la Salop (1979). Following Krugman (1979, 1980) hypothesis about the link between economies of scale and exports, banks have to support a transaction cost on foreign trades that decreases with the size of their local assets (loans). This lead the banks to increase their local loans by reducing their margin. The model is solved and simulated under various degrees of market power in the banking system. Results show that two forces, economies of scale and market power, oppose to each other when the market concentrates. Concentration also leads foreign activities to increase, which makes banks more sensible to foreign shocks. Chapter 2 takes the same basic framework, but where banks face credit risk partially insured by collateral pledged by entrepreneurs and can limit this risk via costly effort. The model is solved and simulated under various degrees of market power in the banking system. We find that higher market power reduces the size of the financial market and steady-state production, but leads to safer banks. In addition, economies with highly concentrated banking systems experience milder fluctuations following most types of shocks, because the higher margins associated with market power serve as a buffer to cushion the economy from adverse shocks, at least initially. This buffer effect is eliminated once we allow for free entry into the banking sector. An other extension with economies of scale shows that a moderately concentrated market can be optimal for the economy. Chapter 3 uses a Mean-Variance portfolio analysis to depict a bank with market power. Return on deposits and assets varies with the quantity traded, which change the bank’s portfolio. Market power on assets lead the bank to choose a more stable portfolio, even if it causes the return to decrease. Similar results occur in the case of deposits, but variance increase for higher degrees of market power. Results are robust for a variety of demand functions.
58

Modeling of the thermo-chemo-poromechanical properties of a carbon anode during the baking process

Chen, Bowen 26 May 2021 (has links)
Dans le procédé d'électrolyse Hall-Héroult pour la production d'aluminium primaire, l'anode de carbone est utilisée comme une électrode positive. Par rapport aux autres matériaux carbonés dans l'industrie, les anodes sont consommées dans les cuves d'électrolyse. Ainsi, des anodes de haute qualité sont nécessaires pour maintenir la durabilité du fonctionnement, ce qui augmente considérablement l'efficacité du procédé d'électrolyse. L'une des solutions prometteuses pourrait être de contrôler et d'améliorer la qualité des anodes via ses processus de production. Dans la production d'anode, la cuisson des anodes est considérée comme l'étape la plus coûteuse ainsi que la cause la plus fréquente des problèmes d'anode. Formée artificiellement par un procédé de compactage/vibro-compactage, une anode verte est constituée d'un mélange de carbone et de pores. Les mélanges de carbone sont généralement composés d'agrégats de coke pétrolier (? 65 wt.%), de brai de goudron (? 15 wt.%) et de mégots d'anode recyclés (? 20 wt.%). Le processus de cuisson transforme une anode verte en anode précuite. Au cours de ce processus, le brai de goudron se carbonise en liant les agrégats de coke et dégage de légers gaz volatils de sorte qu'un système solide-gaz du mélange anodique se forme. Quatre facteurs qui conduisent à modifier les propriétés et les structures internes de l'anode de la cuisson peuvent être résumés comme suit: i) les charges externes des anodes supérieures; ii) la dilatation thermique induite par le transfert de chaleur; iii) la dilatation causée par l'augmentation de la pression dans les pores due au processus de pyrolyse du brai et iv) la contraction chimique due au processus de pyrolyse du brai. Par conséquent, le processus de cuisson des anodes nécessite une compréhension approfondie des mécanismes qui régissent les évolutions des propriétés du mélange anodique à des températures plus élevées. Dans ce projet, un modèle thermo-chimio-poromécanique est développé pour la cuisson de l'anode en utilisant la théorie des milieux poreux réactifs basée sur la théorie des mélanges, et ce dans le cadre de la thermodynamique des processus irréversible. À cet effet, une variable d'état interne appelée "indice de contraction" est définie pour caractériser la progression chimique de la pyrolyse du brai dans le squelette anodique et l'inégalité de Clausius-Duhem est développée selon le formalisme lagrangien. En introduisant un tenseur de déformations de Green-Lagrange réduit, une énergie lagrangienne libre est formulée pour dériver l'ensemble des équations d'état. Ensuite, la dissipation thermodynamique de ce mélange solide-gaz est dérivée et un modèle constitutif reliant la pyrolyse chimique au comportement mécanique est réalisé. Un potentiel de dissipation est défini pour assurer la non-négativité de la dissipation thermodynamique et pour obtenir les lois de comportement visqueux. Les équations de champ régissant la diffusion des gaz volatils et le transfert de chaleur à travers le corps du mélange drainant sont dérivées à partir de l'équilibre entropique. Du plus, afin d'acquérir une meilleure connaissance de la modélisation du processus de cuisson, les propriétés physiques et le comportement mécanique du mélange anodique à haute température ont été caractérisés expérimentalement. À cette fin, quatre caractérisations expérimentales principales ont été réalisées: 1) une mesure pycnométrique à l'hélium a été réalisée à température ambiante pour mesurer la densité réelle pycnométrique de la pâte d'anode cuite à différentes températures; 2) une analyse thermogravimétrique (TGA) a été réalisée pour obtenir la perte de masse de l'anode due à la réaction chimique de la pyrolyse du brai à haute température; 3) la dilatométrie a été réalisée pour trois objectifs: i) caractériser les déplacements dues à la dilatation thermique et à la pyrolyse chimique de l'anode de carbone; ii) identifier le coefficient d'expansion thermique (CET) de l'anode aux températures élevées et iii) estimer l'évolution du changement de volume en fonction de la température et 4) une caractérisation du comportement de fluage a été réalisée pour étudier les comportements viscoélastique et viscoplastique de la pâte d'anode à haute température. En outre, la perméabilité à l'air des anodes cuites à différentes températures a été mesurée par le partenaire industriel Alcoa Deschambault pour estimer l'évolution de la porosité ouverte en fonction de la température. À cette fin, une méthode de compactage améliorée pour la fabrication d'échantillons d'anode à l'échelle du laboratoire a été proposée pour satisfaire aux exigences d'un échantillon qui a une densité apparente uniforme. En utilisant les résultats expérimentaux obtenus, les paramètres liés à la cinétique de la pyrolyse et aux lois de comportement développées ont été identifiés par une méthode inverse. Ils comprennent: 1) les paramètres cinétiques impliqués dans la réaction de pyrolyse tels que l'énergie d'activation et le facteur pré-exponentiel; 2) le coefficient d'expansion thermique à différentes températures et 3) les coefficients de Lamé et "Lamé-like" liés au modèle de Burger qui décrit le comportement viscoélastique-viscoplastique de l'anode à haute température. Enfin, en utilisant l'indice de contraction, l'évolution de la pression dans les pores fermées de la matrice liante a été estimée. Les propriétés physiques et mécaniques ont été réexprimées en fonction de l'indice de contraction afin de refléter l'influence de la transformation physico-chimique et des couplages chimico-mécaniques sur les propriétés de l'anode de carbone pendant la cuisson. / In the Hall-Héroult process for the production of primary aluminium, the carbon anode is used as a positive electrode. Compared with other industrial carbonaceous materials, the anodes are highly consumed in the electrolysis cell. Thus, high-quality anodes are required to maintain the sustainability of operation, which substantially increases the efficiency of the electrolysis process. One of the promising solutions could be controlling and improving the anode quality via its production process. In anode production, the anode baking is considered as the most cost-intensive stage as well as the most frequent cause of anode problems. Artificially formed by the compaction/vibrocompaction process, a green anode mixture consists of carbon mixtures and pores. The carbon mixtures are typically composed of petroleum coke aggregates (? 65 wt.%), the coal tar pitch (? 15 wt.%) and the recycled anode butts (? 20 wt.%). The baking process transforms a green anode into a prebaked anode. During this process, the coal tar pitch carbonises binding the coke aggregates and discharges light binder volatile such that a solidgas system of the anode mixture is formed. Four factors that lead to the modification of the properties and internal structures of the anode can be summarised as follows: i) external loadings from upper anodes; ii) the thermal expansion induced by the heat transfer; iii) the expansion of the apparent volume caused by the pore pressure increase due to the pitch pyrolysis process and iv) the chemical shrinkage due to the pitch pyrolysis process. Therefore, the anode baking process calls for a deep understanding of mechanisms that govern the properties evolution of the anode mixture at high temperatures. In this project, a thermo-chemo-poromechanical model is established for the baking anode by using the theory of reactive porous media based on the theory of mixtures within the thermodynamic framework. For this purpose, an internal state variable called "shrinking index" is defined to characterize the chemical progress of the pitch pyrolysis in the anode skeleton and the Clausius-Duhem inequality is developed according to the Lagrangian formalism. By introducing a reduced Green-Lagrange strain tensor, a Lagrangian free energy is formulated to find a set of state equations. Then, the thermodynamic dissipation for this pyrolyzing solidgas mixture is derived and a constitutive model linking the chemical pyrolysis with the mechanical behaviour is achieved. A dissipation potential is defined to ensure the non-negativeness of the thermodynamic dissipation and to obtain the constitutive laws for viscous behaviours. Field equations governing the volatile diffusion and the heat transfer through the draining mixture body are derived from the entropy balance. Furthermore, to gain a better knowledge in modelling the baking process, physical properties and mechanical behaviours of the anode mixture at high temperatures were experimentally characterized. For this purpose, four main experimental characterizations were achieved: 1) helium-pycnometric measurement was carried out at room temperature to measure the real pycnometric density of the anode paste; 2) thermogravimetric analysis (TGA) was performed to obtain the mass loss of the anode due to the chemical reaction of the pitch pyrolysis at high temperatures; 3) dilatometry was realized for three purposes: i) to characterize displacements due to the thermal expansion and the chemical shrinkage of carbon anode; ii) to identify the thermal expansion coefficient (TEC) of the anode at high temperatures and iii) to estimate the evolution of the volume change with respect to the temperature and 4) characterization of creep behaviour was achieved to investigate the viscoelastic and viscoplastic behaviours of the anode paste at high temperatures. Additionally, the air permeability of the anodes baked up to different high temperatures were measured by our industrial partner Alcoa Deschambault to estimate the evolution of open porosity as a function of temperature. To this end, an improved compaction method for the fabrication of lab-scale anode samples was proposed to satisfy the requirement of a sample with apparent uniform density. By using obtained experimental results, parameters involved in the kinetics of pyrolysis and the developed constitutive laws were inversely identified. They include: 1) kinetic parameters involved in the pyrolysis reaction such as the activation energy and the pre-exponential factor; 2) thermal expansion coefficients at different high temperatures; and 3) Lamé and Lamé-like coefficients involved in the Burger's model which describes the viscoelastic-viscoplastic behaviours of the anode at high temperatures. Finally, using the shrinking index, the pressure evolution in pores entrapping the volatile was estimated. Some mechanical properties were re-expressed as a function of the shrinking index to reflect the influences of physio-chemical transformation and chemo-mechanical couplings on the properties of the carbon anode mixture during the baking process.
59

Processus de contagion sur réseaux complexes au-delà des interactions dyadiques

St-Onge, Guillaume 28 March 2022 (has links)
Alors que la pandémie de COVID-19 affecte le monde depuis presque deux ans, il va sans dire qu'une meilleure compréhension des processus de contagion, de leur évolution et des effets des mesures de contrôle est essentielle pour réduire leur impact sur la société. Le cadre théorique pour la modélisation des processus de contagion est très général et permet, bien entendu, de décrire la propagation des maladies infectieuses causées par des agents pathogènes (virus, bactéries, parasites, etc.), mais aussi la propagation des rumeurs et de la désinformation. Peu importe la nature du processus, la transmission s'effectue de proche en proche grâce aux interactions entre les individus. Par conséquent, la structure sociale complexe des populations, qui n'est ni parfaitement ordonnée, ni complètement aléatoire, joue un rôle de premier plan. Dans cette thèse, nous étudions les processus de contagion sur réseaux, où les individus et les interactions entre ces individus sont représentés par des nœuds et des liens respectivement. Nous utilisons une approche théorique principalement basée sur la physique statistique et la dynamique non linéaire. Nous nous concentrons plus spécifiquement sur les réseaux d'ordre supérieur, lesquels mettent les interactions de groupe à l'avant-plan. Notre analyse va donc au-delà des interactions dyadiques. Bien plus qu'une reformulation mathématique de la structure, cette perspective est primordiale pour obtenir une compréhension plus complète de la phénoménologie des processus de contagion. Nous démontrons l'importance des interactions de groupe à l'aide de trois résultats principaux. D'abord, nous caractérisons un phénomène de localisation mésoscopique : pour certaines structures hétérogènes, la propagation persiste uniquement dans les groupes de grande taille. Ce phénomène a notamment une incidence sur l'effet des mesures de contrôle visant à prohiber les regroupements au-delà d'une certaine taille, à l'instar de ce qui fut instauré pour endiguer la pandémie de COVID-19. Ensuite, nous étudions un modèle où les individus doivent accumuler une dose infectieuse minimale pour devenir infectés. Nous montrons qu'une structure d'ordre supérieur et des temps d'exposition hétérogènes induisent une probabilité d'infection non linéaire universelle. L'épidémie résultante peut alors croître de manière super-exponentielle en fonction du temps. Finalement, nous poussons plus en profondeur l'analyse des processus de contagion non linéaire. Dans ce contexte, nous montrons que les groupes peuvent avoir plus d'importance que les individus ultra-connectés pour qu'une épidémie ou un phénomène social envahissent le plus rapidement possible une population. / After almost two years into the COVID-19 pandemic, it is clear that a better understanding of contagion processes, their evolution, and the impact of control measures is essential to reduce their burden on society. The theoretical framework for the modeling of contagion is quite general. It can describe the spread of pathogens causing diseases (viruses, bacteria, parasites, etc.), but also the spread of rumors and disinformation. Irrespective of the nature of the underlying process, the contagion evolves through local interactions between the individuals. Consequently, the complex social structure of populations, which is neither perfectly ordered nor completely random, plays a fundamental role in shaping spreading. In this thesis, we study contagion processes on networks where individuals and the interaction between them are represented by nodes and edges respectively. We use a theoretical approach based on statistical physics and nonlinear dynamics. We focus on higher-order networks, putting group interactions beyond pairwise interactions at the forefront. More than a mere mathematical generalization, we find this perspective is paramount to obtain a complete picture of the phenomenology of contagion dynamics. We demonstrate the importance of group interactions through three principal results. First, we characterize a mesoscopic localization phenomenon where the contagion thrives only in large groups for certain types of heterogeneous structure. This phenomenon significantly affects the results of interventions like the cancelation of events larger than a critical size, similar to the measures being used to limit the spreading of COVID-19. Second, we study a model where individuals must accumulate a minimal infective dose to become infected. We show that a higher-order structure and heterogeneous exposure induce a universal nonlinear infection probability. The epidemic size can then grow super-exponentially with time. Finally, with a more in-depth analysis of nonlinear contagions, we show that groups can be more influential than hubs (super-connected individuals) to maximize the early spread of an epidemic.
60

Intégration de métasurfaces dans le processus de conception optique

Cléroux Cuillerier, Alexandre 14 September 2022 (has links)
L'arrivée au début du millénaire des métasurfaces offre une approche novatrice à la manipulation des ondes électromagnétiques. De l'interaction du front d'onde incident et des méta-atomes, structures fondamentales de la métasurface, émerge des propriétés optiques exotiques que l'on ne retrouve pas chez des matériaux ordinaires. Bien que cette technologie promette de s'affranchir des limitations de l'optique classique, l'intégration de métasurfaces à des systèmes optiques déjà existants demeure une avenue peu explorée. Toutefois, de récents développements dans la modélisation de métasurfaces auraient le potentiel de promouvoir cette intégration. En effet, par la conjonction de modèles et d'outils de conception optique traditionnelle, il serait possible d'extraire efficacement les propriétés optiques de métasurfaces au cœur d'un système optique complexe. Ce projet propose donc une méthode d'intégration des métasurfaces en conception optique grâce à des modèles semi-analytiques permettant de caractériser des structures rectangulaires et cylindriques agissant comme méta-atomes. De cette façon, les propriétés des méta-atomes utiles à la conception optique ont pu être étudiées. En plus de pouvoir obtenir les dimensions de structures permettant à la métasurface d'opérer adéquatement, les comportements de ces structures sous différentes conditions d'illumination ont été établis. Des analyses subséquentes sur la performance et la dispersion chromatique de métalentilles ont révélé des particularités fondamentalement distinctes de l'optique classique. Pour conclure, une démonstration de systèmes combinant métasurfaces avec éléments réfractifs a servi de preuve de concept pour la méthode proposée de conception optique exploitant les métasurfaces de manière avantageuse. / The arrival at the beginning of the millennium of metasurfaces offers an innovative approach to the manipulation of electromagnetic waves. From the interaction of the incident wavefront and the meta-atoms, fundamental structures of the metasurface, emerge exotic optical properties not found in ordinary materials. Although this technology promises to overcome the limitations of conventional optics, the integration of metasurfaces into existing optical systems remains an unexplored avenue. However, recent developments in metasurface modelling have the potential to promote this integration. Indeed, by combining models and traditional optical design tools, it would be possible to efficiently extract the optical properties of metasurfaces within a complex optical system. This project proposes a method for integrating metasurfaces in optical design using semi-analytical models to characterize rectangular and cylindrical structures acting as meta-atoms. In this way, the properties of meta-atoms useful for optical design could be studied. In addition to being able to obtain the dimensions of structures allowing the metasurface to operate adequately, the behavior of these structures under different illumination conditions has been established. Subsequent analyzes of the performance and chromatic dispersion of metalenses have revealed features fundamentally distinct from conventional optics. To conclude, demonstrations of systems combining metasurfaces with refractive elements served as proof of concept for the proposed method of optical design exploiting metasurfaces in an advantageous way.

Page generated in 0.0564 seconds