• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 33
  • 8
  • Tagged with
  • 115
  • 42
  • 20
  • 19
  • 16
  • 15
  • 14
  • 14
  • 13
  • 13
  • 12
  • 12
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Risk–based modeling, simulation and optimization for the integration of renewable distributed generation into electric power networks / Modélisation, simulation et optimisation basée sur le risque pour l’intégration de génération distribuée renouvelable dans des réseaux de puissance électrique

Mena, Rodrigo 30 June 2015 (has links)
Il est prévu que la génération distribuée par l’entremise d’énergie de sources renouvelables (DG) continuera à jouer un rôle clé dans le développement et l’exploitation des systèmes de puissance électrique durables, efficaces et fiables, en vertu de cette fournit une alternative pratique de décentralisation et diversification de la demande globale d’énergie, bénéficiant de sources d’énergie plus propres et plus sûrs. L’intégration de DG renouvelable dans les réseaux électriques existants pose des défis socio–technico–économiques, qu’ont attirés de la recherche et de progrès substantiels.Dans ce contexte, la présente thèse a pour objet la conception et le développement d’un cadre de modélisation, simulation et optimisation pour l’intégration de DG renouvelable dans des réseaux de puissance électrique existants. Le problème spécifique à considérer est celui de la sélection de la technologie,la taille et l’emplacement de des unités de génération renouvelable d’énergie, sous des contraintes techniques, opérationnelles et économiques. Dans ce problème, les questions de recherche clés à aborder sont: (i) la représentation et le traitement des variables physiques incertains (comme la disponibilité de les diverses sources primaires d’énergie renouvelables, l’approvisionnement d’électricité en vrac, la demande de puissance et l’apparition de défaillances de composants) qui déterminent dynamiquement l’exploitation du réseau DG–intégré, (ii) la propagation de ces incertitudes sur la réponse opérationnelle du système et le suivi du risque associé et (iii) les efforts de calcul intensif résultant du problème complexe d’optimisation combinatoire associé à l’intégration de DG renouvelable.Pour l’évaluation du système avec un plan d’intégration de DG renouvelable donné, un modèle de calcul de simulation Monte Carlo non–séquentielle et des flux de puissance optimale (MCS–OPF) a été conçu et mis en oeuvre, et qui émule l’exploitation du réseau DG–intégré. Réalisations aléatoires de scénarios opérationnels sont générés par échantillonnage à partir des différentes distributions des variables incertaines, et pour chaque scénario, la performance du système est évaluée en termes économiques et de la fiabilité de l’approvisionnement en électricité, représenté par le coût global (CG) et l’énergie non fournie (ENS), respectivement. Pour mesurer et contrôler le risque par rapport à la performance du système, deux indicateurs sont introduits, la valeur–à–risque conditionnelle(CVaR) et l’écart du CVaR (DCVaR).Pour la sélection optimale de la technologie, la taille et l’emplacement des unités DG renouvelables,deux approches distinctes d’optimisation multi–objectif (MOO) ont été mis en oeuvre par moteurs de recherche d’heuristique d’optimisation (HO). La première approche est basée sur l’algorithme génétique élitiste de tri non-dominé (NSGA–II) et vise à la réduction concomitante de l’espérance mathématique de CG et de ENS, dénotés ECG et EENS, respectivement, combiné avec leur valeurs correspondent de CVaR(CG) et CVaR(ENS); la seconde approche effectue un recherche à évolution différentielle MOO (DE) pour minimiser simultanément ECG et s’écart associé DCVaR(CG). Les deux approches d’optimisation intègrent la modèle de calcul MCS–OPF pour évaluer la performance de chaque réseau DG–intégré proposé par le moteur de recherche HO.Le défi provenant de les grands efforts de calcul requises par les cadres de simulation et d’optimisation proposée a été abordée par l’introduction d’une technique originale, qui niche l’analyse de classification hiérarchique (HCA) dans un moteur de recherche de DE.Exemples d’application des cadres proposés ont été élaborés, concernant une adaptation duréseau test de distribution électrique IEEE 13–noeuds et un cadre réaliste du système test de sous–transmission et de distribution IEEE 30–noeuds. [...] / Renewable distributed generation (DG) is expected to continue playing a fundamental role in the development and operation of sustainable, efficient and reliable electric power systems, by virtue of offering a practical alternative to diversify and decentralize the overall power generation, benefiting from cleaner and safer energy sources. The integration of renewable DG in the existing electric powernetworks poses socio–techno–economical challenges, which have attracted substantial research and advancement.In this context, the focus of the present thesis is the design and development of a modeling,simulation and optimization framework for the integration of renewable DG into electric powernetworks. The specific problem considered is that of selecting the technology, size and location of renewable generation units, under technical, operational and economic constraints. Within this problem, key research questions to be addressed are: (i) the representation and treatment of the uncertain physical variables (like the availability of diverse primary renewable energy sources, bulk–power supply, power demands and occurrence of components failures) that dynamically determine the DG–integrated network operation, (ii) the propagation of these uncertainties onto the system operational response and the control of the associated risk and (iii) the intensive computational efforts resulting from the complex combinatorial optimization problem of renewable DG integration.For the evaluation of the system with a given plan of renewable DG, a non–sequential MonteCarlo simulation and optimal power flow (MCS–OPF) computational model has been designed and implemented, that emulates the DG–integrated network operation. Random realizations of operational scenarios are generated by sampling from the different uncertain variables distributions,and for each scenario the system performance is evaluated in terms of economics and reliability of power supply, represented by the global cost (CG) and the energy not supplied (ENS), respectively.To measure and control the risk relative to system performance, two indicators are introduced, the conditional value–at–risk (CVaR) and the CVaR deviation (DCVaR).For the optimal technology selection, size and location of the renewable DG units, two distinct multi–objective optimization (MOO) approaches have been implemented by heuristic optimization(HO) search engines. The first approach is based on the fast non–dominated sorting genetic algorithm(NSGA–II) and aims at the concurrent minimization of the expected values of CG and ENS, thenECG and EENS, respectively, combined with their corresponding CVaR(CG) and CVaR(ENS) values; the second approach carries out a MOO differential evolution (DE) search to minimize simultaneously ECG and its associated deviation DCVaR(CG). Both optimization approaches embed the MCS–OPF computational model to evaluate the performance of each DG–integrated network proposed by the HO search engine. The challenge coming from the large computational efforts required by the proposed simulation and optimization frameworks has been addressed introducing an original technique, which nests hierarchical clustering analysis (HCA) within a DE search engine. Examples of application of the proposed frameworks have been worked out, regarding an adaptation of the IEEE 13 bus distribution test feeder and a realistic setting of the IEEE 30 bussub–transmission and distribution test system. The results show that these frameworks are effectivein finding optimal DG–integrated networks solutions, while controlling risk from two distinctperspectives: directly through the use of CVaR and indirectly by targeting uncertainty in the form ofDCVaR. Moreover, CVaR acts as an enabler of trade–offs between optimal expected performanceand risk, and DCVaR integrates also uncertainty into the analysis, providing a wider spectrum ofinformation for well–supported and confident decision making.
62

Modélisation et gestion sur les marchés obligatoires souverains / Modelling and management within sovereign bonds markets

Moungala, Wilfried Paterne 29 April 2013 (has links)
La crise financière de ces dernières années a relancé le débat sur le caractère dit « sans risque de défaut » des obligations souveraines. Face aux enjeux économiques et financiers, les établissements de crédit et les Institutions Financières ont du revoir les méthodes d’évaluation des obligations. Cette thèse a pour objectif la modélisation et la Gestion des prix obligataires et s’articule autour de quatre points. Dans le premier point, nous avons présenté les approches théoriques portant sur les modèles traditionnels des taux d’intérêt. Dans le second point, nous avons conçu un modèle test nommé M-M en discrétisant les modèles à temps continu du taux d’intérêt court et en recourant aux modèles de la famille GARCH. Ce modèle est construit en incorporant les effets niveau des taux d’intérêt à court terme et GARCH (1,1). Les résultats de l’estimation du modèle M-M suggère la nécessité de tenir compte des deux effets pour la modélisation des rendements des bons du Trésor américain. Le troisième point consiste à extraire les facteurs que l’on peut interpréter comme le niveau, la pente et la courbure. Ces facteurs sont extraits à partir de deux modèles qui sont des extensions dynamiques de la fonctionnelle de Nelson et Siegel. Les courbes des taux utilisés sont celles des Etats-Unis, de la France et de l’Afrique du Sud. La présence de l’Afrique du Sud dans cette étude est due à notre envie de traiter la structure par terme des taux d’intérêt d’un pays africain et aussi son économie émergente. A l’aide des proxies, et d’une ACP sur la courbe des taux de ces trois pays, ces facteurs ont été analysés sur la base de leur qualité d’ajustement. Le dernier point a pour but de traiter les indicateurs macroéconomiques et financiers qui peuvent expliquer les facteurs endogènes extraits. / The financial crisis of recent years has re-opened the debate of the so-called "risk-free" government bonds. Faced with economic and financial issues, credit institutions and financial institutions had reviewed the methods of bonds evaluation. The aim of this thesis is the modeling and management of the bonds prices and is organized on four points. In the first point, we present theoretical approaches on traditional models of interest rates. In the second point, we design a test model named M-M by discretizing the continuous-time models of the short interest rate and using the GARCH family models. This model is constructed by incorporating the level effect of the short term interest rates and GARCH (1,1) effect. The M-M estimation results suggest considering both effects for modeling Treasury bills yields. The third point determines the factors that can be interpreted as the level, slope and curvature, these factors are extracted from two models that are dynamics extensions of the Nelson and Siegel functional. We use Yield Curves of the United States, France and South Africa. The presence of South Africa in this study is due to our desire to treat the term structure of interest rates in an African country which is an emerging economy as well. These factors were analyzed on the basis of their goodness of fit. The last point aims to address macroeconomic and financial indicators that can explain the endogenous factors.
63

Estimation non paramétrique de densités conditionnelles : grande dimension, parcimonie et algorithmes gloutons. / Nonparametric estimation of sparse conditional densities in moderately large dimensions by greedy algorithms.

Nguyen, Minh-Lien Jeanne 08 July 2019 (has links)
Nous considérons le problème d’estimation de densités conditionnelles en modérément grandes dimensions. Beaucoup plus informatives que les fonctions de régression, les densités condi- tionnelles sont d’un intérêt majeur dans les méthodes récentes, notamment dans le cadre bayésien (étude de la distribution postérieure, recherche de ses modes...). Après avoir rappelé les problèmes liés à l’estimation en grande dimension dans l’introduction, les deux chapitres suivants développent deux méthodes qui s’attaquent au fléau de la dimension en demandant : d’être efficace computation- nellement grâce à une procédure itérative gloutonne, de détecter les variables pertinentes sous une hypothèse de parcimonie, et converger à vitesse minimax quasi-optimale. Plus précisément, les deux méthodes considèrent des estimateurs à noyau bien adaptés à l’estimation de densités conditionnelles et sélectionnent une fenêtre multivariée ponctuelle en revisitant l’algorithme glouton RODEO (Re- gularisation Of Derivative Expectation Operator). La première méthode ayant des problèmes d’ini- tialisation et des facteurs logarithmiques supplémentaires dans la vitesse de convergence, la seconde méthode résout ces problèmes, tout en ajoutant l’adaptation à la régularité. Dans l’avant-dernier cha- pitre, on traite de la calibration et des performances numériques de ces deux procédures, avant de donner quelques commentaires et perspectives dans le dernier chapitre. / We consider the problem of conditional density estimation in moderately large dimen- sions. Much more informative than regression functions, conditional densities are of main interest in recent methods, particularly in the Bayesian framework (studying the posterior distribution, find- ing its modes...). After recalling the estimation issues in high dimension in the introduction, the two following chapters develop on two methods which address the issues of the curse of dimensionality: being computationally efficient by a greedy iterative procedure, detecting under some suitably defined sparsity conditions the relevant variables, while converging at a quasi-optimal minimax rate. More precisely, the two methods consider kernel estimators well-adapted for conditional density estimation and select a pointwise multivariate bandwidth by revisiting the greedy algorithm RODEO (Regular- isation Of Derivative Expectation Operator). The first method having some initialization problems and extra logarithmic factors in its convergence rate, the second method solves these problems, while adding adaptation to the smoothness. In the penultimate chapter, we discuss the calibration and nu- merical performance of these two procedures, before giving some comments and perspectives in the last chapter.
64

Anticipative alpha-stable linear processes for time series analysis : conditional dynamics and estimation / Processus linéaires alpha-stables anticipatifs pour l'analyse des séries temporelles : dynamique conditionnelle et estimation

Fries, Sébastien 04 December 2018 (has links)
Dans le contexte des séries temporelles linéaires, on étudie les processus strictement stationnaires dits anticipatifs dépendant potentiellement de tous les termes d'une suite d'erreurs alpha-stables indépendantes et identiquement distribuées.On considère en premier lieu les processus autoregressifs (AR) et l'on montre que des moments conditionnels d'ordres plus élevés que les moments marginaux existent dès lors que le polynôme caractéristique admet au moins une racine à l'intérieur du cercle unité.Des formules fermées sont obtenues pour les moments d'ordre un et deux dans des cas particuliers.On montre que la méthode des moindres carrés permet d'estimer une représentation all-pass causale du processus dont la validité peut être vérifiée par un test de type portmanteau, et l'on propose une méthode fondée sur des propriétés d'extreme clustering pour retrouver la représentation AR originale.L'AR(1) stable anticipatif est étudié en détails dans le cadre des vecteurs stables bivariés et des formes fonctionnelles pour les quatre premiers moments conditionnels sont obtenues pour toute paramétrisation admissible.Lors des évènements extrêmes, il est montré que ces moments deviennent équivalents à ceux d'une distribution de Bernoulli chargeant deux évolutions futures opposées: accroissement exponentiel ou retour aux valeurs centrales.Des résultats parallèles sont obtenus pour l'analogue de l'AR(1) en temps continu, le processus d'Ornstein-Uhlenbeck stable anticipatif.Pour des moyennes mobiles alpha-stables infinies, la distribution conditionnelle des chemins futurs sachant la trajectoire passée est obtenue lors des évènements extrêmes par le biais d'une nouvelle représentation des vecteurs stables multivariés sur des cylindres unités relatifs à des semi-normes.Contrairement aux normes, ce type de représentation donne lieu à une propriété de variations régulières des queues de distribution utilisable dans un contexte de prévision, mais tout vecteur stable n'admet pas une telle représentation. Une caractérisation est donnée et l'on montre qu'un chemin fini de moyenne mobile alpha-stable sera représentable pourvu que le processus soit "suffisamment anticipatif".L'approche s'étend aux processus résultant de la combinaison linéaire de moyennes mobiles alpha-stables, et la distribution conditionnelle des chemins futurs s'interprète naturellement en termes de reconnaissance de formes. / In the framework of linear time series analysis, we study a class of so-called anticipative strictly stationary processes potentially depending on all the terms of an independent and identically distributed alpha-stable errors sequence.Focusing first on autoregressive (AR) processes, it is shown that higher order conditional moments than marginal ones exist provided the characteristic polynomials admits at least one root inside the unit circle. The forms of the first and second order moments are obtained in special cases.The least squares method is shown to provide a consistent estimator of an all-pass causal representation of the process, the validity of which can be tested by a portmanteau-type test. A method based on extreme residuals clustering is proposed to determine the original AR representation.The anticipative stable AR(1) is studied in details in the framework of bivariate alpha-stable random vectors and the functional forms of its first four conditional moments are obtained under any admissible parameterisation.It is shown that during extreme events, these moments become equivalent to those of a two-point distribution charging two polarly-opposite future paths: exponential growth or collapse.Parallel results are obtained for the continuous time counterpart of the AR(1), the anticipative stable Ornstein-Uhlenbeck process.For infinite alpha-stable moving averages, the conditional distribution of future paths given the observed past trajectory during extreme events is derived on the basis of a new representation of stable random vectors on unit cylinders relative to semi-norms.Contrary to the case of norms, such representation yield a multivariate regularly varying tails property appropriate for prediction purposes, but not all stable vectors admit such a representation.A characterisation is provided and it is shown that finite length paths of a stable moving average admit such representation provided the process is "anticipative enough".Processes resulting from the linear combination of stable moving averages are encompassed, and the conditional distribution has a natural interpretation in terms of pattern identification.
65

Étude de la norme pénale : analyse socio-politique du processus de transformation de l'article 745 du C.cr. : la révision judiciaire

Thiffault, Nadine 04 1900 (has links)
Mémoire numérisé par la Direction des bibliothèques de l’Université de Montréal / La révision judiciaire (article 745.6 du Code criminel) permet aux personnes qui ont été reconnues coupables de meurtre et incarcérées à perpétuité de faire une demande en vue de réduire leur période d'inadmissibilité à une libération conditionnelle (25 ans). Suite à l'adoption du projet de loi C-45 en janvier 1997, cette disposition a toutefois subi d'importantes transformations. L'admissibilité à la révision judiciaire a alors été considérablement réduite. La présente étude s'intéresse principalement au processus de transformation. Plus précisément, il s'agit de décrire le processus législatif relatif à l'adoption du projet de loi C-45, d'identifier les principaux acteurs de ce processus, d'exposer les motivations, les intérêts et justifications de ces différents intervenants, de présenter leurs stratégies et, enfin, de relier ces transformations aux données d'ordre structurel, économique, social et politique qui auront été dégagées. Pour réaliser ces objectifs, l'analyse de contenu a été mise à contribution. Le corpus est principalement constitué des débats parlementaires (de la Chambre des communes et du Sénat), des discussions en comité (Comité permanent de la justice et des questions juridiques et Comité sénatorial permanent des affaires juridiques et constitutionnelles) et des mémoires déposés devant ces comités. La reconstruction, étape par étape, du processus législatif qui a permis la transformation de la révision judiciaire, indique d'abord clairement que différents acteurs sont intervenus. Force a toutefois été d'admettre que ce système de décision, qui est accessible à tous, favorise la participation et la domination de certains acteurs. Les membres des partis politiques, les ministres, les sénateurs et les fonctionnaires experts semblent en effet jouer un rôle majeur dans rétablissement des nouvelles normes. Leur parfaite connaissance de la procédure législative et leur accessibilité à différentes ressources figurent parmi les facteurs qui leur procurent ce pouvoir. Nous noterons également que le processus lui-même avantage l'acteur politique et plus particulièrement celui au pouvoir. Ce dernier peut en effet utiliser des règlements (attribution de temps, clôture et autres) qui lui permettent d'avoir un certain contrôle sur les débats. Les rapports de force entre les participants sont ainsi devenus de fiables indicateurs. Ensuite, en ce qui concerne les motivations et les intérêts des participants, on constate qu'il existe parfois un grand fossé entre les visées qui sont publiquement exprimées et ce qui semble être souhaité. Les dénonciations et les contradictions sont si fréquentes dans les discussions que même l'analyse du discours est impuissante à révéler les véritables enjeux. Quoi qu'il en soit de la justesse des insinuations, nous retiendrons l'importance de questionner les intentions. Cette recherche est finalement parvenue à démontrer la complexité du processus. C'est donc en ce sens que l'exercice qui consiste à remettre la question en contexte, c'est-à-dire en lien avec le monde plus vaste qui l'entoure demeure indispensable à la compréhension de la transformation de la norme. C'est, à notre avis, dans cette perspective que la dimension politique a pris toute son importance dans les changements qui ont été apportés à la révision judiciaire.
66

Modélisation multivariée hétéroscédastique et transmission financière / Multivariate heteroskedastic modelling and financial transmission

Sanhaji, Bilel 02 December 2014 (has links)
Cette thèse de doctorat composée de trois chapitres contribue au développement de tests statistiques et à analyser la transmission financière dans un cadre multivarié hétéroscédastique. Le premier chapitre propose deux tests du multiplicateur de Lagrange de constance des corrélations conditionnelles dans les modèles GARCH multivariés. Si l'hypothèse nulle repose sur des corrélations conditionnelles constantes, l'hypothèse alternative propose une première spécification basée sur des réseaux de neurones artificiels et une seconde représentée par une forme fonctionnelle inconnue qui est linéarisée à l'aide d'un développement de Taylor.Dans le deuxième chapitre, un nouveau modèle est introduit dans le but de tester la non-linéarité des (co)variances conditionnelles. Si l'hypothèse nulle repose sur une fonction linéaire des innovations retardées au carré et des (co)variances conditionnelles, l'hypothèse alternative se caractérise quant à elle par une fonction de transition non-linéaire : exponentielle ou logistique ; une configuration avec effets de levier est également proposée. Dans les deux premiers chapitres, les expériences de simulations et les illustrations empiriques montrent les bonnes performances de nos tests de mauvaise spécification.Le dernier chapitre étudie la transmission d'information en séance et hors séance de cotation en termes de rendements et de volatilités entre la Chine, l'Amérique et l'Europe. Le problème d'asynchronicité est considéré avec soin dans la modélisation bivariée avec la Chine comme référence. / This Ph.D. thesis composed by three chapters contributes to the development of test statistics and to analyse financial transmission in a multivariate heteroskedastic framework.The first chapter proposes two Lagrange multiplier tests of constancy of conditional correlations in multivariate GARCH models. Whether the null hypothesis is based on constant conditional correlations, the alternative hypothesis proposes a first specification based on artificial neural networks, and a second specification based on an unknown functional form linearised by a Taylor expansion.In the second chapter, a new model is introduced in order to test for nonlinearity in conditional (co)variances. Whether the null hypothesis is based on a linear function of the lagged squared innovations and the conditional (co)variances, the alternative hypothesis is characterised by a nonlinear exponential or logistic transition function; a configuration with leverage effects is also proposed.In the two first chapters, simulation experiments and empirical illustrations show the good performances of our misspecification tests.The last chapter studies daytime and overnight information transmission in terms of returns and volatilities between China, America and Europe. The asynchronicity issue is carefully considered in the bivariate modelling with China as benchmark.
67

Non- and semiparametric models for conditional probabilities in two-way contingency tables / Modèles non-paramétriques et semiparamétriques pour les probabilités conditionnelles dans les tables de contingence à deux entrées

Geenens, Gery 04 July 2008 (has links)
This thesis is mainly concerned with the estimation of conditional probabilities in two-way contingency tables, that is probabilities of type P(R=i,S=j|X=x), for (i,j) in {1, . . . , r}×{1, . . . , s}, where R and S are the two categorical variables forming the contingency table, with r and s levels respectively, and X is a vector of explanatory variables possibly associated with R, S, or both. Analyzing such a conditional distribution is often of interest, as this allows to go further than the usual unconditional study of the behavior of the variables R and S. First, one can check an eventual effect of these covariates on the distribution of the individuals through the cells of the table, and second, one can carry out usual analyses of contingency tables, such as independence tests, taking into account, and removing in some sense, this effect. This helps for instance to identify the external factors which could be responsible for an eventual association between R and S. This also gives the possibility to adapt for a possible heterogeneity in the population of interest, when analyzing the table.
68

Role of EFNBs and EphB4 in T cell development and function

Jin, Wei 08 1900 (has links)
Eph kinases are the largest family of cell surface receptor tyrosine kinases. The ligands of Ephs, ephrins (EFNs), are also cell surface molecules. Ephs interact with EFNs and the receptors and ligands transmit signals in both directions, i.e., from Ephs to EFNs and from EFNs to Ephs. Ephs and EFNs are widely involved in various developmental, physiological pathophysiological processes. Our group and others have reported the roles of Ephs/EFNs in the immune system. To further investigate the function of EphBs/EFNBs in T cell development and responses, we generated EFNB1, EFNB2, EphB4 conditional gene knockout (KO) mice and EFNB1/2 double KO mice. In the projects using EFNB1 and EFNB2 knockout mice, we specifically deleted EFNB1 or EFNB2 in T cells. The mice had normal size and cellularity of the thymus and spleen as well as normal T cell subpopulations in these organs. The bone marrow progenitors from KO mice and WT mice repopulated the host lymphoid organs to similar extents. The activation and proliferation of KO T cells was comparable to that of control mice. Naïve KO CD4 cells differentiated into Th1, Th2, Th17 and Treg cells similar to naïve control CD4 cells. In EFNB2 KO mice, we observed a significant relative increase of CD4CD8 double negative thymocytes in the thymus. Flowcytometry analysis revealed that there was a moderate increase in the DN3 subpopulation in the thymus. This suggests that EFNB2 is involved in thymocyte development. Our results indicate that the functions of EFNB1 and EFNB2 in the T cell compartment could be compensated by each other or by other members of the EFN family, and that such redundancy safeguards the pivotal roles of EFNB1 and EFNB2 in T cell development and function. In the project using EFNB1/B2 double knockout (dKO) model, we revealed a novel regulatory function of EFNb1 and EFNb2 in stabilizing IL-7Rα expression on the T cell surface. IL-7 plays important roles in thymocyte development, T cell homeostasis and survival. IL-7Rα undergoes internalization upon IL-7 binding. In the dKO mice, we observed reduced IL-7Rα expression in thymocytes and T cells. Moreover, the IL-7Rα internalization was accelerated in dKO CD4 cells upon IL-7 stimulation. In T cell lymphoma cell line, EL4, over-expression of either EFNB1 or EFNB2 retarded the internalization of IL-7Rα. We further demonstrated compromised IL-7 signaling and homeostatic proliferation of dKO T cells. Mechanism study using fluorescence resonance energy transfer and immunoprecipitation demonstrated that physical interaction of EFNB1 and EFNB2 with IL-7Rα was likely responsible for the retarded IL-7Rα internalization. In the last project, using medullary thymic epithelial cell (mTEC)-specific EphB4 knockout mice, we investigated T cell development and function after EphB4 deletion in mTEC. EphB4 KO mice demonstrated normal thymic weight and cellularity. T cell development and function were not influenced by the EphB4 deletion. Lastly, the KO mice developed normal delayed type hypersensitivity. Overall, our results suggest that comprehensive cross interaction between Eph and EFN family members could compensate function of a given deleted member in the T cell development, and only simultaneous deletion of multiple EFNBs will reveal their true function in the immune system. In fact, such redundancy signifies vital roles of Ephs and EFNs in the immune system. / Kinases Eph est la plus grande famille de tyrosines kinases récepteurs Éphrines (EFN) est un ligand de Ephs. Eph et EFN sont toutes les molécules de surface cellulaire. L’interaction entre Ephs et EFNs permet de transmettre des signaux dans les deux directions (c.-à-d. partir de Ephs à EFNs, et de EFNs à Ephs.) Eph et EFNs sont largement impliqués dans divers processus développementaux, physiologiques et physiopathologiques. Notre groupe et d'autres groupes ont rapporté les rôles de Ephs / EFNs dans le système immunitaire. Pour approfondir la fonction de EphBs / EFNBs dans le développement des lymphocytes T et des réponses immunitaires, nous avons généré des souris EFNB1, EFNB2, et EphB4 knock-out conditionnel (KO) et des souris EFNB1 / 2 doubles KO. Dans les projets qui utilisent EFNB1 et EFNB2 comme souris knock-out, nous avons spécifiquement supprimé EFNB1 ou EFNB2 dans les cellules T. Les souris présentaient une taille normale, la cellularité du thymus et de la rate, ainsi que des sous-populations de cellules T étaient normales dans ces organes. Les progéniteurs de la moelle osseuse de souris KO et les souris WT ont repeuplé les organes lymphoïdes de l’hôte à des degrés similaires. L'activation et la prolifération des cellules KO T étaient comparables à celles des souris témoins. Les cellules CD4 naïves KO différenciées en Th1, Th2, Th17 et Treg étaient similaires aux cellules CD4 naïves de souris contrôle. Chez les souris KO EFNB2, nous avons observé une augmentation relative importante des thymocytes CD4CD8 : les double négatifs dans le thymus. L'analyse par cytométrie en flux a révélé qu'il y avait une augmentation modérée de la sous-population DN3 dans le thymus. Les résultats suggèrent qu’EFNB2 est impliqué dans le développement des thymocytes. Nos résultats indiquent que les fonctions de EFNB1 et EFNB2 dans le compartiment des cellules T pourraient être compensées entre eux ou par d'autres EFNB. La redondance des fonctions suggèrent le contrôle critique d’EFNB1 et EFNB2 dans le développement des cellules T. Dans le projet, en utilisant EFNB1/B2 (modèle double KO) (dKO), nous avons observé une fonction de régulation de EFNB1 et EFNB2. dans la stabilisation de l’expression l'IL-7R α , à la surface des cellules T, IL-7 joue un rôle important dans le développement des thymocytes, l'homéostasie des lymphocytes T , et leur survie. IL-7R α subit une internalisation i contraignante de IL-7. Chez les souris DKO, nous avons observé une perte d’expression de l’ IL-7Rα dans les thymocytes et les cellules T. En outre, l’ internalisation IL-7Rα a été accélérée dans les cellules CD4 dKO, suite à la stimulation IL-7. Dans la lignée cellulaire de lymphome T, EL4, la surexpression de EFNB1 ou EFNB2 retarde l'internalisation de l'IL-7Rα. Nous avons aussi démontré les signalisations compromises de l’ IL-7 et de la prolifération homéostatique des cellules T dKO. Les études du méchanisme qui utilisent la fluorescence de transfert d'énergie par résonance et immunoprécipitation ont montré que l'interaction physique de EFNB1 et EFNB2 avec IL-7R était probablement responsable du retard de l’ internalisation IL-7Rα. Dans le dernier projet, nous avons étudié le développement des cellules T et la fonction des cellules épithéliales médullaires du thymus (mTEC), chez les souris knock-out EphB4. Les souris KO EphB4 ont démontré un poids et une cellularité qui sont normaux. La fonction et le développement de cellules T ne sont pas influencés par la suppression de l’ EphB4. Enfin, les souris KO ont développé une hypersensibilité de type retardée normale. Dans l'ensemble, nos résultats suggèrent que l'interaction globale de croisement entre Eph et les membres de la famille EFN pourrir compenser la fonction d'un membre supprimé. Seule la suppression simultanée de plusieurs EFNBs va révéler leur vraie fonction dans le système immunitaire. En fait, une telle redondance montre les rôles vitaux d’Ephs et EFNS dans le système immunitaire.
69

Méthodes de Bootstrap pour les modèles à facteurs

Djogbenou, Antoine A. 07 1900 (has links)
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement. / This thesis develops bootstrap methods for factor models which are now widely used for generating forecasts since the seminal paper of Stock and Watson (2002) on diffusion indices. These models allow the inclusion of a large set of macroeconomic and financial variables as predictors, useful to span various information related to economic agents. My thesis develops econometric tools that improves inference in factor-augmented regression models driven by few unobservable factors estimated from a large panel of observed predictors. It is subdivided into three complementary chapters. The two first chapters are joint papers with Sílvia Gonçalves and Benoit Perron. In the first chapter, we study how bootstrap methods can be used to make inference in h-step forecasting models which generally involve serially correlated errors. It thus considers bootstrap inference in a factor-augmented regression context where the errors could potentially be serially correlated. This generalizes results in Gonçalves and Perron (2013) and makes the bootstrap applicable to forecasting contexts where the forecast horizon is greater than one. We propose and justify two residual-based approaches, a block wild bootstrap (BWB) and a dependent wild bootstrap (DWB). Our simulations document improvement in coverage rates of confidence intervals for the coefficients when using BWB or DWB relative to both asymptotic theory and the wild bootstrap when serial correlation is present in the regression errors. The second chapter provides bootstrap methods for prediction intervals which allow relaxing the normality distribution assumption on innovations. We propose bootstrap prediction intervals for an observation h periods into the future and its conditional mean. We assume that these forecasts are made using a set of factors extracted from a large panel of variables. Because we treat these factors as latent, our forecasts depend both on estimated factors and estimated regression coefficients. Under regularity conditions, Bai and Ng (2006) proposed the construction of asymptotic intervals under Gaussianity of the innovations. The bootstrap allows us to relax this assumption and to construct valid prediction intervals under more general conditions. Moreover, even under Gaussianity, the bootstrap leads to more accurate intervals in cases where the cross-sectional dimension is relatively small as it reduces the bias of the ordinary least squares estimator as shown in a recent paper by Gonçalves and Perron (2014). The third chapter proposes two consistent model selection procedures for factor-augmented regressions in finite samples.We first demonstrate that the usual cross-validation is inconsistent, but that a generalization, leave-d-out cross-validation, selects the smallest basis of estimated factors for the space spanned by the true factors. The second proposed criterion is a generalization of the bootstrap approximation of the squared error of prediction of Shao (1996) to factor-augmented regressions which we also show is consistent. Simulation evidence documents improvements in the probability of selecting the smallest set of estimated factors than the usually available methods. An illustrative empirical application that analyzes the relationship between expected stock returns and macroeconomic and financial factors extracted from a large panel of U.S. macroeconomic and financial data is conducted. Our new procedures select factors that correlate heavily with interest rate spreads and with the Fama-French factors. These factors have strong predictive power for excess returns.
70

Une étude sur le processus de changement menant au désistement criminel d’un détenu purgeant une peine à perpétuité dans la collectivité

Mc Kay, Krystina 04 1900 (has links)
La présente étude explore la trajectoire de vie d’un détenu condamné à une peine à perpétuité qui bénéficie d’une libération conditionnelle totale afin d’identifier laquelle ou lesquelles des cinq grandes conceptualisations théoriques du désistement criminel permettent le mieux d’expliquer sa trajectoire de désistement. Pour atteindre cet objectif, une méthodologie qualitative de type exploratoire a été privilégiée. Un homme purgeant une peine à perpétuité dans la collectivité a été rencontré en contexte d’entretiens afin de restituer en profondeur son histoire de vie et cerner, à la lumière des théories recensées, les concepts applicables à son désistement criminel. Une série de neuf entretiens d’environ une heure et demie a été réalisée. Le récit de vie de monsieur P est présenté et analysé pour illustrer l’applicabilité des principales conceptualisations théoriques du désistement criminel qui ont été recensées dans le présent mémoire. L’analyse des données recueillies a permis de faire ressortir l’importance de considérer le concept identitaire dans le processus de désistement et le changement psychologique qui l’accompagne. La discussion aborde quelques pistes d’interventions susceptibles de soutenir le travail des membres du personnel qui œuvrent auprès des délinquants qui purgent de longues peines. Celles-ci prennent en compte les défis posés par la clientèle particulière des détenus à perpétuité et cherchent à maximiser leur réintégration sociale lors de leur mise en liberté. / This research explores the life trajectory of an offender serving a life sentence in the community after having been granted a full parole. The goal of this research is to identify which of the five main theoretical concepts, explaining the cessation of criminal behavior, best indicates what led him to cease his criminal behavior. To reach this objective, an exploratory qualitative research was preferred. A man serving a life sentence in the community was interviewed on numerous occasions. These interviews were aimed at getting the utmost account of his life story and then, by integrating the appropriate theories in the research process, selecting the concepts that best explained the cessation of his criminal behavior. A series of nine interviews, each one lasting approximately an hour and a half, were conducted. For the purpose of this memoir, the life story of Mr. P is presented and analyzed so has to illustrate the application of the main theoretical concepts linked to the cessation of criminal behavior. By analyzing the data collected, the importance of considering the identity concept in the cessation of criminal behavior was noted just as the psychological change that comes with it. The discussion also addresses certain intervention strategies that are likely to offer an improved support for people working with offenders serving long sentences. These interventions take into account the challenges that arise when working with this type of clientele and they aim at maximizing the social reinsertion potential of these individuals upon release.

Page generated in 0.1188 seconds