Spelling suggestions: "subject:"deux"" "subject:"ceux""
481 |
Rôle du ribosome dans la sénescenceDel Toro Del Toro, Neylen 12 1900 (has links)
La sénescence est considérée comme un mécanisme de suppression tumorale puisque les cellules potentiellement dangereuses, activent leurs protéines de sauvegarde pour arrêter leur prolifération. Les protéines de sauvegarde telles que RB et p53 sont activées suite à différents stress comme des dommages à l’ADN, le raccourcissement des télomères ou l’induction oncogénique. Les cellules sénescentes restent métaboliquement actives, subissent des modifications dans leur expression génique, et sécrètent des cytokines et des chimiokines qui ont des effets paracrines pro-oncogéniques, mais peuvent également contribuer à la stabilité de l’arrêt du cycle cellulaire dans la sénescence de façon autocrine. Une des particularités du phénotype sénescent est la dégradation sélective des protéines dépendante de l’ubiquitination et du protéasome. Parmi les cibles de dégradation se trouvent des protéines impliquées dans la biogenèse du ribosome, ainsi que celles d’autres voies cellulaires requises pour la croissance de cellules cancéreuses. Ceci est lié à un stress nucléolaire qui affecte la biogenèse du ribosome, menant à l’accumulation, dans le nucléoplasme ou le nucléole, de protéines ribosomiques. Ce comportement suggère que les ribosomes des cellules sénescentes seraient structurellement différents. Par conséquent, ceci pourrait entrainer des effets sur leurs capacités à réguler l’initiation, l’élongation et/ou la terminaison de la traduction des ARN messagers (ARNm). Par ailleurs, la déplétion de certaines protéines impliquées dans la ribogenèse, ainsi que la surexpression de protéines ribosomiques telles que RPS14/uS11 amènent à la sénescence.
Malgré le stress nucléolaire et les défauts de ribogenèse associés à la sénescence, les cellules sénescentes présentent des niveaux de translecture du codon d’arrêt très diminué, suggérant l’existence de défauts de production de protéines allongées en C-terminal.
Nous émettons l’hypothèse que les défauts de la ribogenèse affecteraient la fonction des protéines ribosomiques et des ribosomes. Cette perturbation aurait un impact sur le rôle de suppresseur tumoral de la sénescence.
Le premier objectif de cette thèse consiste à démontrer le rôle de RPL22/eL22 en tant que régulateur du cycle cellulaire et inducteur de la sénescence. Le deuxième but est de démontrer que, malgré la perturbation nucléolaire, les ribosomes des fibroblastes sénescents reconnaissent les codons d’arrêt de façon plus efficace que les ribosomes des cellules transformées, ou des cellules normales en prolifération.
Nous avons démontré que le phénotype de sénescence peut être induit quand l’expression de RPL22/eL22 est augmentée. RPL22/eL22 s’accumule principalement dans le nucléole, de manière différente de RPS14/uS11, dont l’accumulation est nucléoplasmique. En effectuant des essais kinases in vitro, nous avons montré que RPL22/eL22, tout comme RPS14/uS11, peuvent interagir et inhiber le complexe CDK4-Cycline D1 afin d’activer la voie de RB et établir l’arrêt du cycle cellulaire et la sénescence.
Afin de démontrer la fidélité de la terminaison de la traduction dans les cellules sénescentes, nous avons utilisé un système de rapporteurs de luciférases, pour détecter les erreurs de translecture ainsi que pour avoir un contrôle interne du système. L’inactivation de la voie du suppresseur tumoral RB par surexpression de CDK4 ou de l’oncoprotéine virale E7, nous a permis d’observer l’augmentation de la translecture dans les cellules sénescentes. Tandis que l’activation de la voie de suppression tumorale RB, à l’aide du suppresseur de tumeur PML, de la surexpression de RPL22/eL22 et de RPS14/uS11, ainsi que de l’utilisation de Palbociclib (PD-0332991), un inhibiteur des kinases CDK4/6, a montré une réduction des erreurs de translecture.
Ces résultats indiquent une nouvelle fonction des protéines du ribosome en tant que suppresseurs de tumeur, permettant d’inhiber les erreurs de translecture du codon d’arrêt de façon dépendante de la voie de RB. Ces travaux suggèrent que de petites molécules ou peptides pourraient simuler les fonctions inhibitrices de ces protéines ribosomiques afin de traiter certains cancers où la voie de RB est activable. / Senescence is considered a mechanism for tumor suppression since potentially dangerous cells activate their protective proteins to stop their proliferation. Safeguard proteins such as RB and p53 are activated as a result of stress such as DNA damage, telomere shortening or oncogenic induction. Senescent cells are metabolically active, they undergo changes in their gene expression and secrete cytokines and chemokines with pro-oncogenic paracrine effects, but which can also contribute to the stability of the senescent cell cycle arrest in an autocrine way. One of the peculiarities of the senescent phenotype is the selective ubiquitination and proteasome dependent-degradation of proteins involved in ribosome biogenesis and other cellular pathways required for cancer cell growth, leading to the accumulation, in the nucleoplasm or nucleolus, of ribosomal proteins. This behavior suggests that the ribosomes of senescent cells are structurally different. Therefore, this could have effects on their ability to regulate the initiation, elongation and/or translation termination of messenger RNAs (mRNAs). Moreover, the depletion of some proteins involved in ribogenesis, as well as the overexpression of ribosomal proteins such as RPS14/uS11 lead to senescence.
Despite nucleolar stress and ribogenesis defects associated to senescence, global translation does not seem to be affected in senescence. Strikingly, senescent cells have reduced translational readthrough suggesting that they have defects in the production of C-terminal extended proteins.
We hypothesize that defects in ribogenesis would affect the function of ribosomal proteins and ribosomes influencing the tumor suppressor role of senescence. The first aim of this thesis is to demonstrate the role of RPL22/eL22 as a regulator of the cell cycle and senescence inducer. The second aim of this thesis is to demonstrate that, despite the nucleolar disruption, the ribosomes of senescent fibroblasts recognize stop codons more efficiently than ribosomes from transformed cells, but also than ribosomes from proliferating normal cells.
We found that the senescent phenotype can be induced by enhancing the expression of RPL22/eL22. RPL22/eL22 accumulates mainly in the nucleolus, unlike RPS14/uS11, whose accumulation is nucleoplasmic. By performing an in vitro kinase assay, we showed that RPL22/eL22, just like RPS14/uS11, can interact and inhibit the CDK4-Cyclin D1 complex in order to activate the RB pathway and establish cellular arrest and senescence.
To assess translation termination accuracy in senescent cells, we used a system of luciferase reporters to measure the fidelity of translation termination. Inactivation of the RB tumor suppressor pathway using CDK4 or the viral oncoprotein E7 also increased readthrough in senescent cells while overexpression of PML, a tumor suppressor that activates the RB pathway, overexpression of RPL22/eL22 and RPS14/uS11, as well as the use of Palbociclib (PD-0332991), a CDK4/6 inhibitor, reduce readthrough errors.
These results indicate a novel function of ribosomal proteins as tumor suppressors, making it possible to inhibit translational readthrough errors, in a RB-dependent pathway. This work suggests that small molecules or peptides could mimic the inhibitory functions of these ribosomal proteins in order to treat cancers where the RB pathway is activatable.
|
482 |
Programmation stochastique à deux étapes pour l’ordonnancement des arrivées d’avions sous incertitudeKhassiba, Ahmed 01 1900 (has links)
Cotutelle avec l'Université de Toulouse 3 - Paul Sabatier, France.
Laboratoire d'accueil: Laboratoire de recherche de l'École Nationale de l'Aviation Civile (ENAC), équipe OPTIM, Toulouse, France. / Dans le contexte d'une augmentation soutenue du trafic aérien et d'une faible marge d'expansion des capacités aéroportuaires, la pression s'accroît sur les aéroports les plus fréquentés pour une utilisation optimale de leur infrastructure, telle que les pistes, reconnues comme le goulot d'étranglement des opérations aériennes. De ce besoin opérationnel est né le problème d'ordonnancement des atterrissages d'avions, consistant à trouver pour les avions se présentant à un aéroport la séquence et les heures d'atterrissage optimales par rapport à certains critères (utilisation des pistes, coût total des retards, etc) tout en respectant des contraintes opérationnelles et de sécurité.
En réponse à ce besoin également, depuis les années 1990 aux États-Unis et en Europe, des outils d'aide à la décision ont été mis à la disposition des contrôleurs aériens, afin de les assister dans leur tâche d'assurer la sécurité et surtout la performance des flux d'arrivée.
Un certain nombre de travaux de recherche se sont focalisés sur le cas déterministe et statique du problème d'atterrissage d'avions. Cependant, le problème plus réaliste, de nature stochastique et dynamique, a reçu une attention moindre dans la littérature. De plus, dans le cadre du projet européen de modernisation des systèmes de gestion de trafic aérien, il a été proposé d’étendre l’horizon opérationnel des outils d’aide à la décision de manière à prendre en compte les avions plus loin de l'aéroport de destination. Cette extension de l'horizon opérationnel
promet une meilleure gestion des flux d'arrivées via un ordonnancement précoce plus efficient. Néanmoins, elle est inévitablement accompagnée d'une détérioration de la qualité des données d'entrée, rendant indispensable la prise en compte de leur stochasticité.
L’objectif de cette thèse est l’ordonnancement des arrivées d’avions, dans le cadre d'un horizon opérationnel étendu, où les heures effectives d'arrivée des avions sont incertaines. Plus précisément, nous proposons une approche basée sur la programmation stochastique à deux étapes. En première étape, les avions sont pris en considération à 2-3 heures de leur atterrissage prévu à l'aéroport de destination. Il s'agit de les ordonnancer à un point de l'espace aérien aéroportuaire, appelé IAF (Initial Approach Fix). Les heures effectives de passage à ce point sont supposées suivre des distributions de probabilité connues. En pratique, cette incertitude peut engendrer un risque à la bonne séparation des avions nécessitant l'intervention des contrôleurs. Afin de limiter la charge de contrôle conséquente, nous introduisons des contraintes en probabilité traduisant le niveau de tolérance aux risques de sécurité à l'IAF après révélation de l'incertitude. La deuxième étape correspond au passage effectif des avions considérés à l'IAF. Comme l'incertitude est révélée, une décision de recours est prise afin d'ordonnancer les avions au seuil de piste en minimisant un critère de deuxième étape (charge de travail des contrôleurs, coût du retard, etc).
La démonstration de faisabilité et une étude numérique de ce problème d'ordonnancement des arrivées d'avions en présence d'incertitude constituent la première contribution de la thèse. La modélisation de ce problème sous la forme d’un problème de programmation stochastique à deux étapes et sa résolution par décomposition de Benders constituent la deuxième contribution. Finalement, la troisième contribution étend le modèle proposé au cas opérationnel, plus réaliste où nous considérons plusieurs points d’approche initiale. / Airport operations are well known to be a bottleneck in the air traffic system, which puts more and more pressure on the world busiest airports to optimally schedule landings, in particular, and also – but to a smaller extent – departures. The Aircraft Landing Problem (ALP) has arisen from this operational need. ALP consists in finding for aircraft heading to a given airport a landing sequence and landing times so as to optimize some given criteria (optimizing runway utilization, minimizing delays, etc) while satisfying operational constraints (safety constraints mainly). As a reply to this operational need, decision support tools have been designed and put on service for air traffic controllers since the early nineties in the US as well as in Europe.
A considerable number of publications dealing with ALP focus on the deterministic and static case. However, the aircraft landing problem arising in practice has a dynamic nature riddled with uncertainties. In addition, operational horizon of current decision support tools are to be extended so that aircraft are captured at larger distances from the airport to hopefully start the scheduling process earlier. Such a horizon extension affects the quality of input data which enlarges the uncertainty effect.
In this thesis, we aim at scheduling aircraft arrivals under uncertainty. For that purpose, we propose an approach based on two-stage stochastic programming. In the first stage, aircraft are captured at a large distance from the destination airport. They are to be scheduled on the same initial approach fix (IAF), a reference point in the near-to-airport area where aircraft start their approach phase preparing for landing. Actual IAF arrival times are assumed to be random variables with known probability distributions.
In practice, such an uncertainty may cause loss of safety separations between aircraft.
In such situations, air traffic controllers are expected to intervene to ensure air traffic safety. In order to alleviate the consequent air traffic control workload, chance constraints are introduced so that the safety risks around the IAF are limited to an acceptable level once the uncertainty is revealed. The second stage corresponds to the situation where aircraft are actually close to the IAF. In this stage, the uncertainty is revealed and a recourse decision is made in order to schedule aircraft on the runway threshold so that a second-stage cost function is minimized (e.g., air traffic control workload, delay cost, etc).
Our first contribution is a proof of concept of the extended aircraft arrival management under uncertainty and a computational study on optimization parameters and problem characteristics. Modeling this problem as a two-stage stochastic programming model and solving it by a Benders decomposition is our second contribution. Finally, our third contribution focuses on extending our model to the more realistic case, where aircraft in the first stage are scheduled on several IAFs.
|
483 |
Identification paramétrique en dynamique transitoire : traitement d’un problème couplé aux deux bouts / Parametric identification in transiant dynamic : traitment of a boundary value problemNouisri, Amine 18 November 2015 (has links)
Les travaux de thèse portent sur l'identification paramétrique en dynamique transitoire à partir des mesures fortement bruitées, l'un des objectifs à long terme étant de proposer une méthode d’identification peu intrusive afin de pouvoir être implémentée dans des codes de calcul éléments finis commerciaux. Dans ce travail, le concept de l'erreur en relation de comportement modifiée a été retenu pour traiter le problème d’identification des paramètres matériau. La minimisation de la fonctionnelle coût sous contraintes débouche, dans le cas de la dynamique transitoire, sur un problème dit « aux deux bouts » dans lequel il s’agit de résoudre un problème différentiel spatio-temporel avec des conditions à la fois initiales et finales en temps. Il en résulte un problème couplé entre les champs direct et adjoint dont le traitement est délicat. Dans un premier temps, des méthodes précédemment développées telles que la « méthode de Riccati » et la « méthode de tirs » ont été étudiées. Il est montré que l’identification par ces méthodes est robuste même pour des mesures fortement corrompues, mais qu’elles sont limitées par la complexité d’implémentation dans un code industriel, des problèmes de conditionnement ou de coût de calcul. Dans un second temps, une approche itérative basée sur une méthode de sur-relaxation a été développée et comparée à celles précédemment mentionnées sur des exemples académiques, validant l’intérêt de cette nouvelle approche. Enfin, des comparaisons ont été menées entre cette technique et une variante « discrétisée » de la formulation introduite par Bonnet et Aquino [Inverse Problems, vol. 31, 2015]. / This thesis deals with parameters identification in transient dynamic in case of highly noisy experimental data. One long-term goal is the derivation of a non-intrusive method dedicated to the implementation in a commercial finite element code.In this work, the modified error in the constitutive relation framework is used to treat the identification of material parameters. The minimization of the cost function under constraints leads, in the case of transient dynamics, to a « two points boundary value problem » in which the differential space-time problem involves both initial and final time conditions. This results in a problem coupling the direct and adjoint fields, whose treatment is difficult.In the first part, methods such as those based on the « Riccati equations » and the « shooting methods » have been studied. It is shown that the identification is robust even in the case of highly corrupted measures, but these methods are limited either by the implementation intrusiveness, conditioning problems or the numerical cost.In the second part, an iterative over-relaxation approach is developed and compared to the aforementioned approaches on academic problems in order to validate the interest of the method. Finally, comparisons are carried out between this approach and a « discretized » variation of the formulation introduced by Bonnet and Aquino [Inverse Problems, vol. 31, 2015].
|
484 |
Two-photon chromophore-polymer conjugates grafted onto gold nanoparticles as fluorescent probes for bioimaging and photodynamic therapy applications / Conjugués polymère-chromophores biphotoniques greffés sur des nanoparticules d'or comme sondes fluorescentes pour la bioimagerie et la photothérapie dynamiqueCepraga, Cristina 30 November 2012 (has links)
La photothérapie dynamique (PTD) est un traitement alternatif du cancer qui nécessite l’utilisation de chromophores (photosensibilisateurs) capables d’induire la mort cellulaire suite à une irradiation lumineuse. Les nanoparticles d’or (AuNP), grâce à leur phénomène de résonance plasmon localisée, peuvent exalter les propriétés photophysiques des chromophores localisés à leur surface. L’utilisation d’une excitation biphotonique, dans le proche infrarouge, peut être utilisée pour améliorer l’action thérapeutique (PTD) ou diagnostique (imagerie de fluorescence) des chromophores en augmentant la profondeur de pénétration dans les tissus et la résolution tridimensionnelle de la microscopie biphotonique.Lors de ce travail, l’élaboration de nouvelles nanoparticules hybrides est proposée, présentant des applications potentielles en bioimagerie (sondes brillantes) et comme photosensibilisateurs pour la PTD. Ces nanoparticules sont composées d’un cœur d’or sur lequel sont greffés des conjugués polymère-chromophores biphotoniques. La stratégie de synthèse a consisté à : i) synthétiser des conjugués polymère-chromophores biphotoniques solubles dans l’eau ; ii) les greffer de manière orientée à la surface des AuNP. La synthèse des conjugués polymère-chromophores hydrosolubles on été synthétisés via le couplage efficace de chromophores hydrophobes en position latérale des copolymères P(NAM-co-NAS) bien-définis, obtenus par la techniques de polymérisation radicalaire contrôlée RAFT. Cette stratégie permet le contrôle à la fois de la longueur des chaînes polymère formées (2 000 g.mol-1 < Mn plus < 37 000 g.mol-1) et du nombre de chromophores couplés par chaîne (de 1 à 21). Le greffage orienté de ces conjugués à la surface des AuNP a été mis en évidence (TEM, ATG) et les densités de greffage se sont avérées élevées (~0.5chaîne/nm²). Un des rôles de la chaîne polymère étant de contrôler la distance entre les chromophores et la surface des AuNP. Il a été mis en évidence que l’augmentation de la longueur de chaine des conjugués induisait, outre une augmentation de la couronne greffée (par MET) sur les AuNP, une augmentation de l’émission de fluorescence de ces conjugués polymère-chromophores. Enfin, les propriétés biologiques des conjugués avant et après greffage sur les AuNP ont été évaluées in cellulo, mettant en valeur leur potentiel pour des applications thérapeutiques et diagnostiques. / Photodynamic therapy (PDT) is an alternative treatment of cancer requiring the use of chromophore molecules (photosensitizers), which can induce cell death after light excitation. Gold nanoparticles (AuNP), exhibiting localized Surface Plasmon Resonance, can enhance the photophysical response of chromophores located in their vicinity, and thus improve their therapeutic action. Moreover, the use of highly localized two-photon chromophores (photosensitizers and fluorophores), capable to undergo a localized excitation by light in the Near InfraRed region, should increase the penetration depth into tissues, thus improve the treatment efficiency (by PDT) and the imaging (by fluorescence microscopy) of cancer tissues.In this work, we describe the elaboration of water-soluble hybrid nano-objects for PDT and fluorescence bioimaging applications, composed of two-photon chromophore-polymer conjugates grafted onto gold nanoparticles. In order to obtain these nano-objects we follow a multistep strategy: i) the synthesis of a well-defined water-soluble chromophore-polymer conjugates; ii) the end-group oriented grafting of chromophore-polymer conjugates onto 20 nm AuNP. The coupling of hydrophobic two-photon chromophores on linear water-soluble copolymer chains (poly(N-acryloylmorpholine-co-N-acryloxysuccinimide)), obtained by controlled/living RAFT polymerization, resulted in well-defined water-soluble chromophore-polymer conjugates, with different polymer lengths (2 000 g.mol-1 < Mn < 37 000 g.mol-1) and architectures (random or block), and a controlled number of chromophores per chain (varying between 1 and 21). Their grafting onto 20 nm AuNP gave water-soluble hybrid nano-objects with high grafting densities (~0.5 chains/nm²). The role of the polymer chain being to tune the distance between chromophores and AuNP surface, we have evidenced the increase in the polymer corona thickness of grafted AuNP (estimated by TEM) with the increasing polymer Mn, corroborating with the corresponding distance-dependent fluorescence properties of those. Finally, the in cellulo biological properties of two-photon chromophore-polymer conjugates, before and after grafting onto AuNP, have been investigated, highlighting their potential for two-photon bioimaging and PDT applications.
|
485 |
Emmanuel Sougez (1889-1972) : un photographe en prise avec son temps / Emmanuel Sougez (1889-1972) : the influence and interaction between a photographer and his eraLavie, Juliette 06 December 2013 (has links)
La Renaissance de la photographie entre la fin des années 1920 et le début des années 1930 en France était-elle liée au seul cercle des avants-gardes ? Les historiens de la photographie ont longtemps orienté leurs recherches sur le fait que les photographes de la Nouvelle Vision avaient sorti la photographie des errements du pictorialisme et lui avait rendu son autonomie vis-à-vis des arts graphiques, toutefois ils ont négligé une remarque formulée dès 1930 par Carlo Rim selon lequel « les images abstraites de Man Ray et de Tabard, qui annoncèrent une réaction heureuse […] ne fur[ent] qu’une vogue éphémère ». Si la Nouvelle Vision fut considérée comme un nouvel âge d’or, elle fut rapidement éclipsée en France par un retour « à l’image la plus nette du sujet le plus pauvre » généré par la redécouverte des photographes primitifs.C’est à cette part de l’histoire de la photographie que cette étude sur le photographe Emmanuel Sougez (1889-1972) est consacrée. Car si Sougez a été élevé au rang des maîtres de la photographie et célébré jusque dans les années 1950 comme le plus grand photographe français vivant, c’est pour avoir réintroduit l’usage de la chambre photographique de grand format et le tirage par contact. Ce faisant, cette étude fait apparaître une autre face de la Renaissance de la photographie en France à partir d’une figure oubliée, en évoquant le rôle crucial que Sougez a joué entre le Premier Salon indépendant de la photographie en 1928 et le dernier Salon national de la photographie en 1959. Aussi, en soulignant l’apport de ce photographe à l’histoire de son art, cette thèse révèle des aspects inédits de la photographie dans la première moitié du XXe siècle. / Is it possible for the renaissance in the field of photography that took place in France between the 1920’s and early 1930’s to be traced to a single group of avant-garde artists ? Photography historians have traditionally concentrated their research on the fact that the photographs of the New Vision released photography from the mistakes of pictorialism and gave it back its autonomy in terms of graphic arts. However, they neglected a remark made in 1930 by Carlo Rim: “the abstract images of Man Ray and Tabard, which foreshadow a joyful reaction, are nothing but an ephemeral fad.” Though the New Vision can be considered to be photography’s new golden age, in France it was rapidly eclipsed by a return “to the most in focus image of the poorest subject,” generated by the rediscovery of early photographs.It is to this era in the history of photography that this study of the photographer Emmanuel Sougez (1889-1972) is devoted. Sougez’s rise to the ranks of the masters of photography and his celebration until the 1950’s as one of the greatest living French photographers, is largely due to his reintroduction of the use of a large format view camera and contact prints. Thus, this study brings to light another facet of the renaissance of photography in France, within the context of a forgotten figure, by assessing the crucial role that Sougez played between the First Independent Salon of Photography in 1928 and the last National Salon of Photography in 1959. Furthermore, in emphasizing the photographer’s contribution to his art, this thesis reveals previously unseen aspects of photography in the first half of the 20th century.
|
486 |
Détection de l’invalidité et estimation d’un effet causal en présence d’instruments invalides dans un contexte de randomisation mendélienneBoucher-Roy, David 08 1900 (has links)
La randomisation mendélienne est une méthode d’instrumentation utilisant des instruments
de nature génétique afin d’estimer, via par exemple la régression des moindres
carrés en deux étapes, une relation de causalité entre un facteur d’exposition et une réponse
lorsque celle-ci est confondue par une ou plusieurs variables de confusion non mesurées. La
randomisation mendélienne est en mesure de gérer le biais de confusion à condition que les
instruments utilisés soient valides, c’est-à-dire qu’ils respectent trois hypothèses clés. On
peut généralement se convaincre que deux des trois hypothèses sont satisfaites alors qu’un
phénomène génétique, la pléiotropie, peut parfois rendre la troisième hypothèse invalide.
En présence d’invalidité, l’estimation de l’effet causal de l’exposition sur la réponse peut
être sévèrement biaisée. Afin d’évaluer la potentielle présence d’invalidité lorsqu’un seul
instrument est utilisé, Glymour et al. (2012) ont proposé une méthode qu’on dénomme ici
l’approche de la différence simple qui utilise le signe de la différence entre l’estimateur des
moindres carrés ordinaires de la réponse sur l’exposition et l’estimateur des moindres carrés
en deux étapes calculé à partir de l’instrument pour juger de l’invalidité de l’instrument. Ce
mémoire introduit trois méthodes qui s’inspirent de cette approche, mais qui sont applicables
à la randomisation mendélienne à instruments multiples. D’abord, on introduit l’approche
de la différence globale, une simple généralisation de l’approche de la différence simple au cas
des instruments multiples qui a comme objectif de détecter si un ou plusieurs instruments
utilisés sont invalides. Ensuite, on introduit les approches des différences individuelles et des
différences groupées, deux méthodes qui généralisent les outils de détection de l’invalidité
de l’approche de la différence simple afin d’identifier des instruments potentiellement
problématiques et proposent une nouvelle estimation de l’effet causal de l’exposition sur la
réponse. L’évaluation des méthodes passe par une étude théorique de l’impact de l’invalidité
sur la convergence des estimateurs des moindres carrés ordinaires et des moindres carrés
en deux étapes et une simulation qui compare la précision des estimateurs résultant des
différentes méthodes et leur capacité à détecter l’invalidité des instruments. / Mendelian randomization is an instrumentation method that uses genetic instruments
to estimate, via two-stage least squares regression for example, a causal relationship
between an exposure and an outcome when the relationship is confounded by one or more
unmeasured confounders. Mendelian randomization can handle confounding bias provided
that the instruments are valid, i.e., that they meet three key assumptions. While two of
the three assumptions can usually be satisfied, the third assumption is often invalidated
by a genetic phenomenon called pleiotropy. In the presence of invalid instruments, the
estimate of the causal effect of exposure on the outcome may be severely biased. To assess
the potential presence of an invalid instrument in single-instrument studies, Glymour et
al. (2012) proposed a method, hereinafter referred to as the simple difference approach,
which uses the sign of the difference between the ordinary least squares estimator of the
outcome on the exposure and the two-stage least squares estimator calculated using the
instrument. Based on this approach, we introduce three methods applicable to Mendelian
randomization with multiple instruments. The first method is the global difference approach
and corresponds to a simple generalization of the simple difference approach to the case of
multiple instruments that aims to detect whether one or more instruments are invalid. Next,
we introduce the individual differences and the grouped differences approaches, two methods
that generalize the simple difference approach to identify potentially invalid instruments
and provide new estimates of the causal effect of the exposure on the outcome. The methods
are evaluated using a theoretical investigation of the impact that invalid instruments have
on the convergence of the ordinary least squares and two-stage least squares estimators as
well as with a simulation study that compares the accuracy of the respective estimators and
the ability of the corresponding methods to detect invalid instruments.
|
487 |
Les premiers discours sur la musique au cinéma dans la presse française (1918-1934) : enjeux théoriques, pratiques et technologiquesBolduc-Cloutier, Hubert 05 1900 (has links)
Cotutelle - Université libre de Bruxelles/Université de Montréal / Si la majorité des recherches situées au croisement de la musicologie et des études cinématographiques s’est centrée sur une exploitation des sources filmiques et des textes musicaux comme outil d’analyse, le prisme de la presse permet de porter un nouvel éclairage sur les principaux enjeux de la musique au cinéma. Cette thèse se propose de mettre en examen les premiers discours sur la musique au cinéma parus dans la presse française, de l’essor de la culture des grands orchestres de fosse à la fin de la commercialisation des technologies du cinéma sonore (1918-1934). La première partie interroge les fonctions octroyées à l’objet musical au cinéma par le biais d’un périodique musical (Le Courrier musical, 1917-1935) et son esthétique par la figure d’un critique spécialiste de la question (Raymond Berner, 1921-1934). Ensuite, nous soulignons la valeur musicale des technologies développées par Charles Delacommune pour la mise en place du synchronisme audiovisuel au temps du cinéma muet (dans les écrits de Raymond Berner) et du sonore (chez Émile Vuillermoz). Les bases théoriques des deux principales pratiques de l’accompagnement musical des films muets – l’adaptation et la partition originale – sont questionnées à l’aune du discours des adaptateurs et des écrits parus dans la presse musicale. Dans la foulée, la deuxième partie de cette thèse se centre sur les discours tenus dans la presse musicale lors de la transition vers le cinéma sonore (1928-1934). Nous montrons sur quelles bases s’articulent les principales considérations techniques (la musique mécanique, la synthèse sonore), socio-professionnelles (le chômage des musiciens exécutants), pédagogiques (l’enseignement de la musique à l’aide du film), et esthétiques (la phonogénie, la musique et les effets sonores) de la musique dans le film sonore. Notre analyse se concentre ensuite sur les discours sur les premiers films sonores français publiés dans La Revue musicale, tout en cernant l’exemple du film Rapt (Dimitri Kirsanoff, musique d’Arthur Hoérée et Arthur Honegger, 1934). Enfin, nous démontrons comment une approche synthétique des entretiens menés auprès des compositeurs permet d’approfondir notre compréhension du travail des musiciens au studio. / While the majority of the researches at the crossroads of musicology and film studies has focused on harnessing films and music scores as analytical tools, the lens of the press allows to shed a new light on the most salient film music issues. This thesis aims on investigating the first discourses on film music published in the French press, from the rise of great cinema theater orchestras to the end of the commercialization of sound film technologies (1918-1934). The first part stresses film music functions through one specific music periodical (Le Courrier musical, 1917-1935) and its aesthetic through the figure of a critic specialized on the topic (Raymond Berner, 1921-1934). Then, we underline the musical value of the technologies developed by Charles Delacommune for the achievement of audiovisual synchronism during the silent film era (based on Raymond Berner’s writings) and the sound film era (based on Émile Vuillermoz’s writings). The theoretical basis of the two main silent film accompaniment practices – adaptation and original score – are questioned within the discourses of the adaptators and texts published in music periodicals. In the same perspective, the second part of this thesis focuses on the discourses published in the music press during the transition to sound film (1928-1934). We uncover and analyse of the main sound film music technological (the “musique mécanique”, sound synthesis), socio-professional (performing musicians’ unemployment), didactical (the teaching of music with the aid of film), and aesthetical (“phonogénie”, music and sound effects) issues. Our research then focuses on the discourses on the first French sound film published in the Revue musicale (1921-1939), while examining the case of the film Rapt (Dimitri Kirsanoff, music by Arthur Hoérée and Arthur Honegger, 1934). Finally, we show how a synthesis approach of interviews with composers allows to deepen our understanding of the work of musicians in film studios.
|
488 |
Essays on technological change and factor reallocationsSandwidi, Narcisse 06 1900 (has links)
The first paper demonstrates how, through the capital reallocation channel, increased automation in routine occupations has reduced employment and wages in non-routine occupations. Automation in routine occupations absorbs capital from non-routine occupations, reducing employment and wages in the latter. This mechanism is referred to as automation cross-occupation spillovers. Between 1980 and 2010, automation reduced average labor income by 21%. Cross-occupation spillover accounts for two-thirds of this drop. Furthermore, I find that automation has contributed to the rise of inequality in the United States. Indeed, automation accounts for 30.3% of the increase in occupational labor income inequality between 1980 and 2010.
The second paper reconciles two stylized facts that characterize modern economic growth, balanced growth, and structural change, in a context where the factor intensities differ. I extend the neoclassical growth model to two sectors with different factor intensities, and I derive the dynamics of the sectoral TFPs that ensure aggregate balanced growth. I derive the condition on the TFP growth such that balanced growth is consistent with structural change. The condition of balanced growth in a two-sector model with different factor intensities is that the aggregate TFP growth minus the wage growth weighted by the aggregate labor share is constant. In this framework, structural change occurs through two channels. The first is the change in the sectoral TFP ratio and the second is the change in the relative cost of factors. The empirical analysis confirms that the model replicates the stylized facts aforementioned.
The third paper shows, both theoretically and empirically, how corporate tax cuts contributed to structural change. For nearly a century, the United States has consistently reduced corporate taxes while maintaining the labor income tax. This shift in tax structure has an uneven impact on goods and services production, contributing to the divergence of sectoral value-added. Indeed, the factor intensity of the goods-producing sector and the service-producing sector differs, thus, changes in corporate taxes affect them differently.
A 1% increase in the corporate tax retention rate raises the value-added of the services sector by 0.27 percentage points relative to the value-added of the goods sector. / Dans le premier article, nous examinons comment l’automatisation dans les professions routinières, en réallouant le capital, entraîne une diminution de l’emploi et des salaires dans les professions non routinières. En effet, l’automatisation des professions routinières mobi- lise le capital des professions non routinières, ce qui réduit l’emploi et les salaires dans ces dernières. Ce mécanisme est appelé effets indirects de l’automatisation entre les professions. De 1980 à 2010, le revenu moyen du travail a diminué de 21% en raison de l’automatisa- tion. Les effets indirects en représentent les deux tiers. En outre, l’automatisation contribue à l’accroissement des inégalités de revenus aux États-Unis. En effet, 30,3% de l’augmentation des inégalités de revenus entre les professions entre 1980 et 2010, est imputable à l’automatisation. Le second article concilie deux faits stylisés qui caractérisent la croissance économique contemporaine: la croissance équilibrée et le changement structurel, dans un contexte où les intensités des facteurs de production varient selon les secteurs. Le modèle de croissance néoclassique est étendu à deux secteurs avec des fonctions de production différentes. Nous dérivons la dynamique de la Productivité Totale des Facteurs (PTF) de chaque secteur qui permet d'assurer une croissance équilibrée. Nous dérivons ensuite la condition de croissance de la PTF afin que la croissance équilibrée soit compatible avec le changement structurel. Dans un modèle à deux secteurs avec des intensités de facteurs différentes, la condition de croissance équilibrée est que la croissance de la PTF agrégée moins celle des salaires pondérée par l'intensité du travail soit constante. Dans cette situation, le changement structurel est expliqué par deux variables. La première est le ratio de la PTF des secteurs, et la seconde est le coût relatif des facteurs. L'analyse empirique montre que le modèle reproduit les faits stylisés mentionnés. Le troisième article met en évidence, tant sur le plan théorique qu'empirique, comment la réduction de l'impôt sur les sociétés a contribué au changement structurel. Les États-Unis ont continuellement diminué l'impôt sur les sociétés tout en conservant l'impôt sur le revenu du travail depuis près d'un siècle. La modification de la structure fiscale a un effet disproportionné sur la production du secteur des biens et celle du secteur des services, ce qui entraîne une disparité de la valeur ajoutée entre les deux secteurs. En effet, les intensités des facteurs de production de biens et celles des facteurs production de services sont différentes, ce qui implique que les variations de l'impôt sur les sociétés affectent ces deux secteurs différemment. Une hausse de 1% du taux de rétention de l'impôt sur les sociétés entraîne une augmentation de 0,27 point de pourcentage de la valeur ajoutée du secteur des services par rapport à celle du secteur des biens.
|
489 |
Exchanging Empires: Free Ports, Reform, and Revolution in the Atlantic World, 1750-1784Kleiser, Randal Grant January 2024 (has links)
Mid-eighteenth-century Caribbean free ports constitute crucial sites of both imperial domination as well as revolutionary potential in the development of the modern world. While Spain, France, and Britain’s establishment of Caribbean “free ports” from 1756-1784 marked a significant shift in European imperial political economy, few historians have investigated or compared the motivations for these reforms. Also, little scholarship exists on how various people throughout the Atlantic world reacted to these new free ports. However, this movement affected many of the dramatic political and economic changes made during the second half of the eighteenth century. Drawing on U.S., European, and Caribbean archives, this dissertation asserts that, for some, Caribbean free ports buttressed and revitalized various empires, while, for others, they helped combat these empires’ worst abuses.
While varying over time and place, “free ports” generally describe places where merchants of all flags could enter and conduct commerce with each other. This policy constituted a meaningful economic reform within European imperial commercial regimes that often excluded foreign traders from colonial ports. This has prompted some scholars to describe the promulgation of free ports as an early moment of “liberalism.” Instead, I argue that Spain, France, and Britain used this same commercial “tool” to accomplish distinct goals, but all with the aim of directing rather than completely “opening” foreign trade. Spain established free ports in the colony of Santo Domingo in order to encourage Spanish and Canary Island settlers to populate a tenuous borderland region that was under threat of French conquest. Spain’s free ports thus successfully maintained Spanish territorial control in the region. French policy-makers, on the other hand, opened several ports in the Lesser Antilles and Saint-Domingue primarily to provide essential supplies of lumber, livestock, and foodstuffs to Caribbean planters which helped sustain France’s lucrative plantation regime. Finally, Whitehall passed the Free Port Act to export British manufactured goods and enslaved Africans to foreign markets, thereby “ruining” their rivals’ colonial trade and extending Britain’s commercial empire to foreign realms. While subject to different regulations, all these reforms drew on previous Dutch and Danish models, as well as on each other, in a spirit of jealous emulation. And while exhibiting distinct goals, all these (heavily-restricted) free-port policies sought to control colonial commerce and augment the relative wealth and power of their particular empire.
Building off these imperial perspectives and goals, this dissertation then reveals these Caribbean free ports’ effects on other people in the Atlantic world. I argue that American revolutionaries viewed British free ports as an insufficient and illogical reform, thus heightening their disappointment of and distance from the mother country. Foreign free ports also served as key sources to replace British commerce, inspiring nascent revolutionaries that life outside the British commercial system was possible. Later, foreign free ports provided essential supplies for the American war effort and helped the nascent U.S. economy to survive. Moving to the intellectual realm, Caribbean free ports also provided material evidence for European philosophes who published influential works on political economy. People like Adam Smith and Abbé Raynal (and his co-authors of the famous Histoire des deux Indes) observed Caribbean free ports and used Dutch ones as models to demonstrate how more liberalized foreign commerce could foster mutual prosperity, consumer benefits, and some degree of non-antagonistic peace between polities. Free ports, therefore, were essential in the development of “classical liberalism” and doux commerce. Finally, this dissertation uncovers how many enslaved people used such ports to escape their enslavers and spread across the Greater Caribbean. These harbors attracted many foreign trading vessels through which enslaved people could receive essential information, gain money through petty commerce, or stow away. Contrary to imperial desires, free ports offered more opportunities for freedom-seekers and thus challenged the slave-based foundations of these Atlantic empires. As such, Caribbean free ports sit at the center of key debates and conflicts regarding the nature of empire, economic sovereignty, and the benefits and detriments of international trade in the eighteenth century and beyond.
|
490 |
Musique et cinéma d’animation en France (1930–1950)Alba, Stefano 05 1900 (has links)
Cette version de la thèse a été tronquée de certains éléments protégés par le droit d’auteur. / Our study explores the musical universe of French animation during the first two decades of sound cinema, with the aim of showing the extent of a phenomenon that has never been studied in its entirety. The context of the era is characterized by the participation of a considerable number of “art music” composers, whose contribution to animation constitutes a lesser-known aspect of their career.
Through the study of unpublished archival documents and press articles of the time, the subject is approached mainly from a historical perspective, in order to situate apparently exceptional cases in the context of the artistic networks that allowed the creation of these works. The thesis is constructed following a chrono-thematic plan. In our history, we integrate elements of film music analysis to illustrate emblematic cases of the different tendencies of the time.
The study of the period 1930–1939 highlights the “artisanal” aspect of the productions of the time. Our attention focuses specifically on lesser-known cases, including those of Jean Françaix and Pierre Vellones. The second chapter is devoted to director André Vigneau and his collaboration with Henri Cliquet-Pleyel. Our exploration continues with the study of two iconic pre-war films: La Fortune enchantée by Pierre Charbonnier (music by Henri Sauguet) and Barbe Bleue by René Bertrand (music by Maurice Jaubert). In addition, we focus on “auteur” animated advertising films and the work of Alexandre Alexeïeff, marked by his collaboration with Poulenc, Auric, Milhaud and Roland-Manuel. Another key figure in French animation is the composer Jean Wiéner, to whom we devote a monographic chapter, which details his collaboration with the animator Paul Grimault.
Our study of the Vichy era (1940–1944) focuses on the growing role of the state in financing animated films. This trend is illustrated by two emblematic cases of “highbrow” cartoons: Callisto, la petite nymphe de Diane by André-Édouard Marty (music by Honegger and Roland-Manuel) and La Chasse infernale by Jean and Alex Giaume (music by Tony Aubin). Finally, in the last chapter, we examine the post-war years and, most notably, a forgotten composer of film music, Guy Bernard. On the other hand, if André Jolivet is far from being forgotten, the cartoon music he composed during the 1940s represents a largely unknown part of his career. / Notre étude explore l’univers musical de l’animation française au cours des deux premières décennies du cinéma sonore, dans le but de montrer l’ampleur d’un phénomène qui n’a jamais été étudié dans son ensemble. Le contexte de l’époque se caractérise par la participation d’un nombre considérable de compositeurs et compositrices de musique « savante », dont le cinéma d’animation constitue un aspect encore peu connu de leur carrière.
À travers l’étude de documents d’archives inédits et d’articles de presse de l’époque, le sujet est abordé principalement dans une perspective historique, afin de situer des cas apparemment exceptionnels dans le contexte des réseaux artistiques qui ont permis la création de ces œuvres. La thèse est construite en suivant un plan chrono-thématique. Au cours de notre histoire, nous intégrons des étapes d’analyse musico-filmique qui illustrent des cas emblématiques des différentes tendances esthétiques de l’époque.
L’étude de la période 1930–1939 met en évidence l’aspect « artisanal » des productions de l’époque. Notre attention porte spécifiquement sur des cas peu connus, dont ceux de Jean Françaix et de Pierre Vellones. Le deuxième chapitre est consacré au réalisateur André Vigneau et à sa collaboration avec Henri Cliquet-Pleyel. Notre exploration continue à travers l’étude de deux films iconiques d’avant-guerre : La Fortune enchantée de Pierre Charbonnier (musique d’Henri Sauguet) et Barbe Bleue de René Bertrand (musique de Maurice Jaubert). Une importance particulière est accordée au cinéma d’animation publicitaire « d’auteur » et à l’œuvre d’Alexandre Alexeïeff, marquée par la collaboration avec Poulenc, Auric, Milhaud et Roland-Manuel. Une autre figure clé du dessin animé français est le compositeur Jean Wiéner, auquel nous consacrons un chapitre monographique qui examine particulièrement sa collaboration avec Paul Grimault.
Pour la période de l’Occupation (1940–1944) nous évoquons le rôle croissant de l’État dans la subvention de films d’animation. Cette tendance est illustrée par deux cas de dessins animés « savants » : Callisto, la petite nymphe de Diane d’André-Édouard Marty (musique d’Honegger et Roland-Manuel) et La Chasse infernale de Jean et Alex Giaume (musique de Tony Aubin). Nous terminons sur un panorama de l’immédiat après-guerre, notamment autour d’une figure oubliée de la musique de film, Guy Bernard. En revanche, si le nom d’André Jolivet est loin d’être oublié, ses musiques de dessins animés des années 40 représentent un aspect méconnu de son œuvre.
|
Page generated in 0.0788 seconds