• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 45
  • 12
  • 9
  • Tagged with
  • 64
  • 20
  • 17
  • 13
  • 11
  • 10
  • 10
  • 9
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Le processus de transformation intérieure inscrit dans les grandes mythologies : illustration par la psychothérapie du jeu de sable

Ladyguina, Anna 10 September 2012 (has links) (PDF)
But : comparer le processus de transformation intérieure au cours de la psychothérapie par le Jeu de Sable avec la transformation du néophyte au cours des rites d'initiation chez les Chamans, dans l'Alchimie et dans les cultes à mystères en Egypte et en Grèce. Méthodologie : Analyse de 856 photos des jeux de sable construits par 28 enfants de 4 à 12 ans. Conclusion : Il existe une similitude entre le processus de transformation vécu en psychothérapie et la première des trois étapes de l'initiation vécue par le néophyte. On retrouve dans les jeux de sable des scénarios archétypiques qui peuvent être classés dans des catégories spécifiques associées aux différentes étapes de la transformation intérieure décrites dans les mythes initiatiques.
52

Le processus de transformation intérieure inscrit dans les grandes mythologies : illustration par la psychothérapie du jeu de sable / Process of inner transformation in the context of the great myth : illustration by sandplay therapy

Ladyguina, Anna 10 September 2012 (has links)
But : comparer le processus de transformation intérieure au cours de la psychothérapie par le Jeu de Sable avec la transformation du néophyte au cours des rites d’initiation chez les Chamans, dans l’Alchimie et dans les cultes à mystères en Egypte et en Grèce. Méthodologie : Analyse de 856 photos des jeux de sable construits par 28 enfants de 4 à 12 ans. Conclusion : Il existe une similitude entre le processus de transformation vécu en psychothérapie et la première des trois étapes de l'initiation vécue par le néophyte. On retrouve dans les jeux de sable des scénarios archétypiques qui peuvent être classés dans des catégories spécifiques associées aux différentes étapes de la transformation intérieure décrites dans les mythes initiatiques. / Aim : comparison between the stages of inner transformation in Sandplay therapy with children and the stages of initiation in the Mystery cults of the ancient Egyptians and Greeks, in Alchemy and in Shamanism. Sample : 28 children from 4 to 12 years old. Instrument of analysis : 856 photos made during the therapy. Results : We report on a similarity between the process of transformation in Sandplay therapy and the first stage of initiation in the different cultures. We found out that in Sandplay therapy the archetypes appeared according to the own internal logic of the transformation process described in the great myths. The archetypes can be classified in categories, which are specific to different stages of the inner transformation.
53

Methods to enhance anaerobic digestion of food waste / Méthode pour améliorer les rendements de production de biogaz à partir de déchets organiques alimentaires

Ariunbaatar, Javkhlan 17 December 2014 (has links)
Le traitement des déchets alimentaires (FW) par digestion anaérobie peut conduire à une production d'énergie couplée à une réduction des émissions de volume et de gaz à effet de serre à partir de ce type de déchets. Néanmoins, l'obtention de la récupération du méthane la plus élevée possible dans un temps plus court avec un fonctionnement stable est difficile. Pour surmonter les obstacles de la MA de divers procédés de pré-traitement FW, la supplémentation en oligo-éléments, bioaugmentation utilisant la bouse des animaux de zoo et la comparaison des configurations de réacteurs, y compris une étape ou en deux réacteurs à cuve agités en continu (CSTR) et un réacteur à membrane anaérobie (AnMBR ) ont été étudiées dans le cadre de la présente recherche. Sur la base des résultats des expériences de traitement par lots, de pré-traitement thermique à 80 ° C pendant 1,5 heure cédés> 50% augmentation de la production de biométhane, et il a été trouvé à être plus économe en énergie que l'ozonation ou prétraitements de choc thermophiles. Parmi les différentes concentrations testées et les oligo-éléments, Fe (II) et Se (VI) des concentrations de 25 à 50 ug / L ont donné lieu à 39 et 35% d'augmentation de la production de biométhane, respectivement. Une meilleure solubilisation des protéines (6,96 ± 2,76% de plus) et de glucides récalcitrants (344,85 ± 54,31 mg / L par rapport à zéro) pourrait être obtenue avec bioaugmentation de girafe fumier (30% en volume), qui a donné un 11,24 ± 4,51% de plus production de biométhane. Un CSTR à deux étages avec digestat re-circulation de meilleurs résultats que d'un stade en raison de sa (i) une meilleure capacité d'auto-ajustement du pH; (ii) une plus grande résistance aux chocs de charge organique; (iii) de près de 100% de matières solides volatiles a été destryoed par rapport à 71% en CSTR une étape; (iv) 50 à 60% de teneur en méthane a été obtenu, alors qu'il était de 40 à 50% en une seule étape CSTR; (c) une petite quantité d'hydrogène a également été détectée à partir de la première étape du réacteur à deux étages qui en fait un système attrayant pour la production de biohythane. Bien que la séparation physique des méthanogènes rendus plus sensibles à des facteurs inhibiteurs, tels que l'ammonium et l'acide propionique. En outre, le temps de rétention hydraulique (HRT) est encore une chute de ces systèmes, d'où une AnMBR équipé d'une membrane de fluorure de vinylidène courant latéral a été proposé et exploité avec succès pour 100 d. Merci de membranes HRT a pu être réduite de 20 d à 1d, tout en conservant un rendement global d'élimination de> 97% de la demande en oxygène influent chimique (COD) et a abouti à une production de biogaz supérieure à 70% de teneur en méthane / Treatment of food waste by anaerobic digestion can lead to an energy production coupled to a reduction of the volume and greenhouse gas emissions from this waste type. Nevertheless, obtaining the highest possible methane recovery in a shorter time with a stable operation is challenging. To overcome the hurdles of AD of FW various pretreatment methods, supplementation of trace elements, bioaugmentation using zoo animals' dung and comparison of reactor configurations including one-stage and two-stage continuously stirred tank reactors (CSTR) as well as anaerobic membrane reactor (AnMBR) were studied in the scope of this research. Based on the results of the batch experiments, thermal pretreatment at 80°C for 1.5 hours yielded 46 – 52% higher biomethane production, and it is more energy efficient than ozonation or thermophilic shock pretreatments. Among the various tested concentrations and trace elements Fe (II) and Se (VI) concentrations of 25-50 ug/L resulted in 39 and 35% increase of biomethane production, respectively. A better solubilization of proteins (6.96 ± 2.76% more) and recalcitrant carbohydrates (344.85 ± 54.31 mg/L as compared to zero) could be obtained with bioaugmentation of giraffe dung (30% by volume), which yielded a 11.24 ± 4.51% higher biomethane production. A two-stage CSTR with digestate re-circulation performed better than one-stage with (i) a better pH self-adjusting capacity; (ii) a higher resistance to organic loading shocks; (iii) almost 100% volatile solids was destroyed as compared to 71% in one-stage CSTR; (iv) 50-60% methane content was obtained, while it was 40-50% in one-stage CSTR; (v) a small amount of hydrogen was also detected from the first stage of the two-stage reactor making it an attractive biohythane production system. Although physically separating the methanogens made them more sensitive to inhibitory factors, such as ammonium and propionic acid. Moreover, the long hydraulic retention time (HRT) is still the problem with these systems, hence an AnMBR equipped with a side-stream polyvinylidene fluoride membrane was proposed and a successful operation was achieved. Thanks to the membranes the HRT was able to be reduced from 20 d to 1d, while maintaining an overall removal efficiency of >97% of the influent chemical oxygen demand (COD) and yielded a higher biogas production with 70% methane content
54

Programmation stochastique à deux étapes pour l’ordonnancement des arrivées d’avions sous incertitude

Khassiba, Ahmed 01 1900 (has links)
Cotutelle avec l'Université de Toulouse 3 - Paul Sabatier, France. Laboratoire d'accueil: Laboratoire de recherche de l'École Nationale de l'Aviation Civile (ENAC), équipe OPTIM, Toulouse, France. / Dans le contexte d'une augmentation soutenue du trafic aérien et d'une faible marge d'expansion des capacités aéroportuaires, la pression s'accroît sur les aéroports les plus fréquentés pour une utilisation optimale de leur infrastructure, telle que les pistes, reconnues comme le goulot d'étranglement des opérations aériennes. De ce besoin opérationnel est né le problème d'ordonnancement des atterrissages d'avions, consistant à trouver pour les avions se présentant à un aéroport la séquence et les heures d'atterrissage optimales par rapport à certains critères (utilisation des pistes, coût total des retards, etc) tout en respectant des contraintes opérationnelles et de sécurité. En réponse à ce besoin également, depuis les années 1990 aux États-Unis et en Europe, des outils d'aide à la décision ont été mis à la disposition des contrôleurs aériens, afin de les assister dans leur tâche d'assurer la sécurité et surtout la performance des flux d'arrivée. Un certain nombre de travaux de recherche se sont focalisés sur le cas déterministe et statique du problème d'atterrissage d'avions. Cependant, le problème plus réaliste, de nature stochastique et dynamique, a reçu une attention moindre dans la littérature. De plus, dans le cadre du projet européen de modernisation des systèmes de gestion de trafic aérien, il a été proposé d’étendre l’horizon opérationnel des outils d’aide à la décision de manière à prendre en compte les avions plus loin de l'aéroport de destination. Cette extension de l'horizon opérationnel promet une meilleure gestion des flux d'arrivées via un ordonnancement précoce plus efficient. Néanmoins, elle est inévitablement accompagnée d'une détérioration de la qualité des données d'entrée, rendant indispensable la prise en compte de leur stochasticité. L’objectif de cette thèse est l’ordonnancement des arrivées d’avions, dans le cadre d'un horizon opérationnel étendu, où les heures effectives d'arrivée des avions sont incertaines. Plus précisément, nous proposons une approche basée sur la programmation stochastique à deux étapes. En première étape, les avions sont pris en considération à 2-3 heures de leur atterrissage prévu à l'aéroport de destination. Il s'agit de les ordonnancer à un point de l'espace aérien aéroportuaire, appelé IAF (Initial Approach Fix). Les heures effectives de passage à ce point sont supposées suivre des distributions de probabilité connues. En pratique, cette incertitude peut engendrer un risque à la bonne séparation des avions nécessitant l'intervention des contrôleurs. Afin de limiter la charge de contrôle conséquente, nous introduisons des contraintes en probabilité traduisant le niveau de tolérance aux risques de sécurité à l'IAF après révélation de l'incertitude. La deuxième étape correspond au passage effectif des avions considérés à l'IAF. Comme l'incertitude est révélée, une décision de recours est prise afin d'ordonnancer les avions au seuil de piste en minimisant un critère de deuxième étape (charge de travail des contrôleurs, coût du retard, etc). La démonstration de faisabilité et une étude numérique de ce problème d'ordonnancement des arrivées d'avions en présence d'incertitude constituent la première contribution de la thèse. La modélisation de ce problème sous la forme d’un problème de programmation stochastique à deux étapes et sa résolution par décomposition de Benders constituent la deuxième contribution. Finalement, la troisième contribution étend le modèle proposé au cas opérationnel, plus réaliste où nous considérons plusieurs points d’approche initiale. / Airport operations are well known to be a bottleneck in the air traffic system, which puts more and more pressure on the world busiest airports to optimally schedule landings, in particular, and also – but to a smaller extent – departures. The Aircraft Landing Problem (ALP) has arisen from this operational need. ALP consists in finding for aircraft heading to a given airport a landing sequence and landing times so as to optimize some given criteria (optimizing runway utilization, minimizing delays, etc) while satisfying operational constraints (safety constraints mainly). As a reply to this operational need, decision support tools have been designed and put on service for air traffic controllers since the early nineties in the US as well as in Europe. A considerable number of publications dealing with ALP focus on the deterministic and static case. However, the aircraft landing problem arising in practice has a dynamic nature riddled with uncertainties. In addition, operational horizon of current decision support tools are to be extended so that aircraft are captured at larger distances from the airport to hopefully start the scheduling process earlier. Such a horizon extension affects the quality of input data which enlarges the uncertainty effect. In this thesis, we aim at scheduling aircraft arrivals under uncertainty. For that purpose, we propose an approach based on two-stage stochastic programming. In the first stage, aircraft are captured at a large distance from the destination airport. They are to be scheduled on the same initial approach fix (IAF), a reference point in the near-to-airport area where aircraft start their approach phase preparing for landing. Actual IAF arrival times are assumed to be random variables with known probability distributions. In practice, such an uncertainty may cause loss of safety separations between aircraft. In such situations, air traffic controllers are expected to intervene to ensure air traffic safety. In order to alleviate the consequent air traffic control workload, chance constraints are introduced so that the safety risks around the IAF are limited to an acceptable level once the uncertainty is revealed. The second stage corresponds to the situation where aircraft are actually close to the IAF. In this stage, the uncertainty is revealed and a recourse decision is made in order to schedule aircraft on the runway threshold so that a second-stage cost function is minimized (e.g., air traffic control workload, delay cost, etc). Our first contribution is a proof of concept of the extended aircraft arrival management under uncertainty and a computational study on optimization parameters and problem characteristics. Modeling this problem as a two-stage stochastic programming model and solving it by a Benders decomposition is our second contribution. Finally, our third contribution focuses on extending our model to the more realistic case, where aircraft in the first stage are scheduled on several IAFs.
55

Détection de l’invalidité et estimation d’un effet causal en présence d’instruments invalides dans un contexte de randomisation mendélienne

Boucher-Roy, David 08 1900 (has links)
La randomisation mendélienne est une méthode d’instrumentation utilisant des instruments de nature génétique afin d’estimer, via par exemple la régression des moindres carrés en deux étapes, une relation de causalité entre un facteur d’exposition et une réponse lorsque celle-ci est confondue par une ou plusieurs variables de confusion non mesurées. La randomisation mendélienne est en mesure de gérer le biais de confusion à condition que les instruments utilisés soient valides, c’est-à-dire qu’ils respectent trois hypothèses clés. On peut généralement se convaincre que deux des trois hypothèses sont satisfaites alors qu’un phénomène génétique, la pléiotropie, peut parfois rendre la troisième hypothèse invalide. En présence d’invalidité, l’estimation de l’effet causal de l’exposition sur la réponse peut être sévèrement biaisée. Afin d’évaluer la potentielle présence d’invalidité lorsqu’un seul instrument est utilisé, Glymour et al. (2012) ont proposé une méthode qu’on dénomme ici l’approche de la différence simple qui utilise le signe de la différence entre l’estimateur des moindres carrés ordinaires de la réponse sur l’exposition et l’estimateur des moindres carrés en deux étapes calculé à partir de l’instrument pour juger de l’invalidité de l’instrument. Ce mémoire introduit trois méthodes qui s’inspirent de cette approche, mais qui sont applicables à la randomisation mendélienne à instruments multiples. D’abord, on introduit l’approche de la différence globale, une simple généralisation de l’approche de la différence simple au cas des instruments multiples qui a comme objectif de détecter si un ou plusieurs instruments utilisés sont invalides. Ensuite, on introduit les approches des différences individuelles et des différences groupées, deux méthodes qui généralisent les outils de détection de l’invalidité de l’approche de la différence simple afin d’identifier des instruments potentiellement problématiques et proposent une nouvelle estimation de l’effet causal de l’exposition sur la réponse. L’évaluation des méthodes passe par une étude théorique de l’impact de l’invalidité sur la convergence des estimateurs des moindres carrés ordinaires et des moindres carrés en deux étapes et une simulation qui compare la précision des estimateurs résultant des différentes méthodes et leur capacité à détecter l’invalidité des instruments. / Mendelian randomization is an instrumentation method that uses genetic instruments to estimate, via two-stage least squares regression for example, a causal relationship between an exposure and an outcome when the relationship is confounded by one or more unmeasured confounders. Mendelian randomization can handle confounding bias provided that the instruments are valid, i.e., that they meet three key assumptions. While two of the three assumptions can usually be satisfied, the third assumption is often invalidated by a genetic phenomenon called pleiotropy. In the presence of invalid instruments, the estimate of the causal effect of exposure on the outcome may be severely biased. To assess the potential presence of an invalid instrument in single-instrument studies, Glymour et al. (2012) proposed a method, hereinafter referred to as the simple difference approach, which uses the sign of the difference between the ordinary least squares estimator of the outcome on the exposure and the two-stage least squares estimator calculated using the instrument. Based on this approach, we introduce three methods applicable to Mendelian randomization with multiple instruments. The first method is the global difference approach and corresponds to a simple generalization of the simple difference approach to the case of multiple instruments that aims to detect whether one or more instruments are invalid. Next, we introduce the individual differences and the grouped differences approaches, two methods that generalize the simple difference approach to identify potentially invalid instruments and provide new estimates of the causal effect of the exposure on the outcome. The methods are evaluated using a theoretical investigation of the impact that invalid instruments have on the convergence of the ordinary least squares and two-stage least squares estimators as well as with a simulation study that compares the accuracy of the respective estimators and the ability of the corresponding methods to detect invalid instruments.
56

Impacts macroéconomiques des changements démographiques : une approche avec générations imbriquées

Drapeau, Maude 20 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2013-2014. / Ce mémoire présente un modèle macroéconomique pouvant servir d’outil pour l’analyse des impacts macroéconomiques du vieillissement de la population québécoise. Le point de départ est le modèle à générations imbriquées de Gertler (1999), dans lequel deux catégories d’agents consommateurs interagissent : les travailleurs et les retraités. Chacun fait face à des contingences individuelles, notamment le passage d’un état de travailleur à celui de retraité puis, au décès. Notre étude enrichit le modèle de Gertler en ajoutant un deuxième bien au panier de consommation, à l’aide d’une fonction d’utilité à élasticité de substitution constante entre les deux types de biens. Ce deuxième bien représente la consommation de soins de santé et le modèle est étalonné de manière à ce que le poids accordé à cette composante de l’utilité augmente au cours du cycle de vie du ménage. La solution dynamique du modèle est simulée et permet d’évaluer la trajectoire de différentes variables macroéconomiques comme le PIB, les dépenses publiques, le taux d’intérêt et les salaires, à la suite d’un choc démographique.
57

Essays on decision making over time : correlation neglect and the labor market discrimination of parents

Sarr, Ibrahima 27 January 2024 (has links)
Cette thèse, structurée en trois essais, se propose tout d’abord d’étudier de façon expérimentale et empirique les règles de décision utilisées dans le processus de décision avec une emphase sur l’inattention à la corrélation et ses conséquences sur les décisions prises, d’autre part la discrimination à l’embauche liée à la parentalité. Un comportement prospectif rationnel fait nécessairement appel à une résolution de problèmes complexes impliquant le calcul des évaluations futures maximales attendues entre des options de choix (calculs Emax ). Dans le premier essai, nous avons mené une expérience pour mesurer la proportion de participants capables d’effectuer ces calculs complexes ainsi que celle utilisant deux règles de calcul alternatives (sous-optimales) qui ignorent la corrélation entre les évaluations futures. La première règle alternative capte les participants qui effectuent des calculs Emax en ignorant la corrélation entre les éléments non observables dans l’ensemble d’informations. La seconde règle alternative est celle utilisée par les sujets calculant le maximum des évaluations futures attendues (calculs maxE), similaires au modèle option-valeur de Stock and Wise (1990). Notre conception expérimentale exploite différentes structures de corrélation entre les évaluations futures pour séparer la part des sujets utilisant chaque règle. L’expérience a été menée sur un échantillon important et hétérogène de sujets, ce qui a permis de relier la propension à utiliser une règle donnée à un ensemble de caractéristiques socio-économiques. Nos résultats suggèrent que 28% des sujets sont capables d’effectuer des calculs Emax en exploitant la structure de corrélation, 20% des sujets effectuent des calculs Emax en ignorant la corrélation, tandis que 52% des sujets effectuent maxE calculs. De plus, nous constatons que la propension à utiliser une règle donnée varie, de manière significative, selon les niveaux d’éducation - les sujets les plus instruits sont beaucoup plus susceptibles d’effectuer des calculs maxE. Le deuxième essai constitue une extension du premier essai. L’arrivée d’un enfant dans une famille engendre plus d’incertitudes poussant ainsi stratégiquement certains agents à éviter ou retarder la venue d’un premier enfant. Cette incertitude supplémentaire apportée par l’arrivée d’un enfant crée des conflits entre la parentalité et l’emploi, en particulier chez les femmes, qui préfèrent souvent sécuriser leur emploi avant de se tourner vers la parentalité. Conséquemment, le report de la première naissance est plus que jamais perceptible dans les sociétés actuelles. Dans le deuxième essai de cette thèse, nous nous donnons comme objectif d’explorer la manière dont les incertitudes liées au travail et les risques accrus d’infertilité associés au retard de maternité interagissent dans la formulation des décisions en matière de parentalité (timing et nombre d’enfants). A cet effet, nous avons développé un modèle de cycle de vie des décisions en matière d’offre de travail et de choix de parentalité et nous avons cherché à quantifier les effets de l’incertitude sur le marché du travail ainsi que de l’inattention à la corrélation sur le report de la première maternité. Nos paramètres estimés (préférences, équations salariales, qualité des enfants) sont conformes à la littérature existante. De plus, nos résultats suggèrent que la réduction des incertitudes liées au marché du travail augmenterait le nombre d’enfants et diminuerait l’âge à la première naissance quel que soit le niveau d’instruction (primaire, secondaire, ou post-secondaire). Le biais comportemental de l’inattention à la corrélation contribuerait également voire plus au report de la parentalité. Le troisième et dernier essai présente des évidences empiriques de discrimination à l’embauche liée à la parentalité dans la province de Québec (Canada) par le biais d’envoi de CVs fictifs. Il examine également dans quelle mesure les congés parentaux et le dévouement au travail réduisent ou renforcent la discrimination à l’embauche. Environ 1300 candidatures ont été envoyées en réponse à des offres d’emploi en ligne pour cinq catégories d’emplois. Les résultats suggèrent que les hommes bénéficient d’un bonus lorsqu’ils sont parent tandis que les femmes subissent un malus (une pénalité). En effet, les pères ont un taux de rappels supérieur de 18 points de pourcentage à celui de leurs homologues masculins, tandis que le taux de rappels des mères est inférieur de 14 points à celui de leur correspondant femmes sans enfant. Nous avons noté que les mères subissent une discrimination même lorsqu’elles montrent leur dévouement au travail. De l’autre côté, le taux de rappels des hommes augmenterait lorsqu’ils signalent leur engagement au travail. La mobilité professionnelle ouvrirait, elle aussi, des perspectives d’emploi ou en d’autres termes les employeurs ont donc tendance à valoriser la mobilité des iv employés. / Via experimental and empirical methods, this thesis consisted of three essays studies, on the one hand, the decision rules used in life-cycle decision-making with an emphasis on the correlation neglect and its consequences, and on other hand, hiring discrimination in relation to parenthood. Rational forward looking behavior requires solving complex problems involving computation of the expected maximum future valuations across choice alternatives (Emax computations). In Chapter 1, we conduct an experiment to measure the share of subjects able to perform these computations as well as the share of subjects using two alternative (sub-optimal) rules of computation which ignore correlation between future valuations. The first alternative rule captures subjects who perform Emax computations ignoring correlation between unobservables in the information set. The second alternative rule captures subjects computing the maximum of the expected future valuations (maxE computations), akin to the option-value model of Stock and Wise (1990). Our experimental design exploits different correlation structures between future valuations to separate the share of subjects using each rule. The experiment was conducted with a large and heterogenous sample of subjects, allowing to relate the propensity to use a given rule to a rich set of socio-economic characteristics. Our results suggest that 28% of subjects are able to perform Emax computations exploiting the correlation structure, 20% of subjects perform Emax computations ignoring correlation, while 52% of subjects perform maxE computations. Moreover, we find that the propensity to use a given rule significantly varies across education levels – higher educated subjects are significantly more likely to perform maxE computations. Chapter 2 studies how the labour uncertainties and increased fertility risks associated with delayed motherhood interact in shaping fertility decisions (timing and number of children). Having a child comes with more uncertainties, and agents strategically avoid uncertainties and conflict between parenthood and employment, particularly among women, by securing their employment before turning to parenthood. Consequently parenthood is being experienced on average later in life than ever. We develop a life-cycle model of labor supply and fertility choices decisions and we quantify how labor market uncertainties as well as correlation neglect contribute to fertility delaying. Our parameters estimated (preferences, wage equations, quality of children) are in line with the existing literature. Moreover, our results suggest that a reduction in the labour uncertainties affect differently fertility decisions according to the education attainment. Indeed, the reduction in labour uncertainties increases number of children and decreases the age at first childbirth for lower educated couples, however, it decreases the number of children and increases age at first childbirth of highly educated couples. The behavioural bias of correlation neglect has a heightened effect on fertility decisions and contributes to parenthood postponement. Finally, Chapter 3 presents experimental evidence about hiring discrimination in relation to parenthood in the province of Québec (Canada) via a correspondence testing. It also investigates to what extent parental leave as well as signalling work commitment reduce or reinforce hiring discrimination. Around 1300 applications were sent in response to online job openings for five categories of jobs. The results suggest that men benefit from a bonus when they experience parenthood while women undergo a penalty. Indeed, fathers have a callback rate 18 percentage points larger than their analogue childless men candidates while mother’s callback is 14 percentage points lower than the corresponding childless women’s callback. However, mothers have a higher callback rate than childless women for the job category patient attendant. Signalling job commitment does not eliminate motherhood penalty whereas substantially increases father’s callback rate. Our results suggest that taking parental leave does not affect mother’s callback rate and surprisingly increases father’s callback rate. Job mobility opens up job opportunities meaning employers tend to value the employee’s mobility.
58

Development of new scenario decomposition techniques for linear and nonlinear stochastic programming

Zehtabian, Shohre 08 1900 (has links)
Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif. / In the literature of optimization problems under uncertainty a common approach of dealing with two- and multi-stage problems is to use scenario analysis. To do so, the uncertainty of some data in the problem is modeled by stage specific random vectors with finite supports. Each realization is called a scenario. By using scenarios, it is possible to study smaller versions (subproblems) of the underlying problem. As a scenario decomposition technique, the progressive hedging algorithm is one of the most popular methods in multi-stage stochastic programming problems. In spite of full decomposition over scenarios, progressive hedging efficiency is greatly sensitive to some practical aspects, such as the choice of the penalty parameter and handling the quadratic term in the augmented Lagrangian objective function. For the choice of the penalty parameter, we review some of the popular methods, and design a novel adaptive strategy that aims to better follow the algorithm process. Numerical experiments on linear multistage stochastic test problems suggest that most of the existing techniques may exhibit premature convergence to a sub-optimal solution or converge to the optimal solution, but at a very slow rate. In contrast, the new strategy appears to be robust and efficient, converging to optimality in all our experiments and being the fastest in most of them. For the question of handling the quadratic term, we review some existing techniques and we suggest to replace the quadratic term with a linear one. Although this method has yet to be tested, we have the intuition that it will reduce some numerical and theoretical difficulties of progressive hedging in linear problems.
59

Polymères chiraux par polymérisation par étapes asymétrique organocatalysée

Martin, Anthony 17 December 2012 (has links)
Depuis une quinzaine d’années, les polymères chiraux sont utilisés dans de nombreuses applications, comme phases stationnaires pour la séparation d’énantiomères ou encore en tant que catalyseurs en synthèse asymétrique. Aux vues de ces intérêts grandissants, de nombreuses méthodes ont émergé afin de les synthétiser. Nous nous sommes concentrés sur des méthodes organocatalytiques originales de synthèse de polymères chiraux par réaction de polyaldolisation et par désymétrisation de bis-anhydrides. Nous avons ainsi développé des processus de désymétrisation itératifs et ainsi généré une chiralité C-centrée sur la chaine polymérique. Des polyesters chiraux ont ainsi été obtenus avec de très bonnes séléctivités. / Chiral polymers are used in many applications such as stationary phases for chiral HPLC and catalysts in asymetric synthesis. The synthesis of chiral polymers traditionally deals with metal catalysts-based methodologies and often involved sensitive substrates. On the other hand, only a limited number of publications has been reported through environmentally-friendly organocatalytic pathways.The goal of this Ph.D. studies was devoted to the design of new routes toward chiral polymers under organocatalysis. We chose polyaldolisations and anhydride desymmetrizations with alcohols as key reactions to obtain original polymers with a C-centered chirality in the main polymer chain.
60

Dynamic factor model with non-linearities : application to the business cycle analysis / Modèles à facteurs dynamiques avec non linéarités : application à l'analyse du cycle économique

Petronevich, Anna 26 October 2017 (has links)
Cette thèse est dédiée à une classe particulière de modèles à facteurs dynamiques non linéaires, les modèles à facteurs dynamiques à changement de régime markovien (MS-DFM). Par la combinaison des caractéristiques du modèle à facteur dynamique et celui du modèle à changement de régimes markoviens(i.e. la capacité d’agréger des quantités massives d’information et de suivre des processus fluctuants), ce cadre s’est révélé très utile et convenable pour plusieurs applications, dont le plus important est l’analyse des cycles économiques.La connaissance de l’état actuel des cycles économiques est crucial afin de surveiller la santé économique et d’évaluer les résultats des politiques économiques. Néanmoins, ce n’est pas une tâche facile à réaliser car, d’une part, il n’y a pas d’ensemble de données et de méthodes communément reconnus pour identifier les points de retournement, d’autre part, car les institutions officielles annoncent un nouveau point de retournement, dans les pays où une telle pratique existe, avec un délai structurel de plusieurs mois.Le MS-DFM est en mesure de résoudre ces problèmes en fournissant des estimations de l’état actuel de l’économie de manière rapide, transparente et reproductible sur la base de la composante commune des indicateurs macroéconomiques caractérisant le secteur réel.Cette thèse contribue à la vaste littérature sur l’identification des points de retournement du cycle économique dans trois direction. Dans le Chapitre 3, on compare les deux techniques d’estimation de MS-DFM, les méthodes en une étape et en deux étapes, et on les applique aux données françaises pour obtenir la chronologie des points de retournement du cycle économique. Dans Chapitre 4, sur la base des simulations de Monte Carlo, on étudie la convergence des estimateurs de la technique retenue - la méthode d’estimation en deux étapes, et on analyse leur comportement en échantillon fini. Dans le Chapitre 5, on propose une extension de MS-DFM - le MS-DFM à l’influence dynamique (DI-MS-DFM)- qui permet d’évaluer la contribution du secteur financier à la dynamique du cycle économique et vice versa, tout en tenant compte du fait que l’interaction entre eux puisse être dynamique. / This thesis is dedicated to the study of a particular class of non-linear Dynamic Factor Models, the Dynamic Factor Models with Markov Switching (MS-DFM). Combining the features of the Dynamic Factor model and the Markov Switching model, i.e. the ability to aggregate massive amounts of information and to track recurring processes, this framework has proved to be a very useful and convenient instrument in many applications, the most important of them being the analysis of business cycles.In order to monitor the health of an economy and to evaluate policy results, the knowledge of the currentstate of the business cycle is essential. However, it is not easy to determine since there is no commonly accepted dataset and method to identify turning points, and the official institutions announce a newturning point, in countries where such practice exists, with a structural delay of several months. The MS-DFM is able to resolve these issues by providing estimates of the current state of the economy in a timely, transparent and replicable manner on the basis of the common component of macroeconomic indicators characterizing the real sector. The thesis contributes to the vast literature in this area in three directions. In Chapter 3, I compare the two popular estimation techniques of the MS-DFM, the one-step and the two-step methods, and apply them to the French data to obtain the business cycle turning point chronology. In Chapter 4, on the basis of Monte Carlo simulations, I study the consistency of the estimators of the preferred technique -the two-step estimation method, and analyze their behavior in small samples. In Chapter 5, I extend the MS-DFM and suggest the Dynamical Influence MS-DFM, which allows to evaluate the contribution of the financial sector to the dynamics of the business cycle and vice versa, taking into consideration that the interaction between them can be dynamic.

Page generated in 0.0287 seconds