• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 587
  • 185
  • 3
  • Tagged with
  • 777
  • 777
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 63
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
681

Conception des canaux assistée par ordinateur CCAO

Touir, Maatallah 24 April 2018 (has links)
Québec Université Laval, Bibliothèque 2014
682

Effet du risque immobilier sur les rendements boursiers canadiens

King, Daren 19 June 2018 (has links)
Ce mémoire étudie la possibilité que l'immobilier joue un rôle comme facteur de risque potentiel déterminant le rendement des actifs financiers au Canada. Ce risque étant généralement négligé dans la littérature, son rôle potentiel fut mis en lumière lors de la récente crise financière de 2007-2009. Un modèle d'évaluation d'actifs multifactoriel incorporant un facteur de risque propre à l'immobilier est construit et estimé à l'aide de la méthode des moments généralisée (GMM). Les estimations sont basées sur le rendement excédentaire de 10 portefeuilles formés à partir de 806 actions inscrites à la Bourse de Toronto en janvier 2017. La période d'étude couvre de janvier 2000 à décembre 2016. Le risque immobilier fut mesuré grâce au S&P/TSX Capped REIT Index et grâce à un indice composite prennant en compte l'ensemble des 48 REITs incris à la Bourse de Toronto en janvier 2017. Cette dernière mesure s'est avérée être la plus significative. Les résultats obtenus à la de la méthode GMM suggère fortement que le risque immobilier est l'un des facteurs explicatifs du niveau des rendements des actifs financiers canadiens.
683

GPS inferred velocity and strain rate fields in eastern Canada

Goudarzi, Mohammad Ali 24 April 2018 (has links)
La vallée du fleuve Saint-Laurent, dans l'est du Canada, est l'une des régions sismiques les plus actives dans l'est de l'Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l'ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l'est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l'ajustement isostatique glaciaire partout dans l'est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d'étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l'extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l'intérieur pour les centres d'affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d'autres chercheurs sur l'existence de trois dômes de glace dans la région d'étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d'Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l'Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l'analyse de déformation montrent l’état actuel de déformation dans l'est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s'affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l'Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d'ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method). / The Saint Lawrence River valley (SLRV) in eastern Canada is one of the most seismically active regions in eastern North America, which is characterized by many intraplate earthquakes. After its rigid plate rotation, the ongoing glacial isostatic adjustment (GIA) is by far the largest source of geophysical signal in eastern Canada. In this research, the current crustal deformation and strain rate field of this region was studied using more than 14 years (9 years on average) observations of 112 continuously operating GPS stations. The velocity field was obtained from cleaned position time series of daily GPS solutions by applying a combined model using the weighted least-squares method. We estimated velocity uncertainties by assuming advanced noise models to include the temporal correlation of the position time series. The horizontal velocity field shows the counter-clockwise rotation of the North American plate in the no-net-rotation model with the average of 16.8±0.7 mm/yr constrained to ITRF 2008. The vertical velocity field confirms the GIA-induced uplift all over eastern Canada with the maximum rate of 13.7±1.2 mm/yr and subsidence to the south mainly over north of the United States with a typical rate of −1 to −2 mm/yr and the minimum value of −2.7±1.4 mm/yr. The noise behavior of the GPS position time series was explored by testing five different noise models of power-law, white, white plus flicker, white plus random-walk, and white plus flicker plus random-walk, using the spectral analysis and the maximum likelihood methods. The results show that combination of white plus flicker noise is the best model for describing the stochastic part of the position time series. Furthermore, amplitudes of all noise models are smallest in the north direction and largest in the vertical direction. While amplitudes of the white noise model are almost equal across the study area, they are prevailed by the flicker and the random-walk noise for all directions. Assuming flicker noise model increases uncertainties of the estimated velocities by a factor of 5–38 compared to the white noise model, while the estimated velocities from all noise models are statistically consistent. The estimated Euler pole parameters for this region are slightly but significantly different from the overall rotation of the North American plate. This difference potentially reflects local stress in this seismic region, and the difference in intraplate velocities between the two sides of the SLRV accumulates stress in the faults located along the river. The surface deformation of the region was studied using least-squares collocation. Interpolated intraplate horizontal velocities show a spatially coherent radially outward motion from the centers of maximum uplift to the north and inward motion to the centers of maximum subsidence to the south with a typical velocity of ~1–1.6±0.4 mm/yr. This pattern, however, becomes more complex near the margins of the formerly glaciated areas. Based on their directions, the intraplate horizontal velocities can be divided in three distinct zones. This confirms the existence of three ice domes in the study region before the last glacial maximum. A spatial correlation is observed between areas with higher magnitude of the intraplate horizontal velocity and the seismic zones along the SLRV. The vertical velocities were interpolated to model the ongoing vertical deformation. The model shows maximum uplift rate of 15.6 mm/yr to southeastern of Hudson Bay and a typical subsidence rate of 1–2 mm/yr to the south mainly across the north of the United States. Along the SLRV, horizontal and vertical motions are spatially coherent toward southeast with the typical magnitude of ~1.3 mm/yr relative to North American plate and the average uplift rate of 3.1 mm/yr, respectively. In general, the rate of vertical deformation is typically ~2.4 times larger than the rate of the intraplate horizontal motion in this area. Results of strain analysis show the present-day straining of eastern Canada in the form of extension to the north (the area under uplift) and shortening to the south (the area under subsidence). On average, rotational rates are at the level of 0.011°/Myr. A NNW-SSE shortening with a typical rate of ~3.6–8.1 nstrain/yr is observed over the Lower Saint Lawrence seismic zone. In the Charlevoix seismic zone, an extension with a typical rate of ~3.0–7.1 nstrain/yr is oriented about ENE-WSW. In the western Quebec seismic zone, the deformation has a shear straining mechanism with a typical shortening rate of ~1.0–5.1 nstrain/yr and extension rate of ~1.6–4.1 nstrain/yr. These results are consistent, to the first order, with GIA models and with the maximum horizontal compressional stress of the World Stress Map resulted from focal mechanism method.
684

Influent generator : towards realistic modelling of wastewater flowrate and water quality using machine-learning methods

Li, Feiyi 30 November 2022 (has links)
Depuis que l'assainissement des eaux usées est reconnu comme un des objectifs de développement durable des Nations Unies, le traitement et la gestion des eaux usées sont devenus plus importants que jamais. La modélisation et la digitalisation des stations de récupération des ressources de l'eau (StaRRE) jouent un rôle important depuis des décennies, cependant, le manque de données disponibles sur les affluents entrave le développement de la modélisation de StaRRE. Cette thèse vis e à faire progresser la modélisation des systèmes d'assainissement en général, et en particulier en ce qui concerne la génération dynamique des affluents. Dans cette étude, différents générateurs d'affluent (GA), qui peuvent fournir un profil d'affluent dynamique, ont été proposés, optimisés et discutés. Les GA développés ne se concentrent pas seulement sur le débit, les solides en suspension et la matière organique, mais également sur les substances nutritives telles que l'azote et le phosphore. En outre, cette étude vise à adapter les GA à différentes applications en fonction des différentes exigences de modélisation. Afin d'évaluer les performances des GA d'un point de vue général, une série de critères d'évaluation de la qualité du modèle est décrite. Premièrement, pour comprendre la dynamique des affluents, une procédure de caractérisation des affluents a été développée et testée pour une étude de cas à l'échelle pilote. Ensuite, pour générer différentes séries temporelles d'affluent, un premier GA a été développé. La méthodologie de modélisation est basée sur l'apprentissage automatique en raison de ses calculs rapides, de sa précision et de sa capacité à traiter les mégadonnées. De plus, diverses versions de ce GA ont été appliquées pour différents cas optimisées en fonction des disponibilités d'études et ont été des données (la fréquence et l'horizon temporel), des objectifs et des exigences de précision. Les résultats démontrent que : i) le modèle GA proposé peut être utilisé pour générer d'affluents dynamiques réalistes pour différents objectifs, et les séries temporelles résultantes incluent à la fois le débit et la concentration de polluants avec une bonne précision et distribution statistique; ii) les GA sont flexibles, ce qui permet de les améliorer selon différents objectifs d'optimisation; iii) les GA ont été développés en considérant l'équilibre entre les efforts de modélisation, la collecte de données requise et les performances du modèle. Basé sur les perspectives de modélisation des StaRRE, l'analyse des procédés et la modélisation prévisionnelle, les modèles de GA dynamiques peuvent fournir aux concepteurs et aux modélisateurs un profil d'affluent complet et réaliste, ce qui permet de surmonter les obstacles liés au manque de données d'affluent. Par conséquent, cette étude a démontré l'utilité des GA et a fait avancer la modélisation des StaRRE en focalisant sur l'application de méthodologies d'exploration de données et d'apprentissage automatique. Les GA peuvent donc être utilisés comme outil puissant pour la modélisation des StaRRE, avec des applications pour l'amélioration de la configuration de traitement, la conception de procédés, ainsi que la gestion et la prise de décision stratégique. Les GA peuvent ainsi contribuer au développement de jumeaux numériques pour les StaRRE, soit des système intelligent et automatisé de décision et de contrôle. / Since wastewater sanitation is acknowledged as one of the sustainable development goals of the United Nations, wastewater treatment and management have been more important then ever. Water Resource Recovery Facility (WRRF) modelling and digitalization have been playing an important role since decades, however, the lack of available influent data still hampers WRRF model development. This dissertation aims at advancing the field of wastewater systems modelling in general, and in particular with respect to the dynamic influent generation. In this study, different WRRF influent generators (IG), that can provide a dynamic influent flow and pollutant concentration profile, have been proposed, optimized and discussed. The developed IGs are not only focusing on flowrate, suspended solids, and organic matter, but also on nutrients such as nitrogen and phosphorus. The study further aimed at adapting the IGs to different case studies, so that future users feel comfortable to apply different IG versions according to different modelling requirements. In order to evaluate the IG performance from a general perspective, a series of criteria for evaluating the model quality were evaluated. Firstly, to understand the influent dynamics, a procedure of influent characterization has been developed and experimented at pilot scale. Then, to generate different realizations of the influent time series, the first IG was developed and a data-driven modelling approach chosen, because of its fast calculations, its precision and its capacity of handling big data. Furthermore, different realizations of IGs were applied to different case studies and were optimized for different data availabilities (frequency and time horizon), objectives, and modelling precision requirements. The overall results indicate that: i) the proposed IG model can be used to generate realistic dynamic influent time series for different case studies, including both flowrate and pollutant concentrations with good precision and statistical distribution; ii) the proposed IG is flexible and can be improved for different optimization objectives; iii) the IG model has been developed by considering the balance between modelling efforts, data collection requirements and model performance. Based on future perspectives of WRRF process modelling, process analysis, and forecasting, the dynamic IG model can provide designers and modellers with a complete and realistic influent profile and this overcomes the often-occurring barrier of shortage of influent data for modelling. Therefore, this study demonstrated the IGs' usefulness for advanced WRRF modelling focusing on the application of data mining and machine learning methodologies. It is expected to be widely used as a powerful tool for WRRF modelling, improving treatment configurations and process designs, management and strategic decision-making, such as when transforming a conventional WRRF to a digital twin that can be used as an intelligent and automated system.
685

L'effet de la consolidation des sols sur la propagation des contaminants

Top, Bilal 15 February 2019 (has links)
Les processus de transport et d'atténuation des contaminants dans un sol saturé sont déterminés en fonction de plusieurs facteurs parmi lesquels la consolidation à grande déformation joue un rôle majeur. L'étude de la consolidation d’un sol saturé tient généralement compte des aspects mécaniques et hydrauliques du milieu. Le facteur qui induit une modification structurale importante d'un sol saturé recevant une charge externe est l'expulsion de l'eau dans les pores. L'objectif de cette recherche vise à intégrer les équations de transport des contaminants avec les équations générales de la consolidation à grande déformation des sols (Foriero et Ladanyi, 1995 et 1998). Il est important pour le spécialiste en sols et en environnement de connaître l’état des contraintes, la perméabilité, l’indice des vides, le degré de consolidation, mais aussi les concentrations de contaminants et leurs gradients en vue de faire des prévisions dans le cadre d’un projet affectant un sol contaminé ou à d’autres fins. Pour ce faire, un programme informatique basé sur la méthode des éléments finis a été développé pour résoudre l'équation différentielle résultant du couplage de la consolidation et de la contamination. Les variables utilisées dans le logiciel sont les propriétés du sol, le coefficient de dispersion et la concentration initiale du contaminant. Les résultats de recherche indiquent que le programme informatique peut être utilisé pour prédire les paramètres reliés à la consolidation à grande déformation du sol et à l’évolution de la concentration du contaminant.
686

Optimisation du procédé d'étirage à froid des tubes d'aluminium 6063-T4 par la méthode des éléments finis

Béland, Jean-François 16 April 2018 (has links)
Le procédé d'extrusion permet d'obtenir des tubes de section circulaire à partir d'une billette d'aluminium. Cependant, l'extrusion tubulaire de l'alliage 6063 lui confère de faibles propriétés mécaniques ainsi que des épaisseurs de paroi limitées. Elle donne aussi de mauvaises tolérances ainsi qu'un fini de surface qui laisse à désirer. L'opération d'étirage subséquente permet alors de réduire le diamètre ainsi que l'épaisseur de la paroi des tubes afin d'améliorer leurs tolérances, d'augmenter leurs propriétés mécaniques par écrouissage ainsi que d'obtenir un meilleur fini de surface. Pom atteindre la condition T832 prescrite par le client, un certain pourcentage de réduction est nécessaire afin d'écrouir les tubes suffisamment. Le pourcentage de réduction à atteindre est de 50% afin d'obtenir les bonnes propriétés mécaniques. Actuellement, ce haut pourcentage de réduction nécessite deux passes d'étirage afin d'éviter le bris des tubes. Le projet vise à optimiser les paramètres du procédé d'étirage à froid afin de permettre la réduction nécessaire en une seule passe. L'optimisation de la géométrie de l'outillage est effectuée par le biais d'un modèle éléments finis. Une loi de comportement élasto plastique déjà implémentée dans le logiciel commercial LS-DYNA a été utilisée. Le comportement aux interfaces de contact du tube avec l'outillage est modélisé par un contact surface sur surface avec un coefficient de friction de Coulomb. Les deux variables étudiées pour la géométrie des filières sont l'angle d'entrée ainsi que le rayon de courbure entre la région conique et la portée cylindrique. Des expérimentations ont été effectuées afin de valider les résultats numériques. Une bonne corrélation entre les résultats numériques et expérimentaux a été trouvée.
687

Les rendements boursiers et l'importance des facteurs de risque macroéconomiques canadiens

NGuema Ondo, James 23 April 2018 (has links)
Le rendement obtenu sur un actif financier est proportionnel au niveau de risque supporté par le détenteur de cet actif. En effet, les rendements obtenus sur les titres financiers contiennent déjà toute l’information en ce qui a trait aux risques que le marché anticipe. À ce niveau, il est logique de se poser la question de savoir comment les marchés financiers se comportent en présence de changements non anticipés dans le niveau de risque général. L’importance de cette question apparaît naturellement si nous considérons que la diversification ne permet pas d’éliminer les effets du risque systémique, car ce dernier affecte l’économie dans son ensemble. C’est dans ce sens que le mémoire vise l’objectif d’utiliser les rendements boursiers pour évaluer les effets des changements non anticipés dans les facteurs macroéconomiques, à savoir le marché, la pente de la structure à terme des taux d’intérêt, la prime de défaut, les prix des produits de base, le taux de change réel, l’inflation et le taux de chômage. Pour répondre à cette question, nous utilisons le modèle d’évaluation par arbitrage (APT), car ce dernier présente le cadre théorique approprié pour faire l’analyse de l’impact des risques macroéconomiques mentionnés sur la structure des rendements financiers au Canada. Dans le but de valider le modèle APT empiriquement, nous recourons à la technique de régression par étapes utilisée dans l’étude de Cochrane (2005), et qui découle des travaux de Fama et MacBeth (1973). À la suite de nos estimations, nous avons trouvé que les risques macroéconomiques liés au marché, aux variations non anticipées dans la pente de la structure à terme des taux d’intérêt, aux changements non prévus dans la prime de défaut, aux variations non anticipées dans les prix des produits de base et aux changements non prévus dans le taux de change réel sont associés à des primes de risque élevées. Par contre, les risques macroéconomiques liés aux variations non prévues dans l’inflation et aux changements non anticipés dans le taux de chômage ne semblent pas être indemnisés sur le marché financier canadien.
688

La cartographie des sonorités environnementales d'un territoire

Dhib, Ameni 07 May 2019 (has links)
Sur un territoire, des sources sonores émettent des sons qui peuvent être d’origines anthropophoniques (i.e. le bruit des véhicules), biophoniques (i.e. les sons émis par les oiseaux), ainsi que géophoniques (i.e. le bruit du vent). Ceci permet de décrire un paysage sonore des lieux tout en alimentant des besoins particuliers propres à la cartographie de l’environnement sonore tels que les propriétés acoustiques des territoires, nécessaires à la compréhension de l’environne me nt sonore. Au-delà des travaux de recherches qui étudient et analysent les propriétés acoustiques de l’environnement, l’état de l’existant se concentre sur deux types de cartes sonores : les cartes d’inventaire de sons et les cartes de bruit. Deux approches méthodologiques sont à l’origine de la production de ces cartes. La première est basée sur des enregistrements sonores mesurés et géoréférencées sur le territoire à l’aide de sonomètres, ou d’applications installées sur des tablettes/téléphones intelligents. La deuxième sert à modéliser la propagation de l’onde acoustique en lien avec les objets présents sur le territoire (i.e. bâtiments, arbres, etc.). Bien que cette deuxième approche considère les différents facteurs environnementaux qui peuvent affaiblir l’onde acoustique comme l’absorption atmosphérique (causée par le vent, la température, etc.), la divergence géométrique et la nature de la couverture des sols, on constate qu’elle est peu documentée dans la littérature scientifique, lorsqu’aucun capteur sonore n’est utilisé pour produire des cartes sonores. L’objectif principal est de définir une méthode générique de modélisation de la propagation acoustique du son pour territoire à l’aide de données géospatiales multi-sources, dont des images à très haute résolution. Ainsi à l’aide des outils géomatiques, il est possible de représenter l’interaction qui existe entre l’onde sonore et les objets environnementaux composant ce territoire. Il est alors possible à partir d’une source sonore et des points récepteurs du son de réaliser des cartes dites spatio-phoniques. Mots clés : environnement sonore, modélisation, géomatique, propagation, données géospatiales, cartographie / On a territory, sound sources emit sounds that can be of anthropophonic origins (i.e. vehicle noise), biophonic origins (i.e. sounds emitted by birds), as well as geophonic origins (i.e. wind noise). This makes it possible to describe a soundscape of the places while feeding particular needs specific to the mapping of the sound environment such as the acoustic properties of the territories, necessary to the understanding of the sound environment. Beyond the research work that studies and analyzes the acoustic properties of the environment, the state of the existing focuses on two types of sound cards: sound inventory cards and noise maps. Two methodological approaches are behind the production of these cards. The first is based on sound recordings measured and georeferenced on the territory using sound level meters, or applications installed on tablets/smartphones. The second is used to model the propagation of the acoustic wave in relation to the objects present on the territory (i.e. buildings, trees, etc.). Although this second approach considers the different environmental factors that can weaken the acoustic wave like atmospheric absorption (caused by wind, temperature, etc.), the geometric divergence and the nature of the cover of soil, it is found that it is poorly documented in the scientific literature, when no sound sensor is used to produce sound cards. The main objective is to define a generic method for modeling the acoustic propagation of a territory using multi-source geospatial data including very high resolution images. Thus, using geomatic tools, it is possible to represent the interaction that exists between the sound wave and the environmenta l objects that make up this territory. It is then possible from a sound source and sound receiving points to make so-called spatio-phonic cards
689

Développement de stratégies de maintenance prévisionnelle de systèmes multi-composants avec structure complexe / Predictive maintenance strategies for multi-component systems with complex structure

Nguyen, Kim Anh 16 October 2015 (has links)
Aujourd'hui, les systèmes industriels deviennent de plus en plus complexes. Cette complexité est due d’une part à la structure du système qui ne se résume pas à des structures classiques en fiabilité, d’autre part à la prise en compte de composants présentant des phénomènes de dégradation graduelle que des systèmes de monitoring permettent de surveiller. Ceci mène à l'objectif de cette thèse portant sur le développement des stratégies de maintenance prévisionnelle pour des systèmes multi-composants complexes. Les politiques envisagées proposent notamment des stratégies de regroupement de composants permettant de tirer des dépendances économiques identifiées. Des facteurs d'importance permettant de prendre en compte la structure du système et la dépendance économique sont développés et combinés avec les évaluations de fiabilité prévisionnelle des composants pour l’élaboration de règles de décision de regroupement. De plus, un couplage des règles de décision de maintenance et de gestion des stocks est également étudié. L’ensemble des études menées montrent l’intérêt de la prise en compte de la fiabilité prévisionnelle des composants, des dépendances économiques et de la structure complexe du système dans l'aide à la décision de maintenance et de gestion des stocks. L’avantage des stratégies développées est vérifié en les comparant à d’autres existantes dans la littérature / Today, industrial systems become more and more complex. The complexity is due partly to the structure of the system that cannot be reduced to classic structure reliability (series structures, parallel structures, series-parallel structures, etc), secondly the consideration of components with gradual degradation phenomena that can be monitored. This leads to the main purpose of this thesis on the development of predictive maintenance strategies for complex multi-component systems. The proposed policies provide maintenance grouping strategies to take advantage of the economic dependence between components. The predictive reliability of components and importance measures allowing taking into account the structure of the system and economic dependence are developed to construct the grouping decision rules. Moreover, a joint decision rule for maintenance and spare parts provisioning is also studied.All the conducted studies show the interest in the consideration of the predictive reliability of components, economic dependencies as well as complex structure of the system in maintenance decisions and spare parts provisioning. The advantage of the developed strategies is confirmed by comparing with the other existing strategies in the literature
690

Topics in macroeconomics and finance

Raciborski, Rafal 06 October 2014 (has links)
The thesis consists of four chapters. The introductory chapter clarifies different notions of rationality used by economists and gives a summary of the remainder of the thesis. Chapter 2 proposes an explanation for the common empirical observation of the coexistence of infrequently-changing regular price ceilings and promotion-like price patterns. The results derive from enriching an otherwise standard, albeit stylized, general equilibrium model with two elements. First, the consumer-producer interaction is modeled in the spirit of the price dispersion literature, by introducing oligopolistic markets, consumer search costs and heterogeneity. Second, consumers are assumed to be boundedly-rational: In order to incorporate new information about the general price level, they have to incur a small cognitive cost. The decision whether to re-optimize or act according to the obsolete knowledge about prices is itself a result of optimization. It is shown that in this economy, individual retail prices are capped below the monopoly price, but are otherwise flexible. Moreover, they have the following three properties: 1) An individual price has a positive probability of being equal to the ceiling. 2) Prices have a tendency to fall below the ceiling and then be reset back to the cap value. 3) The ceiling remains constant for extended time intervals even when the mean rate of inflation is positive. Properties 1) and 2) can be associated with promotions and properties 1) and 3) imply the emergence of nominal price rigidity. The results do not rely on any type of direct costs of price adjustment. Instead, price stickiness derives from frictions on the consumers’ side of the market, in line with the results of several managerial surveys. It is shown that the developed theory, compared to the classic menu costs-based approach, does better in matching the stylized facts about the reaction of individual prices to inflation. In terms of quantitative assessment, the model, when calibrated to realistic parameter values, produces median price ceiling durations that match values reported in empirical studies.<p><p>The starting point of the essay in Chapter 3 is the observation that the baseline New-Keynesian model, which relies solely on the notion of infrequent price adjustment, cannot account for the observed degree of inflation sluggishness. Therefore, it is a common practice among macro- modelers to introduce an ad hoc additional source of persistence to their models, by assuming that price setters, when adjusting a price of their product, do not set it equal to its unobserved individual optimal level, but instead catch up with the optimal price only gradually. In the paper, a model of incomplete adjustment is built which allows for explicitly testing whether price-setters adjust to the shocks to the unobserved optimal price only gradually and, if so, measure the speed of the catching up process. According to the author, a similar test has not been performed before. It is found that new prices do not generally match their estimated optimal level. However, only in some sectors, e.g. for some industrial goods and services, prices adjust to this level gradually, which should add to the aggregate inflation sluggishness. In other sectors, particularly food, price-setters seem to overreact to shocks, with new prices overshooting the optimal level. These sectors are likely to contribute to decreasing the aggregate inflation sluggishness. Overall, these findings are consistent with the view that price-setters are boundedly-rational. However, they do not provide clear-cut support for the existence of an additional source of inflation persistence due to gradual individual price adjustment. Instead, they suggest that general equilibrium macroeconomic models may need to include at least two types of production sectors, characterized by a contrasting behavior of price-setters. An additional finding stemming from this work is that the idiosyncratic component of the optimal individual price is well approximated by a random walk. This is in line with the assumptions maintained in most of the theoretical literature. <p><p>Chapter 4 of the thesis has been co-authored by Julia Lendvai. In this paper a full-fledged production economy model with Kahneman and Tversky’s Prospect Theory features is constructed. The agents’ objective function is assumed to be a weighted sum of the usual utility over consumption and leisure and the utility over relative changes of agents’ wealth. It is also assumed that agents are loss-averse: They are more sensitive to wealth losses than to gains. Apart from the changes in the utility, the model is set-up in a standard Real Business Cycle framework. The authors study prices of stocks and risk-free bonds in this economy. Their work shows that under plausible parameterizations of the objective function, the model is able to explain a wide set of unconditional asset return moments, including the mean return on risk-free bonds, equity premium and the Sharpe Ratio. When the degree of loss aversion in the model is additionally assumed to be state-dependent, the model also produces countercyclical risk premia. This helps it match an array of conditional moments and in particular the predictability pattern of stock returns. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished

Page generated in 0.0961 seconds