• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 586
  • 184
  • 3
  • Tagged with
  • 775
  • 775
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 77
  • 73
  • 62
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Gestion des eaux pluviales et changements climatiques : Étude de deux secteurs urbains

Vidil, Christophe 18 April 2018 (has links)
Les changements attendus dans le climat, dont l'augmentation de l'intensité des événements extrêmes, risquent d'entraîner une diminution du niveau de service des réseaux de drainage. Dès lors, des mesures d'adaptation doivent être mises en place afin de maintenir un niveau de service acceptable en climat futur dans un contexte de changements climatiques. Dans cette étude, le climat futur a été modélisé en considérant une augmentation de 15% de l'intensité des pluies de conception de type SEA et triangulaire pour les périodes de retour 2, 5, 10 et 20 ans à l'horizon 2040 - 2070. Le présent mémoire rend compte des résultats de simulation, à l'aide du logiciel SWMM 5.0, concernant l'évolution des performances en climat futur de deux secteurs urbains (un réseau unitaire et un réseau pluvial) par différents indices soit les indices inondation, infiltration, volume de surverse et volume à l'usine pour le réseau unitaire et les indices inondation, infiltration, ruissellement et débit de pointe à l'exutoire pour le réseau pluvial. Les résultats ont montré, pour le réseau unitaire, une augmentation des volumes de surverse pour toutes les périodes de retour en climat futur (par exemple, une augmentation de 19% a été notée pour une pluie de récurrence 10 ans). La mise en place de mesures d'adaptation sur ce réseau, telles le contrôle à la source et la rétention, a ensuite été analysée et a montré son efficacité dans l'amélioration des performances. Ainsi, les mesures de contrôle à la source se sont révélées efficaces pour des périodes de retour 2 ans et complémentaires au bassin de rétention en permettant une réduction de 7% de son volume de conception. Par ailleurs, il a été démontré qu'une faible capacité de traitement de l'usine ne permettait pas aux mesures de rétention de montrer leur plein potentiel. Pour le réseau pluvial, les changements climatiques se sont avérés avoir un impact plus important sur le débit de pointe que les conditions antérieures d'humidité.
222

Modèles statistiques pour des rotations et des déplacements de corps solides

Oualkacha, Karim 16 April 2018 (has links)
La thèse présentée ici contribue à l'étude des rotations et des déplacements d'un corps solide dans l'espace. Elle se compose de trois articles qui traitent de la modélisation statistique de données directionnelles, rotationnelles et de déplacements. Le premier article propose un nouveau modèle pour les données directionnelles qui sont des vecteurs unitaires dans R p [matrice de rotation R, p x p]. On modélise la dispersion et l'orientation de vecteurs unitaires aléatoires par une nouvelle distribution indexée par des paramètres d'échelle et de localisation et on suggère d'utiliser la méthode des moments pour estimer ses paramètres. Le deuxième article propose une nouvelle distribution pour les déplacements dans R p [matrice de rotation R, p x p]. On traite de modèles stochastiques pour les variations d'une séquence de déplacements autour d'une valeur moyenne. Sous quelques spécifications pour les erreurs expérimentales, on montre que l'estimateur de la rotation moyenne associée au déplacement moyen est meilleur comparé à celui obtenu par des modèles marginaux qui utilisent la rotation seule. Le troisième article étudie le mouvement relatif d'un corps solide par rapport à un autre qui s'obtient comme une rotation selon un axe fixe et une translation le long de cet axe. On suggère un modèle pour ce type de mouvement avec une valeur prédite qui dépend de la position et de l'orientation de l'axe de rotation. On suppose que le déplacement observé est égal à la valeur modale perturbée par des erreurs qui suivent une distribution suggérée dans le deuxième article. On montre, par une étude de Monte-Carlo, que le modèle proposé est plus performant que le modèle marginal de rotation ou de translation pour l'estimation de l'axe de rotation. Ainsi, le traitement combiné de données de rotation et de translation permet d'obtenir des estimation plus précises.
223

Essays in product diversity and urban transportation

Foucart, Renaud 18 June 2012 (has links)
This dissertation is about games with a continuum of players and horizontal differentiation. The first chapter explains how price dispersion can be a feature of a competitive market with homogenous information and production costs. The second chapter extends the study to group consumption. The third chapter is about multiple equilibria in urban transportation. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
224

Une généralisation dynamique de la théorie de la politique économique de Tinbergen: application à un modèle à moyen terme pour la Belgique

Thys-Clément, Françoise January 1975 (has links)
Doctorat en sciences sociales, politiques et économiques / info:eu-repo/semantics/nonPublished
225

Un modèle trimestriel de l'économie belge

Ginsburgh, Victor January 1971 (has links)
Doctorat en sciences sociales, politiques et économiques / info:eu-repo/semantics/nonPublished
226

Essays on real-time econometrics and forecasting

Modugno, Michèle 14 September 2011 (has links)
The thesis contains four essays covering topics in the field of real time econometrics and forecasting.<p><p>The first Chapter, entitled “An area wide real time data base for the euro area” and coauthored with Domenico Giannone, Jerome Henry and Magda Lalik, describes how we constructed a real time database for the euro area covering more than 200 series regularly published in the European Central Bank Monthly Bulletin, as made available ahead of publication to the Governing Council members before their first meeting of the month.<p><p>Recent research has emphasised that the data revisions can be large for certain indicators and can have a bearing on the decisions made, as well as affect the assessment of their relevance. It is therefore key to be in a position to reconstruct the historical environment of economic decisions at the time they were made by private agents and policy-makers rather than using the data as they become available some years later. For this purpose, it is necessary to have the information in the form of all the different vintages of data as they were published in real time, the so-called "real-time data" that reflect the economic situation at a given point in time when models are estimated or policy decisions made.<p><p>We describe the database in details and study the properties of the euro area real-time data flow and data revisions, also providing comparisons with the United States and Japan. We finally illustrate how such revisions can contribute to the uncertainty surrounding key macroeconomic ratios and the NAIRU.<p><p>The second Chapter entitled “Maximum likelihood estimation of large factor model on datasets with arbitrary pattern of missing data” is based on a joint work with Marta Banbura. It proposes a methodology for the estimation of factor models on large cross-sections with a general pattern of missing data. In contrast to Giannone et al (2008), we can handle datasets that are not only characterised by a 'ragged edge', but can include e.g. mixed frequency or short history indicators. The latter is particularly relevant for the euro area or other young economies, for which many series have been compiled only since recently. We adopt the maximum likelihood approach, which, apart from the flexibility with regard to the pattern of missing data, is also more efficient and allows imposing restrictions on the parameters. It has been shown by Doz et al (2006) to be consistent, robust and computationally feasible also in the case of large cross-sections. To circumvent the computational complexity of a direct likelihood maximisation in the case of large cross-section, Doz et al (2006) propose to use the iterative Expectation-Maximisation (EM) algorithm. Our contribution is to modify the EM steps to the case of missing data and to show how to augment the model in order to account for the serial correlation of the idiosyncratic component. In addition, we derive the link between the unexpected part of a data release and the forecast revision and illustrate how this can be used to understand the sources of the latter in the case of simultaneous releases.<p><p>We use this methodology for short-term forecasting and backdating of the euro area GDP on the basis of a large panel of monthly and quarterly data.<p><p>The third Chapter is entitled “Nowcasting Inflation Using High Frequency Data” and it proposes a methodology for nowcasting and forecasting inflation using data with sampling frequency higher than monthly. In particular, this Chapter focuses on the energy component of inflation given the availability of data like the Weekly Oil Bulletin Price Statistics for the euro area, the Weekly Retail Gasoline and Diesel Prices for the US and the daily spot and future prices of crude oil.<p><p>Although nowcasting inflation is a novel idea, there is a rather long literature focusing on nowcasting GDP. The use of higher frequency indicators in order to Nowcast/Forecast lower frequency indicators had started with monthly data for GDP. GDP is a quarterly variable released with a substantial time delay (e.g. two months after the end of the reference quarter for the euro area GDP). <p><p>The estimation adopts the methodology described in Chapter 2, modeling the data as a trading day frequency factor model with missing observations in a state space representation. In contrast to other procedures, the methodology proposed models all the data within a unified single framework that allows one to produce forecasts of all the involved variables from a factor model, which, by definition, does not suffer from overparametrisation. Moreover, this offers the possibility to disentangle model-based "news" from each release and then to assess their impact on the forecast revision. The Chapter provides an illustrative example of this procedure, focusing on a specific month.<p><p>In order to assess the importance of using high frequency data for forecasting inflation this Chapter compares the forecast performance of the univariate models, i.e. random walk and autoregressive process, with the forecast performance of the model that uses weekly and daily data. The provided empirical evidence shows that exploiting high frequency data relative to oil not only let us nowcast and forecast the energy component of inflation with a precision twice better than the proposed benchmarks, but we obtain a similar improvement even for total inflation.<p><p>The fourth Chapter entitled “The forecasting power of international yield curve linkages”, coauthored with Kleopatra Nikolaou, investigates dependency patterns between the yield curves of Germany and the US, by using an out-of-sample forecast exercise.<p><p>The motivation for this Chapter stems from the fact that our up to date knowledge on dependency patterns among yields curves of different countries is limited. Looking at the yield curve literature, the empirical evidence to-date informs us of strong contemporaneous interdependencies of yield curves across countries, in line with increased globalization and financial integration. Nevertheless, this yield curve literature does not investigate non-contemporaneous correlations. And yet, clear indication in favour of such dependency patterns is recorded in studies focusing on specific interest rates, which look at the role of certain countries as global players (see Frankel et al. (2004), Chinn and Frankel (2005) and Wang et al. (2007)). Evidence from these studies suggests a leading role for the US. Moreover, dependency patterns recorded in the real business cycles between the US and the euro area (Giannone and Reichlin, 2007) can also rationalize such linkages, to the extent that output affects nominal interest rates.<p><p>We propose, estimate and forecast (out-of-sample) a novel dynamic factor model for the yield curve, where dynamic information from foreign yield curves is introduced into domestic yield curve forecasts. This is the International Dependency Model (IDM). We want to compare the yield curve forecast under the IDM versus a purely domestic model and a model that allows for contemporaneous common global factors. These models serve as useful comparisons. The domestic model bears direct modeling links with IDM, as it can be seen as a nested model of IDM. The global model bears less direct links in terms of modeling, but, in line with IDM, it is also an international model that serves to highlight the advantages of introducing international information in yield curve forecasts. However, the global model aims to identify contemporaneous linkages in the yield curve of the two countries, whereas the IDM also allows for detecting dependency patterns.<p><p>Our results that shocks appear to be diffused in a rather asymmetric manner across the two countries. Namely, we find a unidirectional causality effect that runs from the US to Germany. This effect is stronger in the last ten years, where out-of-sample forecasts of Germany using the US information are even more accurate than the random walk forecasts. Our statistical results demonstrate a more independent role for the US. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
227

Intégration et validation expérimentale de la méthode VOF dans les calculs aérodynamiques automobiles: application au cas de l'entrainement d'eau dans les circuits de climatisation / Integration and experimentale validation of the VOF method in automotive aerodynamics computations: application to water entrainment into the HVAC system.

Berger, Rémi 26 October 2010 (has links)
Cette étude porte sur l'utilisation conjointe (appelée ” couplage ”) de modèle de turbulence à grandes échelles LES (Large Eddy Simulation) et du modèle multiphasique VOF (Volume of Fluid). Cette utilisation conjointe est nécessaire dans de nombreuses applications industrielles comme celles de l'automobile où l'on recherche par exemple à évaluer les prestations diphasiques de l'auvent liées au phénomène d'entraînement et d'ingestion d'une nappe d'eau par le HVAC (système d'air conditionné). Cependant, l'utilisation conjointe de ces méthodes nécessite un traitement particulier de la turbulence proche de la surface liquide afin de reproduire convenablement la quantité de mouvement transmise depuis la phase gazeuse, motrice, jusque dans la phase liquide.<p><p>Basée sur une approche numérique et expérimentale, notre étude est articulée autour de trois axes. Tout d'abord, le développement de techniques de mesures spécifiques pour l'étude expérimentale de notre problématique: le LeDaR pour mesurer les déformées d'une interface et la PIV d'interface afin d'accéder aux champs de vitesse et de turbulence dans chacune des deux phases. Le second axe est la constitution d'une base de données expérimentales sur une configuration de type jet impactant sur une surface liquide représentative des phénomènes rencontrés dans l'auvent. Enfin, le troisième axe de travail est l'évaluation des modèles existants dans le code Ansys Fluent et à partir de cette analyse le développement et la validation de modèles de couplage LES-VOF.<p><p>L'évaluation des modèles développés a permis de valider une stratégie de calcul adaptée aux simulations de l'entraînement d'une surface d'eau par un écoulement d'air turbulent. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
228

Modelling and parametric estimation of simulated moving bed chromatographic processes (SMB) / Modélisation et estimation paramétrique des procédés de chromatographie à lit mobile simulé (SMB)

Grosfils, Valérie 30 June 2009 (has links)
La chromatographie à lit mobile simulé (procédé SMB) est une technique de séparation bien maîtrisée dans certains secteurs traditionnels tels que la séparation de sucres et d’hydrocarbures. Cependant, son application à la séparation de composés à haute valeur ajoutée dans l’industrie pharmaceutique pose de nouveaux problèmes liés à la nature des produits à séparer ainsi qu'aux exigences plus strictes en matière de pureté et de quantités produites. Les principaux problèmes ouverts sont notamment la détermination des conditions de fonctionnement optimales, la conception de structures robustes de régulation, et le développement d’un système de supervision permettant la détection et la localisation de dégradations de fonctionnement. Ces tâches requièrent l’usage d’un modèle mathématique du procédé ainsi qu’une méthodologie d’estimation paramétrique. L’étude et le développement des modèles mathématiques pour ce type d’installation ainsi que l’estimation des paramètres des modèles sur base de mesures expérimentales constituent précisément l’objet de nos travaux de doctorat.<p><p>Les modèles mathématiques décrivant les procédés SMB consistent en les bilans massiques des composés à séparer. Ce sont des modèles à paramètres distribués (décrit par des équations aux dérivées partielles). Certains ont un comportement dynamique de type hybride (c'est-à-dire faisant intervenir des dynamiques à temps continu et des événements discrets). Quelques modèles ont été développés dans la littérature. Il s’agit de sélectionner ceux qui paraissent les plus intéressants au niveau de leur temps de calcul, de leur efficacité et du nombre de paramètres à déterminer. En outre, de nouvelles structures de modèles sont également proposées afin d’améliorer le compromis précision / temps de calcul. <p><p>Ces modèles comportent généralement certains paramètres inconnus. Ils consistent soit, en des grandeurs physiques mal définies au départ des données de base, soit, en des paramètres fictifs, introduits à la suite d'hypothèses simplificatrices et englobant à eux seuls un ensemble de phénomènes. Il s’agit de mettre au point une procédure systématique d’estimation de ces paramètres requérant le moins d’expériences possible et un faible temps de calcul. La valeur des paramètres est estimée, au départ de mesures réelles, à l'aide d'une procédure de minimisation d'une fonction de coût qui indique l’écart entre les grandeurs estimées par le modèle et les mesures. La sensibilité du modèle aux écarts sur les paramètres, ainsi que l’identifiabilité du modèle (possibilité de déterminer de manière univoque les paramètres du modèle) sur la base de mesures en fonctionnement normal sont étudiées. Ceci fournit un critère de comparaison supplémentaire entre les différents modèles et permet en outre de déterminer les conditions expérimentales optimales (choix du type d’expérience, choix des signaux d’entrée, choix du nombre et de la position des points de mesures…) dans lesquelles les mesures utilisées lors de l’estimation paramétrique doivent être relevées. De plus, les erreurs d’estimation sur les paramètres et les erreurs de simulation sont estimées. La procédure choisie est ensuite validée sur des données expérimentales recueillies sur un procédé pilote existant au Max-Planck-Institut für Dynamik komplexer technischer systeme (Magdebourg, Allemagne).<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
229

Autostructuration des réseaux de neurones avec retards

Tardif, Patrice 12 April 2018 (has links)
Dans le but d'améliorer la compréhension du rôle de l'autostructuration des réseaux de neurones impliqués dans le système visuel du cerveau des mammifères, des extensions temporelles du modèles de Linsker (1986a-c, 1988) sont proposées au lecteur. Le modèle de Linsker est basé sur une corrélation de type Hebb et il permet l'émergence progressive de fonctions analogues à celles retrouvées dans le cortex visuel des mammifères au stade de l'ontogenèse. À titre d'exemple, il est observé l'émergence de cellules centre-poutour et de cellules sensibles aux orientations ainsi que la formation de colonnes alternées de dominance oculaire. Pour bien comprendre le modèle de Linsker, une première partie introduit les notions de physiologie nécessaires à sa compréhension. La seconde partie fait le constat de l'état de la recherche en matière d'autostructuration biologique du point de vue des outils mathématiques à notre disposition qui permettent l'analyse du modèle. Dans cette section, une revue de la littérature et quelques travaux complémentaires d'intérêt (MacKay et Miller, 1990a-b; Miller, 1994; Feng, 1993-1998) font aussi l'objet d'une discussion. Enfin, la troisième partie de cette dissertation a comme contribution scientifique originale de départager l'apport du retard dans une règle d'apprentissage de type Hebb par opposition au domaine spatial de Linsker. Par le biais de l'analyse mathématique et de simulations informatiques, deux cas de retard dans l'apprentissage sont étudiés : celui du retard dans la propagation des signaux et celui du retard dans la dynamique des poids synaptiques. Chacun de ces deux cas amène des conclusions différentes, à savoir : le premier cas donne lieu à des valeurs propres temporelles analogue au chapeau mexicain; le second cas permet d'observer des oscillations analogues à celles enregistrées sur la rétine des mammifères au stade de l'ontogenèse. Ces constats aideront à orienter les futures expérimentations en éclairant sur les mécanismes intrinsèques qui gouvernent ces processus biologiques.
230

Simulation de déformation de globule rouge par des trappes optiques en trois dimensions

Rancourt-Grenier, Sébastien 17 April 2018 (has links)
La déformation en trois dimensions est calculée pour des globules rouges prisonniers à l'aide de trappes optiques dans le cadre de théories analytique et numérique d'élasticité membranaire. Comme la distribution de stress radiale à la membrane est couplée à la déformation de celle-ci, nous calculons cette distribution de stress sur le globule déformé et obtenons les déformations subséquentes itérativement en utilisant une méthode d'élément fini numérique. Ce principe doit s'appliquer jusqu'à ce que l'équilibre final soit atteint entre la distribution de stress et la déformation de la membrane. L'expérience est produite avec des globules rouges soumis à une pression osmotique pour qu'ils prennent une forme sphérique et en suspension dans le médium. L'élasticité de la membrane est obtenue en comparant les résultats expérimentaux avec les prédictions théoriques. Cette approche a la particularité de pouvoir être appliquée à de larges déformations et étendue à d'autres particules soumises à des trappes optiques.

Page generated in 0.0532 seconds