• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 258
  • 115
  • 23
  • 5
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 399
  • 204
  • 78
  • 50
  • 45
  • 35
  • 32
  • 29
  • 28
  • 28
  • 25
  • 24
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Analyse de connectivité et techniques de partitionnement de données appliquées à la caractérisation et la modélisation d'écoulement au sein des réservoirs très hétérogènes / Connectivity analysis and clustering techniques applied for the characterisation and modelling of flow in highly heterogeneous reservoirs

Darishchev, Alexander 10 December 2015 (has links)
Les techniques informatiques ont gagné un rôle primordial dans le développement et l'exploitation des ressources d'hydrocarbures naturelles ainsi que dans d'autres opérations liées à des réservoirs souterrains. L'un des problèmes cruciaux de la modélisation de réservoir et les prévisions de production réside dans la présélection des modèles de réservoir appropriés à la quantification d'incertitude et au le calage robuste des résultats de simulation d'écoulement aux réelles mesures et observations acquises du gisement. La présente thèse s'adresse à ces problématiques et à certains autres sujets connexes.Nous avons élaboré une stratégie pour faciliter et accélérer l'ajustement de tels modèles numériques aux données de production de champ disponibles. En premier lieu, la recherche s'était concentrée sur la conceptualisation et l'implémentation des modèles de proxy reposant sur l'analyse de la connectivité, comme une propriété physique intégrante et significative du réservoir, et des techniques avancées du partitionnement de données et de l'analyse de clusters. La méthodologie développée comprend aussi plusieurs approches originales de type probabiliste orientées vers les problèmes d'échantillonnage d'incertitude et de détermination du nombre de réalisations et de l'espérance de la valeur d'information d'échantillon. Afin de cibler et donner la priorité aux modèles pertinents, nous avons agrégé les réalisations géostatistiques en formant des classes distinctes avec une mesure de distance généralisée. Ensuite, afin d'améliorer la classification, nous avons élargi la technique graphique de silhouettes, désormais appelée la "séquence entière des silhouettes multiples" dans le partitionnement de données et l'analyse de clusters. Cette approche a permis de recueillir une information claire et compréhensive à propos des dissimilarités intra- et intre-cluster, particulièrement utile dans le cas des structures faibles, voire artificielles. Finalement, la séparation spatiale et la différence de forme ont été visualisées graphiquement et quantifiées grâce à la mesure de distance probabiliste.Il apparaît que les relations obtenues justifient et valident l'applicabilité des approches proposées pour améliorer la caractérisation et la modélisation d'écoulement. Des corrélations fiables ont été obtenues entre les chemins de connectivité les plus courts "injecteur-producteur" et les temps de percée d'eau pour des configurations différentes de placement de puits, niveaux d'hétérogénéité et rapports de mobilité de fluides variés. Les modèles de connectivité proposés ont produit des résultats suffisamment précis et une performance compétitive au méta-niveau. Leur usage comme des précurseurs et prédicateurs ad hoc est bénéfique en étape du traitement préalable de la méthodologie. Avant le calage d'historique, un nombre approprié et gérable des modèles pertinents peut être identifié grâce à la comparaison des données de production disponibles avec les résultats de... / Computer-based workflows have gained a paramount role in development and exploitation of natural hydrocarbon resources and other subsurface operations. One of the crucial problems of reservoir modelling and production forecasting is in pre-selecting appropriate models for quantifying uncertainty and robustly matching results of flow simulation to real field measurements and observations. This thesis addresses these and other related issues. We have explored a strategy to facilitate and speed up the adjustment of such numerical models to available field production data. Originally, the focus of this research was on conceptualising, developing and implementing fast proxy models related to the analysis of connectivity, as a physically meaningful property of the reservoir, with advanced cluster analysis techniques. The developed methodology includes also several original probability-oriented approaches towards the problems of sampling uncertainty and determining the sample size and the expected value of sample information. For targeting and prioritising relevant reservoir models, we aggregated geostatistical realisations into distinct classes with a generalised distance measure. Then, to improve the classification, we extended the silhouette-based graphical technique, called hereafter the "entire sequence of multiple silhouettes" in cluster analysis. This approach provided clear and comprehensive information about the intra- and inter-cluster dissimilarities, especially helpful in the case of weak, or even artificial, structures. Finally, the spatial separation and form-difference of clusters were graphically visualised and quantified with a scale-invariant probabilistic distance measure. The obtained relationships appeared to justify and validate the applicability of the proposed approaches to enhance the characterisation and modelling of flow. Reliable correlations were found between the shortest "injector-producer" pathways and water breakthrough times for different configurations of well placement, various heterogeneity levels and mobility ratios of fluids. The proposed graph-based connectivity proxies provided sufficiently accurate results and competitive performance at the meta-level. The use of them like precursors and ad hoc predictors is beneficial at the pre-processing stage of the workflow. Prior to history matching, a suitable and manageable number of appropriate reservoir models can be identified from the comparison of the available production data with the selected centrotype-models regarded as the class representatives, only for which the full fluid flow simulation is pre-requisite. The findings of this research work can easily be generalised and considered in a wider scope. Possible extensions, further improvements and implementation of them may also be expected in other fields of science and technology.
392

Propriétés physiques des cristaux liquides discotiques nanoconfinés / Physcal properties of discotic liquid crystals nanoconfined

Ndao, Makha 14 October 2013 (has links)
L'objectif de cette thèse est de mener une étude fondamentale et expérimentale des propriétés physiques des cristaux liquides discotiques colonnaires (CLDCs) confinés dans des matrices poreuses templates hautement ordonnées à l'échelle nanométrique. Les molécules des CLDCs de forme plane, composées de noyaux polyaromatiques rigides entourées de chaînes aliphatiques flexibles fonctionnalisables, sont susceptibles de s'auto-assembler dans des colonnes favorisant ainsi le recouvrement de leurs orbitales électroniques π. Ce qui fait de ces matériaux de véritables candidats pour des applications dans l'électronique moléculaire et la photovoltaïque grâce à la possibilité de migration des porteurs de charges le long de leurs colonnes. Cependant, ces applications nécessitent une bonne maîtrise des paramètres influant sur les mécanismes d'alignement dans les phases colonnaires, sur de grands monodomaines, et de préférence à température ambiante. Une méthode très prometteuse visant à optimiser les longueurs de diffusion des porteurs de charge a été récemment proposée, basée sur la formation de nanofils orientés de CLDCs par auto-assemblage dans des matrices dites « templates » (de moulage). Toutefois, les propriétés structurales, dynamiques et les effets de confinement sur ces technologies restent aujourd'hui mal connus et morcelés et pourraient constituer un véritable verrou scientifique pour leur réalisation. Notre étude s'est portée sur les CLDCs commerciaux (HPT) et le Py4CEH (moins connus) qui sont confinés dans des alumines poreuses (AAO) et du silicium poreux (Sip) de diamètres de pores de quelques dizaines de nm. Les diagrammes de phase ont été d'abord étudiés par DSC puis les effets structuraux ont été approfondis grâce à la diffusion de neutrons. Dans les géométries confinées, nous observons une dépression des températures de transition, un élargissement du domaine de stabilité de la phase colonnaire et l'ouverture d'une hystérèse amplifiée dans les pores de plus petite taille. Un ordre orientationnel très élevé a été trouvé dans les phases colonnaires bulk par la RMN du solide et la structure des systèmes confinés colonnaires, dominée par une distribution radiale avec un ancrage homéotrope a été déterminée. La dynamique moléculaire a été étudiée par diffusion quasiélastique de neutrons. Elle est affectée par le confinement : la dynamique de grande amplitude est fortement ralentie, tandis que la dynamique rapide locale devient régie par une distribution très large de temps caractéristiques. / The aim of this work is to conduct fundamental and experimental studies of the physical properties of columnar discotic liquid crystal (CDLCs) confined in highly ordered porous templates at the nanoscale. CDLC molecule of planar shape, consist in rigid polyaromatic nuclei surrounded by functionalizable flexible aliphatic chains, and are capable of self-assembly in columns, thereby promoting overlap of their π electron orbitals. This makes these materials real candidates for applications in molecular electronics and photovoltaics due to the possibility of migration of the charge carriers along their columns. However, these applications require a good control of the parameters affecting the alignment mechanisms in the columnar phases of large single domains, preferably at room temperature. A very promising approach to optimize the diffusion lengths of charge carriers has been recently proposed, based on the formation of oriented CDLC nanowires by self-assembly in so-called "templates". However, structural and dynamical proprieties and confinement effects are still scarce, and could be a real scientific lock to their implementation. Our study is focused on commercial CDLCs (HPT) and Py4CEH which are confined in porous alumina and porous silicon membranes with pore diameters of c.a. tens of nm. The phase diagram was first studied by DSC and more deeply characterized by neutron scattering. In confined geometries, we observe a depression of the phase transition temperatures, a broadening of the columnar phase stability domain and an opening of hysteresis loops amplified by smaller pore size. A high orientational order was found in the bulk columnar phases by solid-state NMR, and the structure of confined columnar systems, dominated by a radial distribution with homeotropic anchoring was observed. The molecular dynamics was studied by quasielastic neutron scattering. It is affected by confinement: large lengthscale motions are massively slowed down, whereas the rapid and local dynamics becomes submitted to large distributions of correlation times.
393

Binary Arithmetic for Finite-Word-Length Linear Controllers : MEMS Applications / Intégration sur électronique dédiée et embarquée du traitement du signal et de la commande pour les microsystemes appliqués à la microrobotique

Oudjida, Abdelkrim Kamel 20 January 2014 (has links)
Cette thèse traite le problème d'intégration hardware optimale de contrôleurs linéaires à taille de mot finie, dédiés aux applications MEMS. Le plus grand défi est d'assurer des performances de contrôle satisfaisantes avec un minimum de ressources logiques. Afin d'y parvenir, deux optimisations distinctes mais complémentaires peuvent être entreprises: en théorie de contrôle et en arithmétique binaire. Seule cette dernière est considérée dans ce travail.Comme cette arithmétique cible des applications MEMS, elle doit faire preuve de vitesse afin de prendre en charge la dynamique rapide des MEMS, à faible consommation de puissance pour un contrôle intégré, hautement re-configurabe pour un ajustement facile des performances de contrôle, et facilement prédictible pour fournir une idée précise sur les ressources logiques nécessaires avant l'implémentation même.L'exploration d'un certain nombre d'arithmétiques binaires a montré que l'arithmétique radix-2r est celle qui répond au mieux aux exigences précitées. Elle a été pleinement exploitée afin de concevoir des circuits de multiplication efficaces, qui sont au fait, le véritable moteur des systèmes linéaires.L'arithmétique radix-2r a été appliquée à l'intégration hardware de deux structures linéaires à taille de mot finie: un contrôleur PID variant dans le temps et à un contrôleur LQG invariant dans le temps,avec un filtre de Kalman. Le contrôleur PID a montré une nette supériorité sur ses homologues existants. Quant au contrôleur LQG, une réduction très importante des ressources logiques a été obtenue par rapport à sa forme initiale non optimisée / This thesis addresses the problem of optimal hardware-realization of finite-word-length(FWL) linear controllers dedicated to MEMS applications. The biggest challenge is to ensuresatisfactory control performances with a minimal hardware. To come up, two distinct butcomplementary optimizations can be undertaken: in control theory and in binary arithmetic. Only thelatter is involved in this work.Because MEMS applications are targeted, the binary arithmetic must be fast enough to cope withthe rapid dynamic of MEMS; power-efficient for an embedded control; highly scalable for an easyadjustment of the control performances; and easily predictable to provide a precise idea on therequired logic resources before the implementation.The exploration of a number of binary arithmetics showed that radix-2r is the best candidate that fitsthe aforementioned requirements. It has been fully exploited to designing efficient multiplier cores,which are the real engine of the linear systems.The radix-2r arithmetic was applied to the hardware integration of two FWL structures: a linear timevariant PID controller and a linear time invariant LQG controller with a Kalman filter. Both controllersshowed a clear superiority over their existing counterparts, or in comparison to their initial forms.
394

Optimal portfolio selection with transaction costs

Koné, N'Golo 05 1900 (has links)
Le choix de portefeuille optimal d'actifs a été depuis longtemps et continue d'être un sujet d'intérêt majeur dans le domaine de la finance. L'objectif principal étant de trouver la meilleure façon d'allouer les ressources financières dans un ensemble d'actifs disponibles sur le marché financier afin de réduire les risques de fluctuation du portefeuille et d'atteindre des rendements élevés. Néanmoins, la littérature de choix de portefeuille a connu une avancée considérable à partir du 20ieme siècle avec l'apparition de nombreuses stratégies motivées essentiellement par le travail pionnier de Markowitz (1952) qui offre une base solide à l'analyse de portefeuille sur le marché financier. Cette thèse, divisée en trois chapitres, contribue à cette vaste littérature en proposant divers outils économétriques pour améliorer le processus de sélection de portefeuilles sur le marché financier afin d'aider les intervenants de ce marché. Le premier chapitre, qui est un papier joint avec Marine Carrasco, aborde un problème de sélection de portefeuille avec coûts de transaction sur le marché financier. Plus précisément, nous développons une procédure de test simple basée sur une estimation de type GMM pour évaluer l'effet des coûts de transaction dans l'économie, quelle que soit la forme présumée des coûts de transaction dans le modèle. En fait, la plupart des études dans la littérature sur l'effet des coûts de transaction dépendent largement de la forme supposée pour ces frictions dans le modèle comme cela a été montré à travers de nombreuses études (Dumas and Luciano (1991), Lynch and Balduzzi (1999), Lynch and Balduzzi (2000), Liu and Loewenstein (2002), Liu (2004), Lesmond et al. (2004), Buss et al. (2011), Gârleanu and Pedersen (2013), Heaton and Lucas (1996)). Ainsi, pour résoudre ce problème, nous développons une procédure statistique, dont le résultat est indépendant de la forme des coûts de transaction, pour tester la significativité de ces coûts dans le processus d'investissement sur le marché financier. Cette procédure de test repose sur l'hypothèse que le modèle estimé par la méthode des moments généralisés (GMM) est correctement spécifié. Un test commun utilisé pour évaluer cette hypothèse est le J-test proposé par Hansen (1982). Cependant, lorsque le paramètre d'intérêt se trouve au bord de l'espace paramétrique, le J-test standard souffre d'un rejet excessif. De ce fait, nous proposons une procédure en deux étapes pour tester la sur-identification lorsque le paramètre d'intérêt est au bord de l'espace paramétrique. Empiriquement, nous appliquons nos procédures de test à la classe des anomalies utilisées par Novy-Marx and Velikov (2016). Nous montrons que les coûts de transaction ont un effet significatif sur le comportement des investisseurs pour la plupart de ces anomalies. Par conséquent, les investisseurs améliorent considérablement les performances hors échantillon en tenant compte des coûts de transaction dans le processus d'investissement. Le deuxième chapitre aborde un problème dynamique de sélection de portefeuille de grande taille. Avec une fonction d'utilité exponentielle, la solution optimale se révèle être une fonction de l'inverse de la matrice de covariance des rendements des actifs. Cependant, lorsque le nombre d'actifs augmente, cet inverse devient peu fiable, générant ainsi une solution qui s'éloigne du portefeuille optimal avec de mauvaises performances. Nous proposons deux solutions à ce problème. Premièrement, nous pénalisons la norme des poids du portefeuille optimal dans le problème dynamique et montrons que la stratégie sélectionnée est asymptotiquement efficace. Cependant, cette méthode contrôle seulement en partie l'erreur d'estimation dans la solution optimale car elle ignore l'erreur d'estimation du rendement moyen des actifs, qui peut également être importante lorsque le nombre d'actifs sur le marché financier augmente considérablement. Nous proposons une méthode alternative qui consiste à pénaliser la norme de la différence de pondérations successives du portefeuille dans le problème dynamique pour garantir que la composition optimale du portefeuille ne fluctue pas énormément entre les périodes. Nous montrons que, sous des conditions de régularité appropriées, nous maîtrisons mieux l'erreur d'estimation dans le portefeuille optimal avec cette nouvelle procédure. Cette deuxième méthode aide les investisseurs à éviter des coûts de transaction élevés sur le marché financier en sélectionnant des stratégies stables dans le temps. Des simulations ainsi qu'une analyse empirique confirment que nos procédures améliorent considérablement la performance du portefeuille dynamique. Dans le troisième chapitre, nous utilisons différentes techniques de régularisation (ou stabilisation) empruntées à la littérature sur les problèmes inverses pour estimer le portefeuille diversifié tel que définie par Choueifaty (2011). En effet, le portefeuille diversifié dépend du vecteur de volatilité des actifs et de l'inverse de la matrice de covariance du rendement des actifs. En pratique, ces deux quantités doivent être remplacées par leurs contrepartie empirique. Cela génère une erreur d'estimation amplifiée par le fait que la matrice de covariance empirique est proche d'une matrice singulière pour un portefeuille de grande taille, dégradant ainsi les performances du portefeuille sélectionné. Pour résoudre ce problème, nous étudions trois techniques de régularisation, qui sont les plus utilisées : le rigde qui consiste à ajouter une matrice diagonale à la matrice de covariance, la coupure spectrale qui consiste à exclure les vecteurs propres associés aux plus petites valeurs propres, et Landweber Fridman qui est une méthode itérative, pour stabiliser l'inverse de matrice de covariance dans le processus d'estimation du portefeuille diversifié. Ces méthodes de régularisation impliquent un paramètre de régularisation qui doit être choisi. Nous proposons donc une méthode basée sur les données pour sélectionner le paramètre de stabilisation de manière optimale. Les solutions obtenues sont comparées à plusieurs stratégies telles que le portefeuille le plus diversifié, le portefeuille cible, le portefeuille de variance minimale et la stratégie naïve 1 / N à l'aide du ratio de Sharpe dans l'échantillon et hors échantillon. / The optimal portfolio selection problem has been and continues to be a subject of interest in finance. The main objective is to find the best way to allocate the financial resources in a set of assets available on the financial market in order to reduce the portfolio fluctuation risks and achieve high returns. Nonetheless, there has been a strong advance in the literature of the optimal allocation of financial resources since the 20th century with the proposal of several strategies for portfolio selection essentially motivated by the pioneering work of Markowitz (1952)which provides a solid basis for portfolio analysis on the financial market. This thesis, divided into three chapters, contributes to this vast literature by proposing various economic tools to improve the process of selecting portfolios on the financial market in order to help stakeholders in this market. The first chapter, a joint paper with Marine Carrasco, addresses a portfolio selection problem with trading costs on stock market. More precisely, we develop a simple GMM-based test procedure to test the significance of trading costs effect in the economy regardless of the form of the transaction cost. In fact, most of the studies in the literature about trading costs effect depend largely on the form of the frictions assumed in the model (Dumas and Luciano (1991), Lynch and Balduzzi (1999), Lynch and Balduzzi (2000), Liu and Loewenstein (2002), Liu (2004), Lesmond et al. (2004), Buss et al. (2011), Gârleanu and Pedersen (2013), Heaton and Lucas (1996)). To overcome this problem, we develop a simple test procedure which allows us to test the significance of trading costs effect on a given asset in the economy without any assumption about the form of these frictions. Our test procedure relies on the assumption that the model estimated by GMM is correctly specified. A common test used to evaluate this assumption is the standard J-test proposed by Hansen (1982). However, when the true parameter is close to the boundary of the parameter space, the standard J-test based on the chi2 critical value suffers from overrejection. To overcome this problem, we propose a two-step procedure to test overidentifying restrictions when the parameter of interest approaches the boundary of the parameter space. In an empirical analysis, we apply our test procedures to the class of anomalies used in Novy-Marx and Velikov (2016). We show that transaction costs have a significant effect on investors' behavior for most anomalies. In that case, investors significantly improve out-of-sample performance by accounting for trading costs. The second chapter addresses a multi-period portfolio selection problem when the number of assets in the financial market is large. Using an exponential utility function, the optimal solution is shown to be a function of the inverse of the covariance matrix of asset returns. Nonetheless, when the number of assets grows, this inverse becomes unreliable, yielding a selected portfolio that is far from the optimal one. We propose two solutions to this problem. First, we penalize the norm of the portfolio weights in the dynamic problem and show that the selected strategy is asymptotically efficient. However, this method partially controls the estimation error in the optimal solution because it ignores the estimation error in the expected return, which may also be important when the number of assets in the financial market increases considerably. We propose an alternative method that consists of penalizing the norm of the difference of successive portfolio weights in the dynamic problem to guarantee that the optimal portfolio composition does not fluctuate widely between periods. We show, under appropriate regularity conditions, that we better control the estimation error in the optimal portfolio with this new procedure. This second method helps investors to avoid high trading costs in the financial market by selecting stable strategies over time. Extensive simulations and empirical results confirm that our procedures considerably improve the performance of the dynamic portfolio. In the third chapter, we use various regularization (or stabilization) techniques borrowed from the literature on inverse problems to estimate the maximum diversification as defined by Choueifaty (2011). In fact, the maximum diversification portfolio depends on the vector of asset volatilities and the inverse of the covariance matrix of assets distribution. In practice, these two quantities need to be replaced by their sample counterparts. This results in estimation error which is amplified by the fact that the sample covariance matrix may be close to a singular matrix in a large financial market, yielding a selected portfolio far from the optimal one with very poor performance. To address this problem, we investigate three regularization techniques, such as the ridge, the spectral cut-off, and the Landweber-Fridman, to stabilize the inverse of the covariance matrix in the investment process. These regularization schemes involve a tuning parameter that needs to be chosen. So, we propose a data-driven method for selecting the tuning parameter in an optimal way. The resulting regularized rules are compared to several strategies such as the most diversified portfolio, the target portfolio, the global minimum variance portfolio, and the naive 1/N strategy in terms of in-sample and out-of-sample Sharpe ratio.
395

Prédiction et priorisation de l'effort de test des systèmes orientés objet à partir des modèles

Béliveau, Catherine January 2020 (has links) (PDF)
No description available.
396

Advances in parameterisation, optimisation and pruning of neural networks

Laurent, César 10 1900 (has links)
Les réseaux de neurones sont une famille de modèles de l'apprentissage automatique qui sont capable d'apprendre des tâches complexes directement des données. Bien que produisant déjà des résultats impressionnants dans beaucoup de domaines tels que la reconnaissance de la parole, la vision par ordinateur ou encore la traduction automatique, il y a encore de nombreux défis dans l'entraînement et dans le déploiement des réseaux de neurones. En particulier, entraîner des réseaux de neurones nécessite typiquement d'énormes ressources computationnelles, et les modèles entraînés sont souvent trop gros ou trop gourmands en ressources pour être déployés sur des appareils dont les ressources sont limitées, tels que les téléphones intelligents ou les puces de faible puissance. Les articles présentés dans cette thèse étudient des solutions à ces différents problèmes. Les deux premiers articles se concentrent sur l'amélioration de l'entraînement des réseaux de neurones récurrents (RNNs), un type de réseaux de neurones particulier conçu pour traiter des données séquentielles. Les RNNs sont notoirement difficiles à entraîner, donc nous proposons d'améliorer leur paramétrisation en y intégrant la normalisation par lots (BN), qui était jusqu'à lors uniquement appliquée aux réseaux non-récurrents. Dans le premier article, nous appliquons BN aux connections des entrées vers les couches cachées du RNN, ce qui réduit le décalage covariable entre les différentes couches; et dans le second article, nous montrons comment appliquer BN aux connections des entrées vers les couches cachées et aussi des couches cachée vers les couches cachée des réseau récurrents à mémoire court et long terme (LSTM), une architecture populaire de RNN, ce qui réduit également le décalage covariable entre les pas de temps. Nos expériences montrent que les paramétrisations proposées permettent d'entraîner plus rapidement et plus efficacement les RNNs, et ce sur différents bancs de tests. Dans le troisième article, nous proposons un nouvel optimiseur pour accélérer l'entraînement des réseaux de neurones. Les optimiseurs diagonaux traditionnels, tels que RMSProp, opèrent dans l'espace des paramètres, ce qui n'est pas optimal lorsque plusieurs paramètres sont mis à jour en même temps. A la place, nous proposons d'appliquer de tels optimiseurs dans une base dans laquelle l'approximation diagonale est susceptible d'être plus efficace. Nous tirons parti de l'approximation K-FAC pour construire efficacement cette base propre Kronecker-factorisée (KFE). Nos expériences montrent une amélioration en vitesse d'entraînement par rapport à K-FAC, et ce pour différentes architectures de réseaux de neurones profonds. Le dernier article se concentre sur la taille des réseaux de neurones, i.e. l'action d'enlever des paramètres du réseau, afin de réduire son empreinte mémoire et son coût computationnel. Les méthodes de taille typique se base sur une approximation de Taylor de premier ou de second ordre de la fonction de coût, afin d'identifier quels paramètres peuvent être supprimés. Nous proposons d'étudier l'impact des hypothèses qui se cachent derrière ces approximations. Aussi, nous comparons systématiquement les méthodes basées sur des approximations de premier et de second ordre avec la taille par magnitude (MP), et montrons comment elles fonctionnent à la fois avant, mais aussi après une phase de réapprentissage. Nos expériences montrent que mieux préserver la fonction de coût ne transfère pas forcément à des réseaux qui performent mieux après la phase de réapprentissage, ce qui suggère que considérer uniquement l'impact de la taille sur la fonction de coût ne semble pas être un objectif suffisant pour développer des bon critères de taille. / Neural networks are a family of Machine Learning models able to learn complex tasks directly from the data. Although already producing impressive results in many areas such as speech recognition, computer vision or machine translation, there are still a lot of challenges in both training and deployment of neural networks. In particular, training neural networks typically requires huge amounts of computational resources, and trained models are often too big or too computationally expensive to be deployed on resource-limited devices, such as smartphones or low-power chips. The articles presented in this thesis investigate solutions to these different issues. The first couple of articles focus on improving the training of Recurrent Neural Networks (RNNs), networks specially designed to process sequential data. RNNs are notoriously hard to train, so we propose to improve their parameterisation by upgrading them with Batch Normalisation (BN), a very effective parameterisation which was hitherto used only in feed-forward networks. In the first article, we apply BN to the input-to-hidden connections of the RNNs, thereby reducing internal covariate shift between layers. In the second article, we show how to apply it to both input-to-hidden and hidden-to-hidden connections of the Long Short-Term Memory (LSTM), a popular RNN architecture, thus also reducing internal covariate shift between time steps. Our experiments show that these proposed parameterisations allow for faster and better training of RNNs on several benchmarks. In the third article, we propose a new optimiser to accelerate the training of neural networks. Traditional diagonal optimisers, such as RMSProp, operate in parameters coordinates, which is not optimal when several parameters are updated at the same time. Instead, we propose to apply such optimisers in a basis in which the diagonal approximation is likely to be more effective. We leverage the same approximation used in Kronecker-factored Approximate Curvature (K-FAC) to efficiently build this Kronecker-factored Eigenbasis (KFE). Our experiments show improvements over K-FAC in training speed for several deep network architectures. The last article focuses on network pruning, the action of removing parameters from the network, in order to reduce its memory footprint and computational cost. Typical pruning methods rely on first or second order Taylor approximations of the loss landscape to identify which parameters can be discarded. We propose to study the impact of the assumptions behind such approximations. Moreover, we systematically compare methods based on first and second order approximations with Magnitude Pruning (MP), showing how they perform both before and after a fine-tuning phase. Our experiments show that better preserving the original network function does not necessarily transfer to better performing networks after fine-tuning, suggesting that only considering the impact of pruning on the loss might not be a sufficient objective to design good pruning criteria.
397

Modélisation et simulation numérique de la dynamique des aérosols atmosphériques

Debry, Edouard 12 1900 (has links) (PDF)
Des modèles de chimie transport permettent le suivi réaliste des polluants en phase gazeuse dans l'atmosphère. Cependant, lapollution atmosphérique se trouve aussi sous forme de fines particules en suspension, les aérosols, qui interagissent avec la phase gazeuse, le rayonnement solaire, et possèdent une dynamique propre. Cette thèse a pour objet la modélisation et la simulation numérique de l'Equation Générale de la Dynamique des aérosols (GDE). La partie I traite de quelques points théoriques de la modélisation des aérosols. La partie II est consacrée à l'élaboration du module d'aérosols résolu en taille (SIREAM). dans la partie III, on effectue la réduction du modèle en vue de son utilisation dans un modèle de dispersion tel que POLAIR3D. Plusieurs points de modélisation restent encore largement ouverts: la partie organique des aérosols, le mélange externe, le couplage à la turbulence, et les nano-particules.
398

LES of atomization and cavitation for fuel injectors / Simulation aux grandes échelles de l'atomisation et de la cavitation dans le cadre des injections de carburant

Ahmed, Aqeel 06 September 2019 (has links)
Cette thèse présente la Simulation des Grandes Echelles (LES) de l’injection, de la pulvérisation et de la cavitation dans un injecteur pour les applications liées aux moteurs à combustion interne. Pour la modélisation de l’atomisation, on utilise le modèle ELSA (Eulerian Lagrangian Spray Atomization). Le modèle résout la fraction volumique du combustible liquide ainsi que la densité de surface d’interface liquide-gaz pour décrire le processus complet d’atomisation. Dans cette thèse, l’écoulement à l’intérieur de l’injecteur est également pris en compte pour une étude ultérieure de l’atomisation. L’étude présente l’application du modèle ELSA à un injecteur Diesel typique, à la fois dans le contexte de RANS et de LES.Le modèle est validé à l’aide de données expérimentales disponibles dans Engine Combustion Network (ECN). Le modèle ELSA, qui est normalement conçu pour les interfaces diffuses (non résolues), lorsque l’emplacement exact de l’interface liquide-gaz n’est pas pris en compte, est étendu pour fonctionner avec une formulation de type Volume of Fluid (VOF) de flux à deux phases, où l’interface est explicitement résolu. Le couplage est réalisé à l’aide de critères IRQ (Interface Resolution Quality), qui prennent en compte à la fois la courbure de l’interface et la quantité modélisée de la surface de l’interface. Le modèle ELSA est développé en premier lieu en considérant les deux phases comme incompressibles. L’extension à la phase compressible est également brièvement étudiée dans cette thèse. Il en résulte une formulation ELSA compressible qui prend en compte la densité variable de chaque phase. En collaboration avec l’Imperial College de Londres, la formulation de la fonction de densité de probabilité (PDF) avec les champs stochastiques est également explorée afin d’étudier l’atomisation. Dans les systèmes d’injection de carburant modernes, la pression locale à l’intérieur de l’injecteur tombe souvent en dessous de la pression de saturation en vapeur du carburant, ce qui entraîne une cavitation. La cavitation affecte le flux externe et la formulation du spray. Ainsi, une procédure est nécessaire pour étudier le changement de phase ainsi que la formulation du jet en utilisant une configuration numérique unique et cohérente. Une méthode qui couple le changement de phase à l’intérieur de l’injecteur à la pulvérisation externe du jet est développée dans cette thèse. Ceci est réalisé en utilisant le volume de formulation de fluide où l’interface est considérée entre le liquide et le gaz; le gaz est composé à la fois de vapeur et d’airambiant non condensable. / This thesis presents Large Eddy Simulation (LES) of fuel injection, atomization and cavitation inside the fuel injector for applications related to internal combustion engines. For atomization modeling, Eulerian Lagrangian Spray Atomization (ELSA) model is used. The model solves for volume fraction of liquid fuel as well as liquid-gas interface surface density to describe the complete atomization process. In this thesis, flow inside the injector is also considered for subsequent study of atomization. The study presents the application of ELSA model to a typical diesel injector, both in the context of RANS and LES. The model is validated with the help of experimental data available from Engine Combustion Network (ECN). The ELSA model which is normally designed for diffused (unresolved) interfaces, where the exact location of the liquid-gas interface is not considered, is extended to work with Volume of Fluid (VOF) type formulation of two phase flow, where interface is explicitly resolved. The coupling is achieved with the help of Interface Resolution Quality (IRQ) criteria, that takes into account both the interface curvature and modeled amount of interface surface. ELSA model is developed first considering both phases as incompressible, the extension to compressible phase is also briefly studied in this thesis, resulting in compressible ELSA formulation that takes into account varying density in each phase. In collaboration with Imperial College London, the Probability Density Function (PDF) formulation with Stochastic Fields is also explored to study atomization. In modern fuel injection systems, quite oftenthe local pressure inside the injector falls below the vapor saturation pressure of the fuel, resulting in cavitation. Cavitation effects the external flow and spray formulation. Thus, a procedure is required to study the phase change as well as jet formulation using a single and consistent numerical setup. A method is developed in this thesis that couples the phase change inside the injector to the external jet atomization. This is achieved using the volume of fluid formulation where the interface is considered between liquid and gas; gas consists of both the vapor and non condensible ambient air.
399

Three essays in microeconomic theory

Sidibé, Abdoul Karim 06 1900 (has links)
Cette thèse est un recueil de trois articles sur la théorie microéconomique. Les deux premiers traitent de la question de la course vers le bas lorsque les gouvernements se livrent à la concurrence pour certains facteurs mobiles. Le troisième article propose une extension du problème d'appariement plusieurs-à-un en y introduisant des agents de tailles différentes. Dans le premier article, nous montrons comment le résultat standard de course vers le bas (race-to-the-bottom) peut être évité en introduisant du bien public dans un modèle de compétition fiscale. Notre économie comporte deux juridictions peuplées par de la main-d’œuvre parfaitement mobile répartie en deux catégories : qualifiée et non-qualifiée. Les gouvernements, en poursuivant un objectif Rawlsien (max-min), annoncent simultanément leur projet d'investissement en bien public avant d'adopter une politique de taxation non-linéaire du revenu. Les travailleurs, après avoir observé la politique de taxation des différents gouvernements et leurs promesses d'investissement en bien publique, choisissent chacun un lieu de résidence et une offre de travail. Ainsi, les gouvernements atteignent leurs objectifs de redistribution en cherchant à attirer de la main-d’œuvre productive à travers la fourniture de bien public en plus d'une politique de taxation favorable. Nous montrons qu'il existe des équilibres où les travailleurs qualifiés paient une taxe strictement positive. En outre, lorsque l'information sur le type des travailleurs est privée, il existe, pour certaines valeurs des paramètres, des équilibres où la main-d’œuvre non-qualifiée bénéficie d'un transfert net (ou subvention) de la part du gouvernement. Dans le second article, nous étudions comment le modèle standard de compétition des prix à la Bertrand avec des produits différenciés pourrait fournir des informations utiles pour les programmes de citoyenneté par investissement dans les Caraïbes. Nous montrons que lorsque les pays peuvent être classés en deux types en fonction de la taille de leur demande, l'imposition d'un prix minimum uniforme et d'un quota maximum appropriés amène les pays à un résultat efficace qui Pareto domine l'équilibre de Nash non coopératif. Enfin, le troisième article explore une extension du problème standard d'appariement plusieurs-à-un en y incorporant des agents de tailles différentes (familles de réfugiés) d'un côté, à assigner à des foyers de capacités différentes de l'autre. La taille d'une famille de réfugiés représente le nombre de membres qui la compose. Une caractéristique spécifique à ce modèle est qu'il n'autorise pas de répartir les membres d'une même famille entre différents foyers. Il est bien connu que, dans ces conditions, bon nombre de propriétés désirables des règles d'appariement s'effondrent. Nous faisons donc l'hypothèse des priorités croissantes avec la taille pour chaque foyer, c'est-à-dire qu'une famille d'accueil préférerait toujours un plus grand nombre de réfugiés tant que la capacité de son foyer le permet. Nous montrons qu'un appariement stable par paire existe toujours sous cette hypothèse et nous proposons un mécanisme pour le trouver. Nous montrons que notre mécanisme est non-manipulable du point de vue des réfugiés : aucun groupe de réfugiés ne pourrait tirer profit d'une déclaration truquée de leurs préférences. Notre mécanisme est également optimal pour les réfugiés en ce sens qu'il n'existe aucun autre mécanisme stable par paire qui serait plus profitable à tous les réfugiés. / This thesis is a collection of three articles on microeconomic theory. The first two articles are concerned with the issue of race-to-the-bottom when governments engage in competition for some mobile factor. The third article proposes an extension for the many-to-one matching problem by introducing different-size agents. In the first article, we show how the standard race-to-the-bottom result can be avoided by introducing public good into a tax competition model. Our economy has two jurisdictions populated by perfectly mobile workers divided into two categories: skilled and unskilled. Governments, in pursuit of a Rawlsian objective (max-min), simultaneously announce their plans for investing in public good before deploying a nonlinear income tax schedule. After observing the tax schedules of the governments and their promises to invest in public good, each worker chooses a place of residence and a supply of labour. Thus, governments achieve their redistribution objectives by seeking to attract productive labour through the provision of public goods in addition to favorable taxation policy. We show that there exist equilibria where skilled workers pay a strictly positive tax. In addition, when information on the type of workers is private, there are equilibria for certain parameter values in which unqualified workers receive a net transfer (or subsidy) from the government. In the second article, we investigate how the Bertrand standard price competition with differentiated products could provide useful insight for Citizenship By Investment programs in the Caribbean. We show that when countries can be classified into two types according to the size of their demand, imposing appropriate uniform minimum price and maximum quota brings countries to an efficient outcome that Pareto dominates the Non-Cooperative Nash Equilibrium. Finally. in the third article, we explore an extension of the standard many-to-one matching problem by incorporating different-size agents (refugee families) on the many side of the market, to be assigned to entities (homes) with different capacities on the other side. A specific feature of this model is that it does not allow refugee families to be split between several homes. It is well known that many of the desirable properties of matching rules are unachievable in this framework. We introduce size-monotonic priority ranking over refugee families for each home, that is, a host family (home) would always prefer a greater number of members of refugee families until its capacity constraint binds. We show that a pairwise stable matching always exists under this assumption and we propose a mechanism to find it. We show that our mechanism is strategy-proof for refugees: no refugee family could benefit from misrepresenting his preferences. Our mechanism is also refugees optimal pairwise stable in the sense that there is no other pairwise stable mechanism that would be more profitable to all refugees.

Page generated in 0.0337 seconds