• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1534
  • 363
  • 359
  • 195
  • 78
  • 48
  • 46
  • 39
  • 31
  • 26
  • 20
  • 18
  • 17
  • 13
  • 9
  • Tagged with
  • 3318
  • 1153
  • 438
  • 429
  • 327
  • 321
  • 306
  • 286
  • 269
  • 258
  • 236
  • 234
  • 218
  • 211
  • 205
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
611

Contrôle collaboratif d’une ferme de génératrices houlomotrices / Collaborative control within Wave Energy Converter arrays

Meunier, Paul-Emile 22 November 2018 (has links)
Les fermes houlomotrices de seconde génération qui seront déployées dans les années qui viennent seront composées d’un grand nombre de modules identiques mouillés en mer et rapportant au rivage l’électricité produite par câbles sous-marins. Il a été montré que le contrôle des machines houlomotrices permet d’augmenter significativement leur rendement. Cependant, le contrôle optimal d’un système houlomoteur est non causal, i.e. son application nécessite la prévision de la force d’excitation soumise par le champ de vague sur chacun des éléments de la ferme. Les travaux présentés dans ce manuscrit ont consisté à mettre en place une stratégie de contrôle permettant une récupération d’énergie proche de l’optimum théorique en tenant compte des interactions hydrodynamiques liées à la configuration de ferme et permettant de résoudre la non-causalité d’un tel contrôleur en utilisant uniquement l’information contenue dans les vecteurs d’états des machines de la ferme. Dans un premier temps, les équations reliant les différents états des machines de la ferme ont été établies puis ont été utilisées afin d'effectuer une prévision des états sur les corps contrôlés permettant ainsi d’appliquer un contrôle réactif pseudo causal. Afin de contraindre la dynamique des corps et maitriser l’horizon de non causal du contrôleur, une méthode de fenêtrage a été appliquée à l’impédance du contrôleur. À l’aide d’un simulateur temporel développé spécifiquement, une étude de sensibilité a été conduite pour définir les paramètres optimaux et le comportement de la stratégie de contrôle et de son fenêtrage. La robustesse et la performance du contrôleur ont ensuite été évaluées pour différents changements extérieurs comme la dérive des corps, les variations d’orientation de houle, et l’étalement spectral directionnel. L’application de la stratégie de contrôle à une ferme de 10 corps a montré une récupération d’énergie supérieure à 83% de la limite théorique maximale. / The next generation of wave farms will becomposed of a large number of identical devices deployed offshore, which will transfer the retrieved energy to the shore using submarine cables. It hasbeen proven that the control of Wave Energy Converters can improve their efficiency. However, one of the main challenges of WEC control is the noncausality of the optimal controller. Indeed, the time domain application of this kind of control requires the forecast of the excitation force applied by the wavefield on each device of the farm. The work presented in this thesis aimed at developing and assessing a control strategy with an energy efficiency close to the theoretical optimum, taking into account the hydrodynamic interactions between the farm devices, and solving the non-causality issue using the measurements of the states of the device of the array. First, the equations linking the devices’ states within the array have been established and used to performa deterministic forecast of the states of the controlled bodies, which allowed to apply a pseudo-causal reactive control. Moreover, a window function hasbeen applied to the controller impedance in order to constrain the dynamic of the controlled bodies, and also to regulate the non-causal horizon of the controller. Then, using a time domain simulator developed specifically, a sensibility analysis has been performed to define the optimal parameters and the behavior of the controller with the window function.The robustness and the performances of the controller have also been assessed when affected by exterior changes such as device drift, wave orientation modification, and directional spreading of the wave spectrum. The collaborative controlled strategy applied to a farm of 10 devices has shown an energy efficiency over 83% of the theoretical bound.
612

Transport optimal pour quantifier l'évolution d'un attracteur climatique et corriger ses biais / Optimal transport to quantify the evolution of climate attractor and correct its biases

Robin, Yoann 04 April 2018 (has links)
Le système climatique génère un attracteur étrange, décrit par une distribution de probabilité, nommée la mesure SRB (Sinai-Ruelle-Bowen). Cette mesure décrit l'état et sa dynamique du système. Le but de cette thèse est d'une part de quantifier les modifications de cette mesure quand le climat change. Pour cela, la distance de Wasserstein venant de la théorie du transport optimal, permet de mesurer finement les différences entre distributions de probabilités. Appliquée à un modèle jouet de Lorenz non autonome, elle a permis de détecter et quantifier l'altération due à un forçage similaire à celui du forçage anthropique. La même méthodologie a été appliquée à des simulations de scénarios RCP du modèle de l'IPSL. Des résultats cohérents avec les différents scénarios ont été retrouvés. D'autre part, la théorie du transport optimal fournit un contexte théorique pour la correction de biais dans un contexte stationnaire : une méthode de correction de biais est équivalente à une loi jointe de probabilité. Une loi jointe particulière est sélectionnée grâce à la distance de Wasserstein (méthode Optimal Transport Correction, OTC). Cette approche étend les méthodes de corrections en dimension quelconque, corrigeant en particulier les dépendances spatiales et inter-variables. Une extension dans le cas non-stationnaire a également été proposée (méthode dynamical OTC, dOTC). Ces deux méthodes ont été testées dans un contexte idéalisé, basé sur un modèle de Lorenz, et sur des données climatiques (une simulation climatique régionale corrigée avec des ré-analyses SAFRAN). / The climate system generates a strange attractor, described by a probability distribution, called the SRB measure (Sinai-Ruelle-Bowen). This measure describes the state and dynamic of the system. The goal of this thesis is first, to quantify the modification of this measure when climate changes. For this, the Wasserstein distance, stemming from the optimal transport theory, allows us determine accurately the differences between probability distributions. Used on a non-autonomous Lorenz toy model, this metric allows us to detect and quantify the alteration due to a forcing similar to anthropogenic forcing. This methodology has been applied to simulation of RCP scenarios from the IPSL model. The results are coherent with different scenarios. Second, the optimal transport gives a theoretical context for stationary bias correction: a bias correction method is equivalent to a joint probability law. A specific joint law is selected with the Wasserstein distance (Optimal Transport Correction method, OTC). This approach allows us extending bias correction methods in any dimension, correcting spatial and inter-variables dependences. An extension in the non-stationary context has been also developed (dynamical OTC method, dOTC). Those two methods have been tested in an idealized case, based on a Lorenz model, and on climate dataset (a regional climate simulation corrected with respect to the SAFRAN reanalysis).
613

Least-squares optimal interpolation for direct image super-resolution : a thesis presented in partial fulfilment of the requirements for the degree of Doctor of Philosophy in Engineering at Massey University, Palmerston North, New Zealand

Gilman, Andrew January 2009 (has links)
Image super-resolution aims to produce a higher resolution representation of a scene from an ensemble of low-resolution images that may be warped, aliased, blurred and degraded by noise. There are a variety of methods for performing super-resolution described in the literature, and in general they consist of three major steps: image registration, fusion and deblurring. This thesis proposes a novel method of performing the first two of these steps. The ultimate aim of image super-resolution is to produce a higher-quality image that is visually clearer, sharper and contains more detail than the individual input images. Machine algorithms can not assess images qualitatively and typically use a quantitative error criterion, often least-squares. This thesis aims to optimise leastsquares directly using a fast method, in particular one that can be implemented using linear filters; hence, a closed-form solution is required. The concepts of optimal interpolation and resampling are derived and demonstrated in practice. Optimal filters optimised on one image are shown to perform nearoptimally on other images, suggesting that common image features, such as stepedges, can be used to optimise a near-optimal filter without requiring the knowledge of the ground-truth output. This leads to the construction of a pulse model, which is used to derive filters for resampling non-uniformly sampled images that result from the fusion of registered input images. An experimental comparison shows that a 10th order pulse model-based filter outperforms a number of methods common in the literature. The use of optimal interpolation for image registration linearises an otherwise nonlinear problem, resulting in a direct solution. Experimental analysis is used to show that optimal interpolation-based registration outperforms a number of existing methods, both iterative and direct, at a range of noise levels and for both heavily aliased images and images with a limited degree of aliasing. The proposed method offers flexibility in terms of the size of the region of support, offering a good trade-off in terms of computational complexity and accuracy of registration. Together, optimal interpolation-based registration and fusion are shown to perform fast, direct and effective super-resolution.
614

Least-squares optimal interpolation for direct image super-resolution : a thesis presented in partial fulfilment of the requirements for the degree of Doctor of Philosophy in Engineering at Massey University, Palmerston North, New Zealand

Gilman, Andrew January 2009 (has links)
Image super-resolution aims to produce a higher resolution representation of a scene from an ensemble of low-resolution images that may be warped, aliased, blurred and degraded by noise. There are a variety of methods for performing super-resolution described in the literature, and in general they consist of three major steps: image registration, fusion and deblurring. This thesis proposes a novel method of performing the first two of these steps. The ultimate aim of image super-resolution is to produce a higher-quality image that is visually clearer, sharper and contains more detail than the individual input images. Machine algorithms can not assess images qualitatively and typically use a quantitative error criterion, often least-squares. This thesis aims to optimise leastsquares directly using a fast method, in particular one that can be implemented using linear filters; hence, a closed-form solution is required. The concepts of optimal interpolation and resampling are derived and demonstrated in practice. Optimal filters optimised on one image are shown to perform nearoptimally on other images, suggesting that common image features, such as stepedges, can be used to optimise a near-optimal filter without requiring the knowledge of the ground-truth output. This leads to the construction of a pulse model, which is used to derive filters for resampling non-uniformly sampled images that result from the fusion of registered input images. An experimental comparison shows that a 10th order pulse model-based filter outperforms a number of methods common in the literature. The use of optimal interpolation for image registration linearises an otherwise nonlinear problem, resulting in a direct solution. Experimental analysis is used to show that optimal interpolation-based registration outperforms a number of existing methods, both iterative and direct, at a range of noise levels and for both heavily aliased images and images with a limited degree of aliasing. The proposed method offers flexibility in terms of the size of the region of support, offering a good trade-off in terms of computational complexity and accuracy of registration. Together, optimal interpolation-based registration and fusion are shown to perform fast, direct and effective super-resolution.
615

Least-squares optimal interpolation for direct image super-resolution : a thesis presented in partial fulfilment of the requirements for the degree of Doctor of Philosophy in Engineering at Massey University, Palmerston North, New Zealand

Gilman, Andrew January 2009 (has links)
Image super-resolution aims to produce a higher resolution representation of a scene from an ensemble of low-resolution images that may be warped, aliased, blurred and degraded by noise. There are a variety of methods for performing super-resolution described in the literature, and in general they consist of three major steps: image registration, fusion and deblurring. This thesis proposes a novel method of performing the first two of these steps. The ultimate aim of image super-resolution is to produce a higher-quality image that is visually clearer, sharper and contains more detail than the individual input images. Machine algorithms can not assess images qualitatively and typically use a quantitative error criterion, often least-squares. This thesis aims to optimise leastsquares directly using a fast method, in particular one that can be implemented using linear filters; hence, a closed-form solution is required. The concepts of optimal interpolation and resampling are derived and demonstrated in practice. Optimal filters optimised on one image are shown to perform nearoptimally on other images, suggesting that common image features, such as stepedges, can be used to optimise a near-optimal filter without requiring the knowledge of the ground-truth output. This leads to the construction of a pulse model, which is used to derive filters for resampling non-uniformly sampled images that result from the fusion of registered input images. An experimental comparison shows that a 10th order pulse model-based filter outperforms a number of methods common in the literature. The use of optimal interpolation for image registration linearises an otherwise nonlinear problem, resulting in a direct solution. Experimental analysis is used to show that optimal interpolation-based registration outperforms a number of existing methods, both iterative and direct, at a range of noise levels and for both heavily aliased images and images with a limited degree of aliasing. The proposed method offers flexibility in terms of the size of the region of support, offering a good trade-off in terms of computational complexity and accuracy of registration. Together, optimal interpolation-based registration and fusion are shown to perform fast, direct and effective super-resolution.
616

Vers une prise en compte des erreurs-modèle en assimilation de données 4D-variationnelle. <br />Application à un modèle réaliste d'océan

Vidard, Arthur 20 December 2001 (has links) (PDF)
L'assimilation de données est une classe de méthode mathématiques très usitées en météorologie ou en océanographie. Elle permettent de recomposer de façon adéquate l'état du système au moyen des informations fournies par le modèle d'une part et les observations d'autre part. Parmi celles-ci, les méthodes d'assimilation variationnelles ont connu récemment un fort développement jusqu'à fournir les méthodes opérationnelles dans les principaux centres de météorologie. Cependant ces méthodes ne prennent généralement pas en compte l'inexactitude des modèles. Tout au long de cette thèse, on s'est attaché à décrire et expérimenter des variantes " modèle inexacte " de la méthode 4D-Variationnelle applicable tant du point de vue algorithmique que du coût en temps de calcul.<br />Deux méthodes sont étudiées plus en détail. Premièrement, le Nudging optimal qui consiste en adjoindre au 4D-Var un rappel newtonien de l'état du modèle vers les observations et dont l'amplitude sera estimé par contrôle optimal. D'autre part le " contrôle de l'erreur systématique " considère l'erreur modèle comme étant un terme ne variant pas, ou très peu, dans le temps, ce terme étant également estimé par contrôle.<br />Dans un premier temps ces méthodes sont appliquées à des cas académiques de modèles simplifiés en assimilant des données simulées. La méthode de contrôle de la part systématique de l'erreur est ensuite appliquée à un modèle d'océan aux équations primitives dans le cadre d'une expérience réaliste afin de valider les bons résultats obtenus pour les configurations académiques.
617

Incertitude, inertie et choix optimal : modèles de contrôle optimal appliqués au choix de politiques de réduction des émissions de gaz à effet de serre

Gilotte, Laurent 07 December 2004 (has links) (PDF)
Nous proposons une représentation calibrée de l'inertie économique pour le modèle DICE. Les résultats suggèrent une action de réduction des gaz à effet de serre nettement plus forte et plus précoce. Ceci conduit à distinguer entre coût marginal d'abattement dynamique et statique et à s'interroger sur le niveau du signal-prix incitatif. L'incertitude est abordée d'abord sous l'aspect de "l'effet d'irréversibilité" pour lequel on introduit un formalisme qui permet de synthétiser la littérature existante et d'obtenir une nouvelle condition suffisante. Enfin, la théorie des capteurs permet d'aborder la question de la valeur marginale de l'information et d'obtenir pour le théorème de Radner et Stiglitz des conditions distinctes et simples sur les familles des structures d'information et sur l'utilité de l'agent.
618

Quelques problèmes de transport et de contrôle en économie: aspects théoriques et numériques

Lachapelle, Aimé 04 June 2010 (has links) (PDF)
Dans cette thèse on explore l'utilisation du contrôle optimal et du transport de masse pour la modélisation économique. Nous saisissons ainsi l'occasion de réunir plusieurs travaux faisant intervenir ces deux outils, parfois en interactions l'un avec l'autre. Dans un premier temps nous présentons brièvement la récente théorie des jeux à champ moyen introduite par Lasry et Lions et nous concentrons sur le point de vue du contrôle de l'équation de Fokker-Planck. Nous exploitons cet aspect à la fois pour obtenir des résultats d'existence d'équilibres et pour développer des méthodes numériques de résolution. Nous testons les algorithmes dans deux cas complémentaires à savoir le cadre convexe (aversion à la foule, dynamiques à deux populations) et le cadre concave (attraction, externalités et effets d'échelle dans un modèle stylisé de transition technologique). Dans un second temps, nous étudions un problème de matching mêlant transport optimal et contrôle optimal. Le planificateur cherche un couplage optimal, fixé pour une période donnée (engagement), étant donné que les marges évoluent (éventuellement aléatoirement) de façon contrôlée. Enfin, nous reformulons un problème de partage de risque entre d agents (pour lequel nous prouvons un résultat d'existence) en un problème de contrôle optimal avec contraintes de comonotonie; ceci nous permet d'obtenir des conditions d'optimalité à l'aide desquelles nous construisons un algorithme simple et convergent.
619

Contributions to Batch Mode Reinforcement Learning

Fonteneau, Raphaël 24 February 2011 (has links)
This dissertation presents various research contributions published during these four years of PhD in the field of batch mode reinforcement learning, which studies optimal control problems for which the only information available on the system dynamics and the reward function is gathered in a set of trajectories. We first focus on deterministic problems in continuous spaces. In such a context, and under some assumptions related to the smoothness of the environment, we propose a new approach for inferring bounds on the performance of control policies. We also derive from these bounds a new inference algorithm for generalizing the information contained in the batch collection of trajectories in a cautious manner. This inference algorithm as itself lead us to propose a min max generalization framework. When working on batch mode reinforcement learning problems, one has also often to consider the problem of generating informative trajectories. This dissertation proposes two different approaches for addressing this problem. The first approach uses the bounds mentioned above to generate data tightening these bounds. The second approach proposes to generate data that are predicted to generate a change in the inferred optimal control policy. While the above mentioned contributions consider a deterministic framework, we also report on two research contributions which consider a stochastic setting. The first one addresses the problem of evaluating the expected return of control policies in the presence of disturbances. The second one proposes a technique for selecting relevant variables in a batch mode reinforcement learning context, in order to compute simplified control policies that are based on smaller sets of state variables.
620

Accuracies of Optimal Transmission Switching Heuristics Based on Exact and Approximate Power Flow Equations

Soroush, Milad 22 May 2013 (has links)
Optimal transmission switching (OTS) enables us to remove selected transmission lines from service as a cost reduction method. A mixed integer programming (MIP) model has been proposed to solve the OTS problem based on the direct current optimal power flow (DCOPF) approximation. Previous studies indicated computational issues regarding the OTS problem and the need for a more accurate model. In order to resolve computational issues, especially in large real systems, the MIP model has been followed by some heuristics to find good, near optimal, solutions in a reasonable time. The line removal recommendations based on DCOPF approximations may result in poor choices to remove from service. We assess the quality of line removal recommendations that rely on DCOPF-based heuristics, by estimating actual cost reduction with the exact alternating current optimal power flow (ACOPF) model, using the IEEE 118-bus test system. We also define an ACOPF-based line-ranking procedure and compare the quality of its recommendations to those of a previously published DCOPF-based procedure. For the 118-bus system, the DCOPF-based line ranking produces poor quality results, especially when demand and congestion are very high, while the ACOPF-based heuristic produces very good quality recommendations for line removals, at the expense of much longer computation times. There is a need for approximations to the ACOPF that are accurate enough to produce good results for OTS heuristics, but fast enough for practical use for OTS decisions.

Page generated in 0.0463 seconds