• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 10
  • Tagged with
  • 31
  • 31
  • 17
  • 13
  • 12
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Approches non linéaire en imagerie de phase par rayons X dans le domaine de Fresnel

Davidoiu, Valentina 26 September 2013 (has links) (PDF)
Le développement de sources cohérentes de rayons X offre de nouvelles possibilités pour visualiser les structures biologiques à différentes échelles en exploitant la réfraction des rayons X. La cohérence des sources synchrotron de troisième génération permettent des implémentations efficaces des techniques de contraste de phase. Une des premières mesures des variations d'intensité dues au contraste de phase a été réalisée en 1995 à l'Installation Européenne de Rayonnement Synchrotron (ESRF). L'imagerie de phase couplée à l'acquisition tomographique permet une imagerie tridimensionnelle avec une sensibilité accrue par rapport à la tomographie standard basée sur absorption. Cette technique est particulièrement adaptée pour les échantillons faiblement absorbante ou bien présentent des faibles différences d'absorption. Le contraste de phase a ainsi une large gamme d'applications, allant de la science des matériaux, à la paléontologie, en passant par la médecine et par la biologie. Plusieurs techniques de contraste de phase aux rayons X ont été proposées au cours des dernières années. Dans la méthode de contraste de phase basée sur le phénomène de propagation l'intensité est mesurée pour différentes distances de propagation obtenues en déplaçant le détecteur. Bien que l'intensité diffractée puisse être acquise et enregistrée, les informations de phase du signal doivent être "récupérées" à partir seulement du module des données mesurées. L'estimation de la phase est donc un problème inverse non linéaire mal posé et une connaissance a priori est nécessaire pour obtenir des solutions stables. Si la plupart de méthodes d'estimation de phase reposent sur une linéarisation du problème inverse, les traitements non linéaires ont été très peu étudiés. Le but de ce travail était de proposer et d'évaluer des nouveaux algorithmes, prenant en particulier en compte la non linéarité du problème direct. Dans la première partie de ce travail, nous présentons un schéma de type Landweber non linéaire itératif pour résoudre le problème de la récupération de phase. Cette approche utilise l'expression analytique de la dérivée de Fréchet de la relation phase-intensité et de son adjoint. Nous étudions aussi l'effet des opérateurs de projection sur les propriétés de convergence de la méthode. Dans la deuxième partie de cette thèse, nous étudions la résolution du problème inverse linéaire avec un algorithme en coordonnées ondelettes basé sur un seuillage itératif. Par la suite, les deux algorithmes sont combinés et comparés avec une autre approche non linéaire basée sur une régularisation parcimonieuse et un algorithme de point fixe. Les performances des algorithmes sont évaluées sur des données simulées pour différents niveaux de bruit. Enfin, les algorithmes ont été adaptés pour traiter des données réelles acquises en tomographie de phase à l'ESRF à Grenoble.
22

Tarification logit dans un réseau

Gilbert, François 12 1900 (has links)
Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers. / The network pricing problem consists in finding tolls to set on a subset of a network's arcs, so to maximize a revenue expression. A fixed demand of commuters, going from their origins to their destinations, is assumed. Each commuter chooses a path of minimal "disutility", a measure of discomfort associated with the use of a path and which takes into account fixed costs and tolls. A deterministic modelling of commuter behaviour is mostly found in the literature, according to which positive flow is only assigned to \og shortest\fg\: paths. Even though the determinist pricing model is amenable to global optimization by the use of enumeration techniques, it has often been criticized for its lack of realism. In this thesis, we consider a probabilistic extension of this model involving a logit dicrete choice model. This more realistic model is non-linear and non-concave, but still possesses strong combinatorial features. Our analysis spans three separate articles. In the first we tackle the problem from a theoretical perspective for the case of a single origin-destination pair and develop a first order analysis that exploits the logit assignment analytical properties. We show the validity of simplification rules to the network topology which yield a reduction in the problem dimensionality. This enables us to establish the problem's unimodality for a wide class of topologies. We also establish a parallel with the product-line pricing problem, for which we generalize some of our results. In our second article, we address the problem from a numerical point of view for the case where multiple origin-destination pairs are present. We work out algorithms that exploit both local information and the pricing problem specific combinatorial features. We provide theoretical results which put in perspective the deterministic and probabilistic models, as well as numerical evidence according to which a very simple combinatorial approximation can lead to the best solutions. Also, our experiments clearly indicate that under any reasonable setting, the logit pricing problem is much smoother, and admits less optima then its deterministic counterpart. The third article is concerned with an extension to an heterogeneous demand resulting from a mixed-logit discrete choice model. Commuter price sensitivity is assumed random and the corresponding revenue expression admits no closed form expression. We devise nonlinear and combinatorial approximation schemes for its evaluation and optimization, which allow us to obtain quasi-optimal solutions. Numerical experiments here indicate that the most realistic model yields the best solution, independently of how well the model can actually be solved. We finally illustrate how the output of the model can be used for economic purposes by evaluating the contributions to the revenue of various commuter groups.
23

Optimisation convexe non-différentiable et méthodes de décomposition en recherche opérationnelle / Convex nonsmooth optimization and decomposition methods in operations research

Zaourar, Sofia 04 November 2014 (has links)
Les méthodes de décomposition sont une application du concept de diviser pour régner en optimisation. L'idée est de décomposer un problème d'optimisation donné en une séquence de sous-problèmes plus faciles à résoudre. Bien que ces méthodes soient les meilleures pour un grand nombre de problèmes de recherche opérationnelle, leur application à des problèmes réels de grande taille présente encore de nombreux défis. Cette thèse propose des améliorations méthodologiques et algorithmiques de méthodes de décomposition. Notre approche est basée sur l'analyse convexe et l'optimisation non-différentiable. Dans la décomposition par les contraintes (ou relaxation lagrangienne) du problème de planification de production électrique, même les sous-problèmes sont trop difficiles pour être résolus exactement. Mais des solutions approchées résultent en des prix instables et chahutés. Nous présentons un moyen simple d'améliorer la structure des prix en pénalisant leurs oscillations, en utilisant en particulier une régularisation par variation totale. La consistance de notre approche est illustrée sur des problèmes d'EDF. Nous considérons ensuite la décomposition par les variables (ou de Benders) qui peut avoir une convergence excessivement lente. Avec un point de vue d'optimisation non-différentiable, nous nous concentrons sur l'instabilité de l'algorithme de plans sécants sous-jacent à la méthode. Nous proposons une stabilisation quadratique de l'algorithme de Benders, inspirée par les méthodes de faisceaux en optimisation convexe. L'accélération résultant de cette stabilisation est illustrée sur des problèmes de conception de réseau et de localisation de plates-formes de correspondance (hubs). Nous nous intéressons aussi plus généralement aux problèmes d'optimisation convexe non-différentiable dont l'objectif est coûteux à évaluer. C'est en particulier une situation courante dans les procédures de décomposition. Nous montrons qu'il existe souvent des informations supplémentaires sur le problème, faciles à obtenir mais avec une précision inconnue, qui ne sont pas utilisées dans les algorithmes. Nous proposons un moyen d'incorporer ces informations incontrôlées dans des méthodes classiques d'optimisation convexe non-différentiable. Cette approche est appliquée avec succès à desproblèmes d'optimisation stochastique. Finalement, nous introduisons une stratégie de décomposition pour un problème de réaffectation de machines. Cette décomposition mène à une nouvelle variante de problèmes de conditionnement vectoriel (vectorbin packing) où les boîtes sont de taille variable. Nous proposons des heuristiques efficaces pour ce problème, qui améliorent les résultats de l'état de l'art du conditionnement vectoriel. Une adaptation de ces heuristiques permet de construire des solutions réalisables au problème de réaffectation de machines de Google. / Decomposition methods are an application of the divide and conquer principle to large-scale optimization. Their idea is to decompose a given optimization problem into a sequence of easier subproblems. Although successful for many applications, these methods still present challenges. In this thesis, we propose methodological and algorithmic improvements of decomposition methods and illustrate them on several operations research problems. Our approach heavily relies on convex analysis and nonsmooth optimization. In constraint decomposition (or Lagrangian relaxation) applied to short-term electricity generation management, even the subproblems are too difficult to solve exactly. When solved approximately though, the obtained prices show an unstable noisy behaviour. We present a simple way to improve the structure of the prices by penalizing their noisy behaviour, in particular using a total variation regularization. We illustrate the consistency of our regularization on real-life problems from EDF. We then consider variable decomposition (or Benders decomposition), that can have a very slow convergence. With a nonsmooth optimization point of view on this method, we address the instability of Benders cutting-planes algorithm. We present an algorithmic stabilization inspired by bundle methods for convex optimization. The acceleration provided by this stabilization is illustrated on network design andhub location problems. We also study more general convex nonsmooth problems whose objective function is expensive to evaluate. This situation typically arises in decomposition methods. We show that it often exists extra information about the problem, cheap but with unknown accuracy, that is not used by the algorithms. We propose a way to incorporate this coarseinformation into classical nonsmooth optimization algorithms and apply it successfully to two-stage stochastic problems.Finally, we introduce a decomposition strategy for the machine reassignment problem. This decomposition leads to a new variant of vector bin packing problems, where the bins have variable sizes. We propose fast and efficient heuristics for this problem that improve on state of the art results of vector bin packing problems. An adaptation of these heuristics is also able to generate feasible solutions for Google instances of the machine reassignment problem.
24

Constrained, non-linear, derivative-free, parallel optimization of continuous, high computing load, noisy objective functions

Vanden Berghen, Frank 28 June 2004 (has links)
The main result is a new original algorithm: CONDOR ("COnstrained, Non-linear, Direct, parallel Optimization using trust Region method for high-computing load, noisy functions"). The aim of this algorithm is to find the minimum x* of an objective function F(x) (x is a vector whose dimension is between 1 and 150) using the least number of function evaluations of F(x). It is assumed that the dominant computing cost of the optimization process is the time needed to evaluate the objective function F(x) (One evaluation can range from 2 minutes to 2 days). The algorithm will try to minimize the number of evaluations of F(x), at the cost of a huge amount of routine work. CONDOR is a derivate-free optimization tool (i.e. the derivatives of F(x) are not required. The only information needed about the objective function is a simple method (written in Fortran, C++,) or a program (a Unix, Windows, Solaris, executable) which can evaluate the objective function F(x) at a given point x. The algorithm has been specially developed to be very robust against noise inside the evaluation of the objective function F(x). This hypotheses are very general, the algorithm can thus be applied on a vast number of situations. CONDOR is able to use several CPU's in a cluster of computers. Different computer architectures can be mixed together and used simultaneously to deliver a huge computing power. The optimizer will make simultaneous evaluations of the objective function F(x) on the available CPU's to speed up the optimization process. The experimental results are very encouraging and validate the quality of the approach: CONDOR outperforms many commercial, high-end optimizer and it might be the fastest optimizer in its category (fastest in terms of number of function evaluations). When several CPU's are used, the performances of CONDOR are currently unmatched (may 2004). CONDOR has been used during the METHOD project to optimize the shape of the blades inside a Centrifugal Compressor (METHOD stands for Achievement Of Maximum Efficiency For Process Centrifugal Compressors THrough New Techniques Of Design). In this project, the objective function is based on a 3D-CFD (computation fluid dynamic) code which simulates the flow of the gas inside the compressor. / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
25

Mathématiques appliquées et traitement du signal pour l’évaluation de la dégradation de la biomasse lignocellulosique / Applied Mathematics and signal processing for the study of the evolution of plant litter during the biodegradation process

Rammal, Abbas 25 January 2016 (has links)
Dans cette thèse nous proposons de mettre en œuvre des méthodes des mathématiques appliquées et du traitement du signal pour l’étude à partir de spectres infrarouges (IR) de l’évolution des litières végétales au cours du processus de biodégradation. Nous présentons tout d’abord une nouvelle méthode de classification floue fondée sur une optimisation de type non supervisée, basée sur le facteur de covariance qui permet de classer des données IR de forme sphérique ou non sphérique afin d’identifier les méthodes de prétraitement et de choix de gammes spectrales les mieux adaptées. Nous développons des outils mathématiques et des algorithmes innovants permettant de combiner des informations spectrales moyen IR (MIR) et proche IR (MIR) afin d’identifier des marqueurs spectroscopiques discriminants de résidus lignocellulosiques en fonction de leur niveau de dégradation. Pour cela, nous proposons une méthode d'optimisation stochastique basée sur un algorithme génétique avec paramètres adaptés. Nous montrons que l’analyse conjoints des spectres MIR et NIR fusionnés par le produit extérieur permet de mieux discriminer la biomasse lignocellulosique au cours du processus de dégradation qu’un traitement séparé. Nous proposons ensuite une nouvelle approche d’optimisation non linéaire basée sur la sélection d’un vecteur qui met en évidence les poids des bandes spectrales. Enfin, nous développons une méthode de modélisation mathématique basée sur l’extension de l’algorithme AG-PLS en combinant les informations spectrales MIR et NIR par le produit extérieur (OP-AG-PLS). Cette méthode permet d’améliorer les performances de prédiction de l’état de dégradation de la biomasse. / In this thesis we propose to implement methods of applied mathematics and signal processing for the study of the evolution of plant biomass during the biodegradation process. The degradation of plant biomass is identified by FTIR spectroscopy, particularly in the MIR and NIR ranges. We proposed a new unsupervised classification method of Fuzzy C-Means based on the covariance factor to classify the IR data with spherical and not spherical form to identify the pre-treatment methods and the choice of spectral ranges that are the best adapted for our study. We have developed mathematical tools and innovative algorithms to combine these spectral information and identifying infrared spectroscopic markers that are discriminative in the lignocellulosic residues according to their level of degradation. For this, we have proposed a stochastic optimization method based on a genetic algorithm by choosing the appropriate parameters. We have shown that the joint analysis of the MIR and NIR spectra by the outer product (OP) provides better results than the separate analysis for the discrimination of the lignocellulosic biomass during the degradation process. Then, we proposed a new nonlinear optimization approach based on the built of vector which highlights the weight of spectral bands. Finally, we have developed a mathematical modelisation based on the extension of the GA-PLS algorithm combining the MIR and NIR spectral information by outer product (OP-GA-PLS) which significantly improves the prediction performance of the state of degradation of biomass.
26

Résolution exacte du problème de l'optimisation des flux de puissance / Global optimization of the Optimal Power Flow problem

Godard, Hadrien 17 December 2019 (has links)
Cette thèse a pour objet la résolution exacte d’un problème d’optimisation des flux de puissance (OPF) dans un réseau électrique. Dans l’OPF, on doit planifier la production et la répartition des flux de puissances électriques permettant de couvrir, à un coût minimal, la consommation en différents points du réseau. Trois variantes du problème de l’OPF sont étudiées dans ce manuscrit. Nous nous concentrerons principalement sur la résolution exacte des deux problèmes (OPF − L) et (OPF − Q), puis nous montrerons comment notre approche peut naturellement s’´étendre à la troisième variante (OPF − UC). Cette thèse propose de résoudre ces derniers à l’aide d’une méthode de reformulation que l’on appelle RC-OPF. La contribution principale de cette thèse réside dans l’étude, le développement et l’utilisation de notre méthode de résolution exacte RC-OPF sur les trois variantes d’OPF. RC-OPF utilise également des techniques de contractions de bornes, et nous montrons comment ces techniques classiques peuvent être renforcées en utilisant des résultats issus de notre reformulation optimale. / Alternative Current Optimal Power Flow (ACOPF) is naturally formulated as a non-convex problem. In that context, solving (ACOPF) to global optimality remains a challenge when classic convex relaxations are not exact. We use semidefinite programming to build a quadratic convex relaxation of (ACOPF). We show that this quadratic convex relaxation has the same optimal value as the classical semidefinite relaxation of (ACOPF) which is known to be tight. In that context, we build a spatial branch-and-bound algorithm to solve (ACOPF) to global optimality that is based on a quadratic convex programming bound.
27

Analyse du comportement hétérogène des usagers dans un réseau

Klok, Zacharie-Francis 08 1900 (has links)
Le nombre important de véhicules sur le réseau routier peut entraîner des problèmes d'encombrement et de sécurité. Les usagers des réseaux routiers qui nous intéressent sont les camionneurs qui transportent des marchandises, pouvant rouler avec des véhicules non conformes ou emprunter des routes interdites pour gagner du temps. Le transport de matières dangereuses est réglementé et certains lieux, surtout les ponts et les tunnels, leur sont interdits d'accès. Pour aider à faire appliquer les lois en vigueur, il existe un système de contrôles routiers composé de structures fixes et de patrouilles mobiles. Le déploiement stratégique de ces ressources de contrôle mise sur la connaissance du comportement des camionneurs que nous allons étudier à travers l'analyse de leurs choix de routes. Un problème de choix de routes peut se modéliser en utilisant la théorie des choix discrets, elle-même fondée sur la théorie de l'utilité aléatoire. Traiter ce type de problème avec cette théorie est complexe. Les modèles que nous utiliserons sont tels, que nous serons amenés à faire face à des problèmes de corrélation, puisque plusieurs routes partagent probablement des arcs. De plus, puisque nous travaillons sur le réseau routier du Québec, le choix de routes peut se faire parmi un ensemble de routes dont le nombre est potentiellement infini si on considère celles ayant des boucles. Enfin, l'étude des choix faits par un humain n'est pas triviale. Avec l'aide du modèle de choix de routes retenu, nous pourrons calculer une expression de la probabilité qu'une route soit prise par le camionneur. Nous avons abordé cette étude du comportement en commençant par un travail de description des données collectées. Le questionnaire utilisé par les contrôleurs permet de collecter des données concernant les camionneurs, leurs véhicules et le lieu du contrôle. La description des données observées est une étape essentielle, car elle permet de présenter clairement à un analyste potentiel ce qui est accessible pour étudier les comportements des camionneurs. Les données observées lors d'un contrôle constitueront ce que nous appellerons une observation. Avec les attributs du réseau, il sera possible de modéliser le réseau routier du Québec. Une sélection de certains attributs permettra de spécifier la fonction d'utilité et par conséquent la fonction permettant de calculer les probabilités de choix de routes par un camionneur. Il devient alors possible d'étudier un comportement en se basant sur des observations. Celles provenant du terrain ne nous donnent pas suffisamment d'information actuellement et même en spécifiant bien un modèle, l'estimation des paramètres n'est pas possible. Cette dernière est basée sur la méthode du maximum de vraisemblance. Nous avons l'outil, mais il nous manque la matière première que sont les observations, pour continuer l'étude. L'idée est de poursuivre avec des observations de synthèse. Nous ferons des estimations avec des observations complètes puis, pour se rapprocher des conditions réelles, nous continuerons avec des observations partielles. Ceci constitue d'ailleurs un défi majeur. Nous proposons pour ces dernières, de nous servir des résultats des travaux de (Bierlaire et Frejinger, 2008) en les combinant avec ceux de (Fosgerau, Frejinger et Karlström, 2013). Bien qu'elles soient de nature synthétiques, les observations que nous utilisons nous mèneront à des résultats tels, que nous serons en mesure de fournir une proposition concrète qui pourrait aider à optimiser les décisions des responsables des contrôles routiers. En effet, nous avons réussi à estimer, sur le réseau réel du Québec, avec un seuil de signification de 0,05 les valeurs des paramètres d'un modèle de choix de routes discrets, même lorsque les observations sont partielles. Ces résultats donneront lieu à des recommandations sur les changements à faire dans le questionnaire permettant de collecter des données. / Using transportation roads enables workers to reach their work facilities. Security and traffic jam issues are all the more important given that the number of vehicles is always increasing and we will focus on merchandise transporters in this study. Dangerous items transportation is under strict control as it is for example forbidden for them to be carried through a tunnel or across a bridge. Some transporters may drive a vehicle that has defects or/and they may be ta\-king some forbidden roads so as to reach their destination faster. Transportation of goods is regulated by the law and there exists a control system, whose purpose is to detect frauds and to make sure controlled vehicles are in order. The strategic deployment of control resources can be based on the knowledge of transporters behaviour, which is going to be studied through their route choice analysis. The number of routes can be unbounded especially if we consider loops, which leads to a complex problem to be solved. We can also mention issues closely related to route choice problem using discrete choice models such as correlation between routes sharing links and point out the fact that human decision process is not considered something easy. A route choice problem can be modelled based on the random utility theory and as a consequence we will focus on the discrete choice models. We are going to use such model on the real road network of Quebec and we will derive an expression of the probability, for a transporter, to pick one route. We are going to explain the way we did our study. It started first by doing a data description job as we are convinced this is a step that will help other analysts to have a clear view of the data situation. Some data are network related and the corresponding attributes collected will be used to model the road network of Quebec. We will use some attributes to explain the utility function, which leads to the definition of the function that gives the probability that a user takes a given route. Once this function is fully specified, the behaviour study can be done, except that we have a set of observations that are absolutely incomplete. When observations are a gathering of data collected during a road control, the information they provide us is not enough and thus, the parameters estimation will fail. We might seem blocked but in fact, we brought the idea of using simulated observations. We are going to estimate model parameters with firstly complete observations and in order to imitate the real conditions, we then are going to use partial observations. This constitutes a main challenge and we overcome it by using the results presented in (Bierlaire et Frejinger, 2008) combined with those from (Fosgerau, Frejinger et Karlström, 2013). We will demonstrate that even though the observations used are simulated, we will deliver conclusions that can be useful for road network managers. The main results we provide in this work is that estimation can be done with a 0,05 signification level on real road network of Quebec, while the observations are incomplete. Eventually, our results should motivate network managers to improve the set of questions they use to collect data as it would help them to strengthen their knowledge about the merchandise transporters and hopefully, the decision process will lead to optimized resource deployments.
28

Evitement de conflits aériens par une régulation subliminale en vitesse : modélisation & résolution via le contrôle optimal / Velocity-based aircraft conflict avoidance through optimal control model and solution approaches

Cellier, Loïc 29 September 2015 (has links)
À travers une approche de contrôle optimal, cette thèse de doctorat propose une étude des modèles et des techniques de résolution dans un domaine d'application propre à la gestion du trafic aérien. Motivés par la croissance des flux aériens d'une part, et les développements en théorie du contrôle optimal d'autre part, ces travaux portent sur l'analyse du problème d'évitement de conflits aériens. Cette étude permet le développement de nouvelles approches et algorithmes en vue d'aider les contrôleurs aériens dans leur tâche. Ainsi, dans le cadre du trafic aérien, afin de préserver des distances minimales de sécurité entre avions, lors de phases tactiques et de configurations des vols en-route, notre recherche se focalise sur une stratégie de régulation subliminale en vitesse (variations très réduites), pour assurer la séparation entre avions, tout en conservant leur trajectoire prédéfinie. D'une part, une méthode de résolution numérique en contrôle optimal telle que la méthode directe de tir, impliquant une discrétisation totale ou partielle du problème, transforme le problème initial en un problème en programmation non linéaire de grande taille. Ce type de méthodes peut générer des problèmes d'optimisation de grande taille numériquement di_ciles à résoudre. Suivant le nombre de variables du problème, elles peuvent s'avérer trop coûteuse en termes de temps de calculs. D'autre part, les contraintes sur les variables d'états du problème posent des di_cultés de résolution, par exemple, pour l'usage d'une méthode numérique indirecte de tir. Développant les informations caractéristiques des conflits aériens, une détection et une détermination a priori des zones de conflits permettent alors la décomposition du problème présenté de contrôle optimal en sous-problèmes plus aisés à résoudre. La résolution des sous-problèmes hors-zones peut être abordée en utilisant les conditions du principe du maximum de Pontryagin, ce qui en permet une résolution e_cace. Une combinaison de méthodes numériques directes de tir et d'application des conditions du principe du maximum de Pontryagin est proposée, et des implémentations numériques valident ce type d'approche. / The purpose of this doctoral thesis is to study models and solution techniques based on optimal control approaches to address air tra_c management problems. Motivated by the growth of air tra_c volume, and by the advances in optimal control theory, this research works focus on analysing aircraft conflict avoidance problem. This study allows development of new approaches and algorithms to help air tra_c controllers. In the framework of air tra_c management, to ensure the minimum safety distances between aircraft, in tactical phases and en-route flight configurations, this thesis focusses on a subliminal velocity regulation strategy to perform the separation, while preserving the aircraft predefined trajectories. A numerical optimal control solution approach as the direct shooting method, wherein involves a total or partial discretization of the problem, transforms the initial problem into a large scale nonlinear programming problem. This kind of methods could generate large-size optimization problems which are numerically di_cult to solve. Depending on the number of variables which involved, this approaches could be too expensive in terms of computation time. Moreover, the state-variables constraints of the problem lead to numerical di_culties, e.g., considering the indirect numerical shooting method. Tailored on aircraft conflict avoidance problems, a detection and a determination of a priori conflict zones allow the decomposition of the optimal control problem into sub-problems, easier to solve than the original one. Solving the o_-zones sub-problems can be addressed using the Pontryagin maximum principle, which allows in this case directly the solution. A combination of direct numerical shooting method and application of conditions of Pontryagin's maximum principle is proposed, and numerical experiments validate this approach.
29

Nonlinear approaches for phase retrieval in the Fresnel region for hard X-ray imaging / Approches non linéaire en imagerie de phase par rayons X dans le domaine de Fresnel

Ion, Valentina 26 September 2013 (has links)
Le développement de sources cohérentes de rayons X offre de nouvelles possibilités pour visualiser les structures biologiques à différentes échelles en exploitant la réfraction des rayons X. La cohérence des sources synchrotron de troisième génération permettent des implémentations efficaces des techniques de contraste de phase. Une des premières mesures des variations d’intensité dues au contraste de phase a été réalisée en 1995 à l’Installation Européenne de Rayonnement Synchrotron (ESRF). L’imagerie de phase couplée à l’acquisition tomographique permet une imagerie tridimensionnelle avec une sensibilité accrue par rapport à la tomographie standard basée sur absorption. Cette technique est particulièrement adaptée pour les échantillons faiblement absorbante ou bien présentent des faibles différences d’absorption. Le contraste de phase a ainsi une large gamme d’applications, allant de la science des matériaux, à la paléontologie, en passant par la médecine et par la biologie. Plusieurs techniques de contraste de phase aux rayons X ont été proposées au cours des dernières années. Dans la méthode de contraste de phase basée sur le phénomène de propagation l’intensité est mesurée pour différentes distances de propagation obtenues en déplaçant le détecteur. Bien que l’intensité diffractée puisse être acquise et enregistrée, les informations de phase du signal doivent être "récupérées" à partir seulement du module des données mesurées. L’estimation de la phase est donc un problème inverse non linéaire mal posé et une connaissance a priori est nécessaire pour obtenir des solutions stables. Si la plupart de méthodes d’estimation de phase reposent sur une linéarisation du problème inverse, les traitements non linéaires ont été eux très peu étudiés. Le but de ce travail était de proposer et d’évaluer des nouveaux algorithmes, prenant en particulier en compte la non linéarité du problème direct. Dans la première partie de ce travail, nous présentons un schéma de type Landweber non linéaire itératif pour résoudre le problème de la récupération de phase. Cette approche utilise l’expression analytique de la dérivée de Fréchet de la relation phase-intensité et de son adjoint. Nous étudions aussi l’effet des opérateurs de projection sur les propriétés de convergence de la méthode. Dans la deuxième partie de cette thèse, nous étudions la résolution du problème inverse linéaire avec un algorithme en coordonnées ondelettes basé sur un seuillage itératif. Par la suite, les deux algorithmes sont combinés et comparés avec une autre approche non linéaire basée sur une régularisation parcimonieuse et un algorithme de point fixe. Les performances des algorithmes sont évaluées sur des données simulées pour différents niveaux de bruit. Enfin, les algorithmes ont été adaptés pour traiter des données réelles acquises en tomographie de phase à l’ESRF à Grenoble. / The development of highly coherent X-ray sources offers new possibilities to image biological structures at different scales exploiting the refraction of X-rays. The coherence properties of the third-generation synchrotron radiation sources enables efficient implementations of phase contrast techniques. One of the first measurements of the intensity variations due to phase contrast has been reported in 1995 at the European Synchrotron Radiation Facility (ESRF). Phase imaging coupled to tomography acquisition allows threedimensional imaging with an increased sensitivity compared to absorption CT. This technique is particularly attractive to image samples with low absorption constituents. Phase contrast has many applications, ranging from material science, paleontology, bone research to medicine and biology. Several methods to achieve X-ray phase contrast have been proposed during the last years. In propagation based phase contrast, the measurements are made at different sample-to-detector distances. While the intensity data can be acquired and recorded, the phase information of the signal has to be "retrieved" from the modulus data only. Phase retrieval is thus an illposed nonlinear problem and regularization techniques including a priori knowledge are necessary to obtain stable solutions. Several phase recovery methods have been developed in recent years. These approaches generally formulate the phase retrieval problem as a linear one. Nonlinear treatments have not been much investigated. The main purpose of this work was to propose and evaluate new algorithms, in particularly taking into account the nonlinearity of the direct problem. In the first part of this work, we present a Landweber type nonlinear iterative scheme to solve the propagation based phase retrieval problem. This approach uses the analytic expression of the Fréchet derivative of the phase-intensity relationship and of its adjoint, which are presented in detail. We also study the effect of projection operators on the convergence properties of the method. In the second part of this thesis, we investigate the resolution of the linear inverse problem with an iterative thresholding algorithm in wavelet coordinates. In the following, the two former algorithms are combined and compared with another nonlinear approach based on sparsity regularization and a fixed point algorithm. The performance of theses algorithms are evaluated on simulated data for different noise levels. Finally the algorithms were adapted to process real data sets obtained in phase CT at the ESRF at Grenoble.
30

Conception d'une clarinette logique / Conception of a logical clarinet

Guilloteau, Alexis 30 September 2015 (has links)
Le processus de conception des instruments à anche simple, élaboré au fil des siècles par les facteurs, est essentiellement basé sur des lois de comportement empiriques qui résultent de l’arbitrage des clarinettistes. Leurs critères subjectifs d’appréciation semblent être aussi bien alimentés par des descripteurs acoustiques (fréquence de jeu, spectre perçu, dynamique) que par l’aisance dans leur contrôle. Les connaissances actuelles en propagation guidée dans les réseaux de trous latéraux, offrent une base nécessaire à la prédiction du comportement acoustique linéaire du résonateur de l’instrument. Nous cherchons, à l’aide de ceux-ci, à proposer une méthode d’optimisation géométrique (positions et dimensions des trous latéraux) afin d’atteindre une retranscription objective, la plus proche possible, des critères d’appréciation du musicien. L’heuristique suivie au cours de cette étude vise à affiner les modèles de comportement ainsi que la construction des critères objectifs d’appréciation à l’issue de chaque réalisation d’un prototype de clarinette jusqu’à leur validation expérimentale. Avec l’aide d’un facteur d’instrument, deux prototypes ont été réalisés et nous exposerons les avantages et inconvénients des procédures d’optimisation appliquées à chacun d’eux. / Single reed instruments conception process developed by instrument makers, is essentially based on empirical laws obtained from their interaction with musicians. Some of the subjectives criteria seems to be defined by both acoustic descriptors(like playing frequency, radiating spectrum and musical dynamics for exemple) and the ease of their control. Present knowledges in guided wave propagation in tone hole lattice are a necessary background to explain linear behavior of the clarinet. We aim to develop an optimisation method for clarinet geometrical variables in a way to reach the best objective translation of the clarinetists appraisal criteria. Then, the followed heuristic in this study consist in the enhancement of the acoustic behavior laws in parallel with the development of objective criteria after each logical clarinet making, until their experimental validation. The collaborative work with an instrument maker, helps us to make 2 prototypes with each specific procedure depicted in this document.

Page generated in 0.1129 seconds