• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 6
  • Tagged with
  • 20
  • 20
  • 11
  • 10
  • 10
  • 6
  • 5
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Optimisation de forme en forgeage 3D

Do, Tien Tho 04 July 2006 (has links) (PDF)
Ce travail de thèse a pour but l'optimisation de forme en forgeage 3D. Les problèmes à résoudre consistent à chercher la forme optimale du lopin initial ou des outils de préforme afin de minimiser une fonction coût F qui représente une mesure de non-qualité définie par les industriels. Ce sont souvent des problèmes multi optima, et le temps nécessaire pour une évaluation de la fonction coût est très élevé (de l'ordre de la journée). L'objectif de cette thèse est de construire un module d'optimisation automatique qui permet de localiser l'extremum global à un coût raisonnable (moins de 50 calculs de la fonction coût à chaque optimisation). La simulation du procédé est effectuée avec le logiciel éléments finis FORGE3®. Les formes axisymétrique des pièces initiales ou des outils de préforme (dans le cadre du forgeage multi-passes) sont paramétrées en utilisant des polygônes quadratiques ou des courbes Bsplines. Différentes fonctions coûts sont considérées, comme l'énergie totale de forgeage ou la mesure non-qualité de la surface (défaut de repli). Le gradient de ces fonctions coûts est obtenu par la méthode de l'Etat Adjoint combinée avec la méthode de différentiation semi-analytique. Dans ce travail, afin d'aborder une famille de procédés de forgeage plus vaste, ce calcul du gradient (initié dans la thèse de M. Laroussi) a été étendu aux paramètres de forme des outils de préformes dans le cadre du forgeage multi passes.Différents algorithmes d'optimisation ont été étudiés : un algorithme BFGS standard, un algorithme de type asymptotes mobiles, une stratégie d'évolution couplée avec une surface de réponse basée sur le Krigeage et deux nouveaux algorithmes hybrides proposés dans le cadre de ce travail. Cette approche hybride consiste à coupler un algorithme génétique avec une méthode de surface de réponse pour réduire le nombre d'évaluations de la fonction coût. Tous les algorithmes étudiés sont comparés sur deux problèmes caractéristiques de forgeage 3D, respectivement l'optimisation de la géométrie de la préforme et celle des outils de préforme. Les résultats obtenus montrent la faisabilité de l'optimisation de forme en forgeage 3D, c'est-à-dire l'obtention de résultats satisfaisant en moins de 50 simulations 3D et la robustesse des algorithmes à base de méta-modèle.
12

Optimization algorithms for SVM classification : Applications to geometrical chromosome analysis / Algorithmes d'optimisation pour la classification via SVM : application à l'analyse géométrique des chromosomes

Wang, Wenjuan 16 September 2016 (has links)
Le génome est très organisé au sein du noyau cellulaire. Cette organisation et plus spécifiquement la localisation et la dynamique des gènes et chromosomes contribuent à l'expression génétique et la différenciation des cellules que ce soit dans le cas de pathologies ou non. L'exploration de cette organisation pourrait dans le futur aider à diagnostiquer et identifier de nouvelles cibles thérapeutiques. La conformation des chromosomes peut être analysée grâce au marquage ADN sur plusieurs sites et aux mesures de distances entre ces différents marquages fluorescents. Dans ce contexte, l'organisation spatiale du chromosome III de levure a montré que les deux types de cellules, MATa et MATalpha, sont différents. Par contre, les données issues de l'imagerie electronique sont bruitées à cause de la résolution des systèmes de microscope et du fait du caractère vivant des cellules observées. Dans cette thèse, nous nous intéressons au développement de méthodes de classification pour différencier les types de cellules sur la base de mesures de distances entre 3 loci du chromosome III et d'une estimation du bruit. Dans un premier temps, nous nous intéressons de façon générale aux problèmes de classification binaire à l'aide de SVM de grandes tailles et passons en revue les algorithmes d'optimisation stochastiques du premier ordre. Afin de prendre en compte les incertudes, nous proposons un modèle d'apprentissage qui ajuste sa robustesse en fonction du bruit. La méthode évite les situations où le modèle est trop conservatif et que l'on rencontre parfois avec les formulations SVM robustes. L'amplitude des pertubations liées au bruit qui sont incorporées dans le modèle est controllée par l'optimisation d'une erreur de généralisation. Aucune hypothèse n'est faite sur la distribution de probabilité du bruit. Seule une borne estimée des pertubations est nécessaire. Le problème peut s'écrire sous la forme d'un programme biniveaux de grande taille. Afin de le résoudre, nous proposons un algorithme biniveau qui réalise des déplacements stochastiques très peu coûteux et donc adapté aux problèmes de grandes tailles. La convergence de l'algorithme est prouvée pour une classe générale de problèmes. Nous présentons des résultats numériques très encourageants qui confirment que la technique est meilleure que l'approche SOCP (Second Order Cone Programming) pour plusieurs bases de données publiques. Les expériences numériques montrent également que la nonlinéarité additionnelle générée par l'incertitude sur les données pénalise la classification des chromosomes et motivent des recherches futures sur une version nonlinéaire de la technique proposée. Enfin, nous présentons également des résultats numériques de l'algorithme biniveau stochastique pour la sélection automatique de l'hyperparamètre de pénalité dans les SVM. L'approche évite les coûteux calculs que l'on doit inévitablement réaliser lorsque l'on effectue une validation croisée sur des problèmes de grandes tailles. / The genome is highly organized within the cell nucleus. This organization, in particular the localization and dynamics of genes and chromosomes, is known to contribute to gene expression and cell differentiation in normal and pathological contexts. The exploration of this organization may help to diagnose disease and to identify new therapeutic targets. Conformation of chromosomes can be analyzed by distance measurements of distinct fluorescently labeled DNA sites. In this context, the spatial organization of yeast chromosome III was shown to differ between two cell types, MATa and MATa. However, imaging data are subject to noise, due to microscope resolution and the living state of yeast cells. In this thesis, the aim is to develop new classification methods to discriminate two mating types of yeast cells based on distance measurements between three loci on chromosome III aided by estimation the bound of the perturbations. We first address the issue of solving large scale SVM binary classification problems and review state of the art first order optimization stochastic algorithms. To deal with uncertainty, we propose a learning model that adjusts its robustness to noise. The method avoids over conservative situations that can be encountered with worst case robust support vector machine formulations. The magnitude of the noise perturbations that is incorporated in the model is controlled by optimizing a generalization error. No assumption on the distribution of noise is taken. Only rough estimates of perturbations bounds are required. The resulting problem is a large scale bi-level program. To solve it, we propose a bi-level algorithm that performs very cheap stochastic gradient moves and is therefore well suited to large datasets. The convergence is proven for a class of general problems. We present encouraging experimental results confirming that the technique outperforms robust second order cone programming formulations on public datasets. The experiments also show that the extra nonlinearity generated by the uncertainty in the data penalizes the classification of chromosome data and advocates for further research on nonlinear robust models. Additionally, we provide the experimenting results of the bilevel stochastic algorithm used to perform automatic selection of the penalty parameter in linear and non-linear support vector machines. This approach avoids expensive computations that usually arise in k-fold cross validation.
13

Modelisation - Optimisation et Supervision de la Gestion d'Energie pour une Installation Multisources / Modelling - Optimisation and Supervision of the Energy Management for a Multi Sources Installation

Haraoubia, Mohamed Amine 14 December 2015 (has links)
L'objectif principal de cette thèse est le dimensionnement et l'optimisation de la production d'une petite installation d'énergie renouvelable dans une zone isolée. Afin de déterminer la taille de l'installation, une étude de la capacité de production du site et du type d'énergie à utiliser doit être effectuée. Un programme est réglé afin de minimiser le coût d'une installation de production d’énergie hybride photovoltaïque et éolienne dans des sites différents. L’étape suivante est l'optimisation de la production d'énergie de chacun de ces systèmes individuellement, en utilisant un contrôleur de logique floue pour la poursuite du point de puissance maximale. Cette technique est basée sur l'approche directe, imitant le « Perturb & Observe » algorithme et surmontant ses limites, comme l'oscillation autour du PPM. Le système flou nécessite un réglage fin pour maximiser son efficacité, il est donc combiné avec différents algorithmes d'optimisation pour définir les fonctions d'appartenance et de modifier les règles. Cinq approches ont été testées : la logique floue type 1 a été combinée d'abord avec un algorithme génétique, deuxièmement avec l’optimisation par essaim de particules, la troisième approche a appliqué la logique flou type 2 et ensuite l’a combiné avec les mêmes algorithmes d'optimisation précédemment utilisés, pour les deux dernières approches. La dernière partie de ce travail présente un superviseur basé sur la logique floue qui est adapté pour une installation hybride photovoltaïque éolienne isolée, pour obtenir un fonctionnement optimal du système en fonction des changements des conditions atmosphériques et de la demande d'énergie, en tenant compte de l'état de charge des batteries et la dissipation de la surcharge d’énergie. Les simulations sont effectuées pour tous les systèmes afin de montrer leur efficacité. / The main objective of this thesis is to size and optimise the production of a small renewable energy installation in a remote isolated area. In order to determine the size of the installation a study of the site capacities and the type of energy to be used must be carried out. A program is set in order to minimize the cost of a hybrid wind and solar energy installation in different sites. The next step is the optimisation of the energy production of each of these systems individually using a fuzzy logic controller to track the maximum power point. This technique is based on the direct approach, mimicking the Perturb & Observe algorithm and overcoming its limitations, such as oscillation around the MPP.The FLC requires fine tuning to maximise its efficiency, therefore it is combined with different optimisation algorithms to set the membership function and modify the rules. Five approaches were tested: type one fuzzy logic was combined first with genetic algorithm, second with particle swarm optimisation, the third approach applied type two fuzzy logic and then combined it with the same optimisation algorithms as previously used, for the final two approaches. The last part of this work introduces a fuzzy logic based supervisor that is adapted for an isolated remote hybrid PV Wind installation, to obtain an optimal functioning of the system according to the changes in atmospheric conditions and energy demand, taking into account the state of charge of the batteries and energy overflow dissipation. Simulations are run for all of the systems to show their efficiency and effectiveness.
14

L’extraction de phrases en relation de traduction dans Wikipédia

Rebout, Lise 06 1900 (has links)
Afin d'enrichir les données de corpus bilingues parallèles, il peut être judicieux de travailler avec des corpus dits comparables. En effet dans ce type de corpus, même si les documents dans la langue cible ne sont pas l'exacte traduction de ceux dans la langue source, on peut y retrouver des mots ou des phrases en relation de traduction. L'encyclopédie libre Wikipédia constitue un corpus comparable multilingue de plusieurs millions de documents. Notre travail consiste à trouver une méthode générale et endogène permettant d'extraire un maximum de phrases parallèles. Nous travaillons avec le couple de langues français-anglais mais notre méthode, qui n'utilise aucune ressource bilingue extérieure, peut s'appliquer à tout autre couple de langues. Elle se décompose en deux étapes. La première consiste à détecter les paires d’articles qui ont le plus de chance de contenir des traductions. Nous utilisons pour cela un réseau de neurones entraîné sur un petit ensemble de données constitué d'articles alignés au niveau des phrases. La deuxième étape effectue la sélection des paires de phrases grâce à un autre réseau de neurones dont les sorties sont alors réinterprétées par un algorithme d'optimisation combinatoire et une heuristique d'extension. L'ajout des quelques 560~000 paires de phrases extraites de Wikipédia au corpus d'entraînement d'un système de traduction automatique statistique de référence permet d'améliorer la qualité des traductions produites. Nous mettons les données alignées et le corpus extrait à la disposition de la communauté scientifique. / Working with comparable corpora can be useful to enhance bilingual parallel corpora. In fact, in such corpora, even if the documents in the target language are not the exact translation of those in the source language, one can still find translated words or sentences. The free encyclopedia Wikipedia is a multilingual comparable corpus of several millions of documents. Our task is to find a general endogenous method for extracting a maximum of parallel sentences from this source. We are working with the English-French language pair but our method -- which uses no external bilingual resources -- can be applied to any other language pair. It can best be described in two steps. The first one consists of detecting article pairs that are most likely to contain translations. This is achieved through a neural network trained on a small data set composed of sentence aligned articles. The second step is to perform the selection of sentence pairs through another neural network whose outputs are then re-interpreted by a combinatorial optimization algorithm and an extension heuristic. The addition of the 560~000 pairs of sentences extracted from Wikipedia to the training set of a baseline statistical machine translation system improves the quality of the resulting translations. We make both the aligned data and the extracted corpus available to the scientific community.
15

Algorithms and Software for Decision Support in Design of Assembly and Transfer Lines / Algorithmes et logiciels pour aide à la décision dans la conception de lignes d'assemblage et des lignes de transfert

Malyutin, Sergey 24 October 2016 (has links)
Une vue d'ensemble des problèmes et des méthodes pour la conception des lignesd'assemblage et d'usinage est donnée. Un nouveau problème d'affectation de la main-d’œuvrepour une ligne d'assemblage multi-produit cadencée avec un objectif de minimiser lenombre d'opérateurs est étudié. Diverses relations de priorité entre les opérations et lesdifférentes fonctions définissant les temps d'opérations, en fonction du nombre d'opérateurssont considérés. Un nouveau problème d'optimisation multiobjectif pour une ligne d'usinagemono-produit est formulé. Plusieurs méthodes exactes et heuristiques et leursimplémentations informatiques pour les deux problèmes sont développées par l'auteur. Unmodule logiciel d'aide à la décision pour résoudre ces problèmes est développé et implémentédans un environnement d'un nouveau PLM d'IBM dans le cadre du projet européen amePLM.Ce module est testé sur un exemple réel de conception d'une ligne de montage des moteurschez Mercedes Benz en Allemagne. / An overview of existing problems and methods for the design of assembly and transfer lines is given. A new workforce assignment problem for a paced multi-product assembly line with a goal of minimizing the number of workers is studied. Various precedence relations between operations and functions of operation processing times dependent on the number of workers areconsidered. A new problem of multi-objective optimization for a single product transfer line is solved. Several exact and heuristic methods and their computer implementations for both problems are developed by the author. An application of developed approaches to solving a real production problem relevant to the European project amePLM is demonstrated.
16

Analyse de la variabilité de la fonction de transfert d'un bassin versant et développement d'un modèle conceptuel faiblement paramétré, le modèle Storhy : application au bassin du Réal Collobrier

Neyret-Gigot, Jean Marc 09 October 1992 (has links) (PDF)
Celte étude entre dans le cadre de l'approche globale de la relation pluie- débit décomposant les mécanismes de transformation de la pluie en débit en Fonction de Transfert et Fonction de Production. On s'interroge sur l'aptitude des fonctions de transfert de type Hydrogramme Unitaire à bien reproduire les débits. En un premier temps, on cherche pour cela à identifier, sur un bassin méditerranéen du Sud de la France et sur un bassin sahélien, quels sont les facteurs provoquant la variabilité de la Fonction de Transfert. En utilisant une approche corrélative ainsi que la méthode DPFT, on montre que la Fonction de Transfert, surtout dans sa phase décroissante, est sensible aux conditions antérieures et à la pluviométrie de l'épisode; le temps de montée au pic étant un élément relativement stable. En un deuxième temps, on cherche à identifier une Fonction de Transfert débarrassée de la phase décroissante non invariante et on propose un modèle où la Fonction de Production, de type réservoir, explique la phase de récession des hydrogrammes. Grâce à des techniques d'optimisation adaptées et à l'emploi de tests de sensibilité, divers jeux de paramètres sont proposés et utilisés sur différents bassins versants. Les meilleures reconstitutions sont obtenues avec un réservoir à vidange non linéaire dont les caractéristiques sont liées au débit initial et à la pluie, le transfert se réduisant à un simple décalage. Ce modèle conceptuel simple et faiblement paramétré fournit des résultats intéressants et offre la possibilité de développements futurs.
17

L’extraction de phrases en relation de traduction dans Wikipédia

Rebout, Lise 06 1900 (has links)
Afin d'enrichir les données de corpus bilingues parallèles, il peut être judicieux de travailler avec des corpus dits comparables. En effet dans ce type de corpus, même si les documents dans la langue cible ne sont pas l'exacte traduction de ceux dans la langue source, on peut y retrouver des mots ou des phrases en relation de traduction. L'encyclopédie libre Wikipédia constitue un corpus comparable multilingue de plusieurs millions de documents. Notre travail consiste à trouver une méthode générale et endogène permettant d'extraire un maximum de phrases parallèles. Nous travaillons avec le couple de langues français-anglais mais notre méthode, qui n'utilise aucune ressource bilingue extérieure, peut s'appliquer à tout autre couple de langues. Elle se décompose en deux étapes. La première consiste à détecter les paires d’articles qui ont le plus de chance de contenir des traductions. Nous utilisons pour cela un réseau de neurones entraîné sur un petit ensemble de données constitué d'articles alignés au niveau des phrases. La deuxième étape effectue la sélection des paires de phrases grâce à un autre réseau de neurones dont les sorties sont alors réinterprétées par un algorithme d'optimisation combinatoire et une heuristique d'extension. L'ajout des quelques 560~000 paires de phrases extraites de Wikipédia au corpus d'entraînement d'un système de traduction automatique statistique de référence permet d'améliorer la qualité des traductions produites. Nous mettons les données alignées et le corpus extrait à la disposition de la communauté scientifique. / Working with comparable corpora can be useful to enhance bilingual parallel corpora. In fact, in such corpora, even if the documents in the target language are not the exact translation of those in the source language, one can still find translated words or sentences. The free encyclopedia Wikipedia is a multilingual comparable corpus of several millions of documents. Our task is to find a general endogenous method for extracting a maximum of parallel sentences from this source. We are working with the English-French language pair but our method -- which uses no external bilingual resources -- can be applied to any other language pair. It can best be described in two steps. The first one consists of detecting article pairs that are most likely to contain translations. This is achieved through a neural network trained on a small data set composed of sentence aligned articles. The second step is to perform the selection of sentence pairs through another neural network whose outputs are then re-interpreted by a combinatorial optimization algorithm and an extension heuristic. The addition of the 560~000 pairs of sentences extracted from Wikipedia to the training set of a baseline statistical machine translation system improves the quality of the resulting translations. We make both the aligned data and the extracted corpus available to the scientific community.
18

Conception orientée-tâche et optimisation de systèmes de propulsion reconfigurables pour robots sous-marins autonomes / Task-based design and optimization of reconfigurable propulsion systems for autonomous underwater vehicles

Vega, Emanuel Pablo 20 October 2016 (has links)
Dans ce travail, l’optimisation de la propulsion et de la commande des AUV (Autonomous Underwater Vehicles en anglais) est développée. Le modèle hydrodynamique de l’AUV est examiné. Egalement, son système de propulsion est étudié et des modèles pour des solutions de propulsion différentes (fixe et vectorielle) sont développés dans le cadre de la mobilité autonome.Le modèle et l’identification de la technologie de propulsion dite fixe sont basés sur un propulseur disponible commercialement. Le système de propulsion vectoriel est basé sur un prototype de propulseur magneto-couplé reconfigurable (PMCR) développé à l’IRDL-ENIB.Une méthode de commande non linéaire utilisant le modèle hydrodynamique de l’AUV est développée et son adaptation à deux systèmes de propulsion est présentée. Des analyses portant sur la commandabilité du robot et l’application de cette commande à différents systèmes sont proposées. L’optimisation globale est utilisée pour trouver des topologies propulsives et des paramètres de commande adaptés à la réalisation de tâches robotiques spécifiques. L’optimisation réalisée permet de trouver des solutions capables d’assurer le suivi de trajectoire et de minimiser la consommation énergétique du robot. L’optimisation utilise un algorithme génétique (algorithme évolutionnaire), une méthode d’optimisation stochastique appliquée ici à la conception orientée tâche de l’AUV. Les résultats de cette optimisation peuvent être utilisés comme une étape préliminaire dans la conception des AUVs, afin de donner des pistes pour améliorer les capacités de la propulsion.La technique d’optimisation est également appliquée au robot RSM (fabriqué au sein de l’IRDL-ENIB) en modifiant seulement quelques paramètres de sa topologie propulsive. Cela afin d’obtenir des configurations de propulsion adaptées au cours d’une seule et même mission aux spécificités locomotrices des tâches rencontrées : reconfiguration dynamique de la propulsion de l’AUV. / In this PhD thesis, the optimization of the propulsion and control of AUVs is developed. The hydrodynamic model of the AUVs is examined. Additionally, AUV propulsion topologies are studied and models for fixed and vectorial technology are developed. The fixed technology model is based on an off the shelf device, while the modeled vectorial propulsive system is based on a magnetic coupling thruster prototype developed in IRDL (Institut de Recherche Dupuy de Lôme) at ENI Brest. A control method using the hydrodynamic model is studied, its adaptation to two AUV topologies is presented and considerations about its applicability will be discussed. The optimization is used to find suitable propulsive topologies and control parameters in order to execute given robotic tasks, speeding up the convergence and minimizing the energy consumption. This is done using a genetic algorithm, which is a stochastic optimization method used for task-based design.The results of the optimization can be used as a preliminary stage in the design process of an AUV, giving ideas for enhanced propulsive configurations. The optimization technique is also applied to an IRDL existing robot, modifying only some of the propulsive topology parameters in order to readily adapt it to different tasks, making the AUV dynamically reconfigurable.
19

Algorithmes d’estimation et de détection en contexte hétérogène rang faible / Estimation and Detection Algorithms for Low Rank Heterogeneous Context

Breloy, Arnaud 23 November 2015 (has links)
Une des finalités du traitement d’antenne est la détection et la localisation de cibles en milieu bruité. Dans la plupart des cas pratiques, comme par exemple le RADAR ou le SONAR actif, il faut estimer dans un premier temps les propriétés statistiques du bruit, et plus précisément sa matrice de covariance ; on dispose à cette fin de données secondaires supposées identiquement distribuées. Dans ce contexte, les hypothèses suivantes sont généralement formulées : bruit gaussien, données secondaires ne contenant que du bruit, et bien sûr matériels fonctionnant parfaitement. Il est toutefois connu aujourd’hui que le bruit en RADAR est de nature impulsive et que l’hypothèse Gaussienne est parfois mal adaptée. C’est pourquoi, depuis quelques années, le bruit et en particulier le fouillis de sol est modélisé par des processus elliptiques, et principalement des Spherically Invariant Random Vectors (SIRV). Dans ce nouveau cadre, la Sample Covariance Matrix (SCM) estimant classiquement la matrice de covariance du bruit entraîne des pertes de performances très importantes des détecteurs / estimateurs. Dans ce contexte non-gaussien, d’autres estimateurs de la matrice de covariance mieux adaptés à cette statistique du bruit ont été développés : la Matrice du Point Fixe (MPF) et les M-estimateurs.Parallèlement, dans un cadre où le bruit se décompose sous la forme d’une somme d’un fouillis rang faible et d’un bruit blanc, la matrice de covariance totale est structurée sous la forme rang faible plus identité. Cette information peut être utilisée dans le processus d'estimation afin de réduire le nombre de données nécessaires. De plus, il aussi est possible d'utiliser le projecteur orthogonal au sous espace fouillis à la place de la matrice de covariance ce qui nécessite moins de données secondaires et d’être aussi plus robuste aux données aberrantes. On calcule classiquement ce projecteur à partir d'un estimateur de la matrice de covariance. Néanmoins l'état de l'art ne présente pas d'estimateurs à la fois être robustes aux distributions hétérogènes, et rendant compte de la structure rang faible des données. C'est pourquoi ces travaux se focalisent sur le développement de nouveaux estimateurs (de covariance et de sous espace), directement adaptés au contexte considéré. Les contributions de cette thèse s'orientent donc autour de trois axes :- Nous présenterons tout d'abord un modèle statistique précis : celui de sources hétérogènes ayant une covariance rang faible noyées dans un bruit blanc gaussien. Ce modèle et est, par exemple, fortement justifié pour des applications de type radar. Il à cependant peu été étudié pour la problématique d'estimation de matrice de covariance. Nous dériverons donc l'expression du maximum de vraisemblance de la matrice de covariance pour ce contexte. Cette expression n'étant pas une forme close, nous développerons différents algorithmes pour tenter de l'atteindre efficacement.- Nous développons de nouveaux estimateurs directs de projecteur sur le sous espace fouillis, ne nécessitant pas un estimé de la matrice de covariance intermédiaire, adaptés au contexte considéré.- Nous étudierons les performances des estimateurs proposés et de l'état de l'art sur une application de Space Time Adaptative Processing (STAP) pour radar aéroporté, au travers de simulations et de données réelles. / One purpose of array processing is the detection and location of a target in a noisy environment. In most cases (as RADAR or active SONAR), statistical properties of the noise, especially its covariance matrix, have to be estimated using i.i.d. samples. Within this context, several hypotheses are usually made: Gaussian distribution, training data containing only noise, perfect hardware. Nevertheless, it is well known that a Gaussian distribution doesn’t provide a good empirical fit to RADAR clutter data. That’s why noise is now modeled by elliptical process, mainly Spherically Invariant Random Vectors (SIRV). In this new context, the use of the SCM (Sample Covariance Matrix), a classical estimate of the covariance matrix, leads to a loss of performances of detectors/estimators. More efficient estimators have been developed, such as the Fixed Point Estimator and M-estimators.If the noise is modeled as a low-rank clutter plus white Gaussian noise, the total covariance matrix is structured as low rank plus identity. This information can be used in the estimation process to reduce the number of samples required to reach acceptable performance. Moreover, it is possible to estimate the basis vectors of the clutter-plus-noise orthogonal subspace rather than the total covariance matrix of the clutter, which requires less data and is more robust to outliers. The orthogonal projection to the clutter plus noise subspace is usually calculated from an estimatd of the covariance matrix. Nevertheless, the state of art does not provide estimators that are both robust to various distributions and low rank structured.In this Thesis, we therefore develop new estimators that are fitting the considered context, to fill this gap. The contributions are following three axes :- We present a precise statistical model : low rank heterogeneous sources embedded in a white Gaussian noise.We express the maximum likelihood estimator for this context.Since this estimator has no closed form, we develop several algorithms to reach it effitiently.- For the considered context, we develop direct clutter subspace estimators that are not requiring an intermediate Covariance Matrix estimate.- We study the performances of the proposed methods on a Space Time Adaptive Processing for airborne radar application. Tests are performed on both synthetic and real data.
20

Dynamic Programming Approaches for Estimating and Applying Large-scale Discrete Choice Models

Mai, Anh Tien 12 1900 (has links)
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions. / Les gens consacrent une importante part de leur existence à prendre diverses décisions, pouvant affecter leur demande en transport, par exemple les choix de lieux d'habitation et de travail, les modes de transport, les heures de départ, le nombre et type de voitures dans le ménage, les itinéraires ... Les choix liés au transport sont généralement fonction du temps et caractérisés par un grand nombre de solutions alternatives qui peuvent être spatialement corrélées. Cette thèse traite de modèles pouvant être utilisés pour analyser et prédire les choix discrets dans les applications liées aux réseaux de grandes tailles. Les modèles et méthodes proposées sont particulièrement pertinents pour les applications en transport, sans toutefois s'y limiter. Nous modélisons les décisions comme des séquences de choix, dans le cadre des choix discrets dynamiques, aussi connus comme processus de décision de Markov paramétriques. Ces modèles sont réputés difficiles à estimer et à appliquer en prédiction, puisque le calcul des probabilités de choix requiert la résolution de problèmes de programmation dynamique. Nous montrons dans cette thèse qu'il est possible d'exploiter la structure du réseau et la flexibilité de la programmation dynamique afin de rendre l'approche de modélisation dynamique en choix discrets non seulement utile pour représenter les choix dépendant du temps, mais également pour modéliser plus facilement des choix statiques au sein d'ensembles de choix de très grande taille. La thèse se compose de sept articles, présentant divers modèles et méthodes d'estimation, leur application ainsi que des expériences numériques sur des modèles de choix discrets de grande taille. Nous regroupons les contributions en trois principales thématiques: modélisation du choix de route, estimation de modèles en valeur extrême multivariée (MEV) de grande taille et algorithmes d'optimisation non-linéaire. Cinq articles sont associés à la modélisation de choix de route. Nous proposons différents modèles de choix discrets dynamiques permettant aux utilités des chemins d'être corrélées, sur base de formulations MEV et logit mixte. Les modèles résultants devenant coûteux à estimer, nous présentons de nouvelles approches permettant de diminuer les efforts de calcul. Nous proposons par exemple une méthode de décomposition qui non seulement ouvre la possibilité d'estimer efficacement des modèles logit mixte, mais également d'accélérer l'estimation de modèles simples comme les modèles logit multinomiaux, ce qui a également des implications en simulation de trafic. De plus, nous comparons les règles de décision basées sur le principe de maximisation d'utilité de celles sur la minimisation du regret pour ce type de modèles. Nous proposons finalement un test statistique sur les erreurs de spécification pour les modèles de choix de route basés sur le logit multinomial. Le second thème porte sur l'estimation de modèles de choix discrets statiques avec de grands ensembles de choix. Nous établissons que certains types de modèles MEV peuvent être reformulés comme des modèles de choix discrets dynamiques, construits sur des réseaux de structure de corrélation. Ces modèles peuvent alors être estimées rapidement en utilisant des techniques de programmation dynamique en combinaison avec un algorithme efficace d'optimisation non-linéaire. La troisième et dernière thématique concerne les algorithmes d'optimisation non-linéaires dans le cadre de l'estimation de modèles complexes de choix discrets par maximum de vraisemblance. Nous examinons et adaptons des méthodes quasi-Newton structurées qui peuvent être facilement intégrées dans des algorithmes d'optimisation usuels (recherche linéaire et région de confiance) afin d'accélérer le processus d'estimation. Les modèles de choix discrets dynamiques et les méthodes d'optimisation proposés peuvent être employés dans diverses applications de choix discrets. Dans le domaine des sciences de données, des modèles qui peuvent traiter de grands ensembles de choix et des ensembles de choix séquentiels sont importants. Nos recherches peuvent dès lors être d'intérêt dans diverses applications d'analyse de la demande (analyse prédictive) ou peuvent être intégrées à des modèles d'optimisation (analyse prescriptive). De plus, nos études mettent en évidence le potentiel des techniques de programmation dynamique dans ce contexte, y compris pour des modèles statiques, ouvrant la voie à de multiples directions de recherche future.

Page generated in 0.1576 seconds