• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • 1
  • Tagged with
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Méthodologies de réglage automatique temps-réel de lois de pilotage

Ronceray, Lilian 02 June 2009 (has links) (PDF)
Cette thèse s'inscrit dans le cadre du réglage des lois de pilotage d'un avion de transport civil en phase de dévelop-pement. De par la représentativité limitée des modèles utilisés pour leur réglage initial, certaines lois de pilotages requièrent plusieurs itérations en essais en vol avant d'atteindre un niveau de performance satisfaisant. Il s'agit d'un processus long et coûteux que l'industriel cherche à raccourcir autant que possible. En partant du constat que les données issues des essais en vol sont peu utilisées par rapport aux modèles, nous avons élaboré des méthodologies permettant une exploitation utile de ces données à des fins de réglage de lois de commande. L'avion étant un système à paramètres variants, il faut alors tenir compte du fait que ces données ne sont valables que pour une petite région de son domaine de vol. Par conséquent, les modifications apportées sur les lois de commande, interpo-lées à l'aide des paramètres du domaine de vol, devront être répercutées uniquement dans cette petite région. Nous avons envisagé deux cas : celui d'un travail de retouche hors ligne (i.e. effectué en bureau d'études) et celui d'un réglage en ligne (i.e. directement sur l'avion pendant un vol d'essai). Ces deux aspects d'interpolation et de données locales nous ont fait choisir une méthode d'apprentissage locale pour interpoler les lois de commande. Il s'agit d'une forme de réseau de neurones appelée mélange d'experts dont la structure permet de diviser le domaine de vol en plusieurs sous-domaines et d'affecter à chacun d'eux une modélisation locale. Nous avons ensuite élaboré une méthodologie générique permettant de générer les données à interpoler, de définir la structure du mélange d'experts et d'effectuer son apprentis-sage à la fois dans un cadre hors ligne et en ligne. L'aspect génération de données constitue une part importante de la méthodologie. En effet, dans le cadre d'une loi de commande, l'obtention des données amenées à être interpolées n'est pas triviale. Nous proposons alors une méthode de synthèse basée sur l'inversion de données temporelles, pour le cas de lois feedforward. La structuration du mélange d'experts se compose du choix d'une subdivision optimale du domaine de vol, d'une sélection du type de la modélisation locale et de la gestion des pondérations affectées à chacun des modèles locaux. La méthodologie a fait l'objet de deux applications identifiées par Airbus comme reflétant le problème posé. La première concerne l'estimation du dérapage aérodynamique de l'avion et la seconde une loi feedforward de compensation d'aérofreins. Ces exemples montrent comment la méthode a permis de systématiser un processus de réglage fonctionnant jusque là « à tâtons » .
2

A Unified View of Local Learning : Theory and Algorithms for Enhancing Linear Models / Une Vue Unifiée de l'Apprentissage Local : Théorie et Algorithmes pour l'Amélioration de Modèles Linéaires

Zantedeschi, Valentina 18 December 2018 (has links)
Dans le domaine de l'apprentissage machine, les caractéristiques des données varient généralement dans l'espace des entrées : la distribution globale pourrait être multimodale et contenir des non-linéarités. Afin d'obtenir de bonnes performances, l'algorithme d'apprentissage devrait alors être capable de capturer et de s'adapter à ces changements. Même si les modèles linéaires ne parviennent pas à décrire des distributions complexes, ils sont réputés pour leur passage à l'échelle, en entraînement et en test, aux grands ensembles de données en termes de nombre d'exemples et de nombre de fonctionnalités. Plusieurs méthodes ont été proposées pour tirer parti du passage à l'échelle et de la simplicité des hypothèses linéaires afin de construire des modèles aux grandes capacités discriminatoires. Ces méthodes améliorent les modèles linéaires, dans le sens où elles renforcent leur expressivité grâce à différentes techniques. Cette thèse porte sur l'amélioration des approches d'apprentissage locales, une famille de techniques qui infère des modèles en capturant les caractéristiques locales de l'espace dans lequel les observations sont intégrées.L'hypothèse fondatrice de ces techniques est que le modèle appris doit se comporter de manière cohérente sur des exemples qui sont proches, ce qui implique que ses résultats doivent aussi changer de façon continue dans l'espace des entrées. La localité peut être définie sur la base de critères spatiaux (par exemple, la proximité en fonction d'une métrique choisie) ou d'autres relations fournies, telles que l'association à la même catégorie d'exemples ou un attribut commun. On sait que les approches locales d'apprentissage sont efficaces pour capturer des distributions complexes de données, évitant de recourir à la sélection d'un modèle spécifique pour la tâche. Cependant, les techniques de pointe souffrent de trois inconvénients majeurs :ils mémorisent facilement l'ensemble d'entraînement, ce qui se traduit par des performances médiocres sur de nouvelles données ; leurs prédictions manquent de continuité dans des endroits particuliers de l'espace ; elles évoluent mal avec la taille des ensembles des données. Les contributions de cette thèse examinent les problèmes susmentionnés dans deux directions : nous proposons d'introduire des informations secondaires dans la formulation du problème pour renforcer la continuité de la prédiction et atténuer le phénomène de la mémorisation ; nous fournissons une nouvelle représentation de l'ensemble de données qui tient compte de ses spécificités locales et améliore son évolutivité. Des études approfondies sont menées pour mettre en évidence l'efficacité de ces contributions pour confirmer le bien-fondé de leurs intuitions. Nous étudions empiriquement les performances des méthodes proposées tant sur des jeux de données synthétiques que sur des tâches réelles, en termes de précision et de temps d'exécution, et les comparons aux résultats de l'état de l'art. Nous analysons également nos approches d'un point de vue théorique, en étudiant leurs complexités de calcul et de mémoire et en dérivant des bornes de généralisation serrées. / In Machine Learning field, data characteristics usually vary over the space: the overall distribution might be multi-modal and contain non-linearities.In order to achieve good performance, the learning algorithm should then be able to capture and adapt to these changes. Even though linear models fail to describe complex distributions, they are renowned for their scalability, at training and at testing, to datasets big in terms of number of examples and of number of features. Several methods have been proposed to take advantage of the scalability and the simplicity of linear hypotheses to build models with great discriminatory capabilities. These methods empower linear models, in the sense that they enhance their expressive power through different techniques. This dissertation focuses on enhancing local learning approaches, a family of techniques that infers models by capturing the local characteristics of the space in which the observations are embedded. The founding assumption of these techniques is that the learned model should behave consistently on examples that are close, implying that its results should also change smoothly over the space. The locality can be defined on spatial criteria (e.g. closeness according to a selected metric) or other provided relations, such as the association to the same category of examples or a shared attribute. Local learning approaches are known to be effective in capturing complex distributions of the data, avoiding to resort to selecting a model specific for the task. However, state of the art techniques suffer from three major drawbacks: they easily memorize the training set, resulting in poor performance on unseen data; their predictions lack of smoothness in particular locations of the space;they scale poorly with the size of the datasets. The contributions of this dissertation investigate the aforementioned pitfalls in two directions: we propose to introduce side information in the problem formulation to enforce smoothness in prediction and attenuate the memorization phenomenon; we provide a new representation for the dataset which takes into account its local specificities and improves scalability. Thorough studies are conducted to highlight the effectiveness of the said contributions which confirmed the soundness of their intuitions. We empirically study the performance of the proposed methods both on toy and real tasks, in terms of accuracy and execution time, and compare it to state of the art results. We also analyze our approaches from a theoretical standpoint, by studying their computational and memory complexities and by deriving tight generalization bounds.

Page generated in 0.0691 seconds