• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 19
  • 12
  • Tagged with
  • 81
  • 81
  • 37
  • 32
  • 22
  • 17
  • 14
  • 13
  • 13
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Quelques considérations sur le filtre de Kalman discret

Belattar, Hichem January 2017 (has links)
Le filtre de Kalman est un outil mathématique qui a pour principe d'estimer l'état d'un système dynamique à partir d'observations partielles et généralement bruitées. Il prend en entrée une suite d'observations telle que chaque observation soit reliée à un état inconnu précis de façon linéaire. Le but sera d'estimer ces états de manière optimale et récursive. Nous allons étudier dans ce mémoire la théorie du filtre de Kalman avec plusieurs types de bruits (gaussien, exponentiels, khi-deux). Nous développerons un nouveau type d'initialisation basé sur la théorie des moindres carrés. Enfin nous tenterons d'adapter le filtre de Kalman au cas où les moyennes des bruits du système dynamique sont inconnues.
2

Etude des propriétés asymptotiques des estimateurs des moindres carrés pour des problèmes de régression à phases multiples

Benzekri, Samira 06 June 1989 (has links) (PDF)
Dans le contexte des modèles de régression non linéaire on étudie le cas ou la fonction de régression a estimer n'appartient pas au modèle paramétrique utilisé. Elle est supposée régulière ou bien présentant une rupture. L'étude utilise l'estincteur des moindres carres et dégage les propriétés asymptotiques de cet estimateur, en vue de l'adéquation du modèle et de la comparaison de deux modèles
3

Formation d'image : estimation du champ lumineux et matrice de filtres couleurs

Couillaud, Julien January 2012 (has links)
Dans ce mémoire de maîtrise de type recherche, nous discutons essentiellement de la formation d’image. Dans un premier chapitre, nous décrivons les modèles classiques de formation d'image. Nous commençons par une description de la lumière voyageant dans la scène pour arriver à l'image formée sur le capteur. Ensuite, nous critiquons ces modèles sur le fait que le capteur entraine une perte d’informations sur la structure de la scène. De plus, pour un point donné du plan image, tous les rayons provenant de la scène ne sont pas pris en compte pour la formation d'une image. Nous essayons alors de combler ces défauts en introduisant la notion de champ lumineux dans le deuxième chapitre. Nous décrivons le modèle des champs lumineux d'une scène. Ce dernier permet alors d'estimer le champ lumineux à partir d'une image à l'aide de deux méthodes : la méthode des moindres carrés et une méthode variationnelle. Celles-ci sont présentées dans le troisième chapitre. Enfin, dans un quatrième chapitre, nous abordons un autre aspect de la formation d'image. En effet, nous travaillons sur une nouvelle matrice de filtres couleurs (color filter arrays, CFA) que nous nommons CFA de Burtoni. Dans ce chapitre, nous comparons, selon une mesure d'aliasing et de résolution, ce CFA avec d'autres CFAs existant dans la littérature, sans faire appel au démosaïquage. Afin d'effectuer ces comparaisons, nous introduisons également des classes d'images correspondantes à différents contenus comme les textures, les zoneshomogènes et les lignes.
4

Contrôle de l'épaisseur de gelée dans les réacteurs métallurgiques à haute température à l'aide d'un capteur virtuel

Lebreux, Marc January 2011 (has links)
Au Québec, les producteurs d'aluminium consomment 12% de la puissance totale installée d'Hydro-Québec. Dans un contexte où le prix de l'énergie est en constante progression, les alumineries font donc face à des défis énergétiques de taille ; de plus, la production d'émissions de gaz à effet de serre étant directement reliée à la consommation d'énergie, des défis environnementaux importants s'annoncent pour le futur. Pour répondre à ces défis, une des avenues envisagées concerne la couche de gelée qui est présente dans chacune des cuves d'électrolyse d'aluminium. La couche de gelée a une importance capitale dans le procédé de fabrication d'aluminium, car elle sert de barrière protectrice aux parois réfractaires contre le bain électrolytique très corrosif à haute température. Elle permet également de minimiser les courants horizontaux à l'intérieur de la cuve, ce qui assure sa stabilité magnéto-hydrodynamique et permet d'optimiser l'efficacité de courant du procédé. La méthode traditionnelle pour mesurer le profil de gelée dans une cuve se fait manuellement à l'aide d'une sonde mécanique, mais cette opération nécessite beaucoup de temps ainsi que du personnel qualifié. De plus, ces mesures sont réalisées à une faible fréquence, et nécessitent l'ouverture du capot, ce qui libère beaucoup de chaleur et d'émissions chimiques dans l'atmosphère. Pour pallier aux désavantages de la méthode traditionnelle, ce travail présente le développement d'une méthode inverse (capteur virtuel) qui permet d'estimer en continu, et de manière non-instrusive [i.e. non-intrusive], l'épaisseur de gelée à partir de mesures thermiques (température et/ou flux de chaleur) provenant de capteurs situés dans les parois latérales de la cuve d'électrolyse. Le capteur virtuel est composé d'un filtre de Kalman et d'un estimateur récursif aux moindres-carrés, et il est combiné à une procédure d'identification du procédé en modèles d'état. Cette approche est appliquée pour la première fois dans la résolution d'un problème inverse avec changement de phase et en utilisant des capteurs de flux de chaleur. Parce que pour les alumineries, l'intérêt et le réel défi consistent plutôt à contrôler l'épaisseur de gelée, le capteur virtuel est ensuite combiné à un algorithme de contrôle qui régule le système de refroidissement des parois latérales de la cuve d'électrolyse. Ceci permet alors de contrôler à sa guise l'épaisseur de gelée malgré les perturbations thermiques inhérentes au procédé. La stratégie de contrôle retenue consiste en un contrôleur classique proportionnel-intégral-dérivatif, largement utilisé en industrie. Le capteur virtuel et l'algorithme de contrôle sont ensuite validés pour des conditions d'opérations typiques présentes dans les réacteurs métallurgiques à haute température. Les résultats montrent que la différence entre l'épaisseur réelle de gelée et celle prédite avec le capteur virtuel demeure dans tous les cas inférieure à 5%, tandis que la stratégie de contrôle demeure stable pour chacune des conditions d'opération, assure une erreur nulle en régime permanent ainsi qu'aucun dépassement de consigne, et procure une erreur maximale de 1 x 10[indice supérieur -3] m sur le suivi de la consigne de l'épaisseur de gelée. Pour répondre simultanément à la problématique d'estimation et de contrôle de l'épaisseur de gelée, le présent travail nécessite donc la combinaison de plusieurs domaines traditionnellement séparés (modélisation, transfert de chaleur, identification, méthodes inverses, contrôle) et cette procédure est appliquée pour la première fois dans le procédé d'électrolyse d'aluminium.
5

Modélisation de séries chronologiques non linéaires et modèles ARMA faibles

Salmi, Zahia January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
6

Une nouvelle classe de modèles auto-régressifs à valeurs entières

Kachour, Maher 09 December 2009 (has links) (PDF)
Dans certaines situations il devient nécessaire de traiter les séries chronologiques à valeurs entières. Au premier regard, l'analyse de telle série peut présenter quelques difficultés, notamment si l'analyse est basée sur quelques modèles stochastiques. Ces modèles doivent refléter la particularité entière de la série observée. De nombreuses tentatives ont été faites pour définir des modèles qui peuvent être utilisés pour décrire les séries chronologiques à valeurs entières. La plupart des modèles proposés sont basés sur l'opérateur d'amincissement et possèdent les mêmes propriétés que les modèles à valeurs réelles bien-connus dans la littérature. L'objectif de cette thèse est d'étudier les modèles auto-régressifs à valeurs entières. Nous introduisons une nouvelle classe de modèles basés sur l'opérateur d'arrondi. Par rapport aux modèles existants, la nouvelle classe a plusieurs avantages: structure d'innovation simple, coefficients de régression avec des signes arbitraires, valeurs négatives possibles pour la série chronologiques et pour la fonction d'auto-corrélation. Nous étudions la stationnarité des modèles et la consistance forte de l'estimateur des moindres carrés proposé pour estimer les paramètres. Nous analysons quelques séries chronologiques à valeurs entières bien-connues avec les modèles introduits.
7

Modélisation longue mémoire multivariée : applications aux problématiques du producteur d'EDF dans le cadre de la libéralisation du marché européen de l'électricité

Diongue, Abdou Ka 03 October 2005 (has links) (PDF)
Plusieurs données de marchés financiers, telles que les prix spot de marchés européens de l'électricité interconnectés, présentent de la longue mémoire, au sens de la décroissance hyperbolique des autocorrélations combinée avec un phénomène d'hétéroskédasticité et de cycles périodiques ou non. Pour modéliser de tels comportements, nous introduisons d'une part les processus GIGARCH à k facteurs et nous proposons deux méthodes d'estimation des paramètres. Nous développons les propriétés asymptotiques des estimateurs de chacune des méthodes. De plus, afin de comparer les propriétés asymptotiques des estimateurs, des simulations de Monté Carlo sont effectuées. D'autre part, nous proposons un modèle longue mémoire généralisé multivarié (MVGARMA à k facteurs) pour modéliser conjointement deux marchés européens de l'électricité interconnectés. Nous donnons une procédure pratique d'estimation des paramètres. Pour la prévision, nous fournissons les expressions analytiques des prédicteurs de moindres carrés pour les modèles proposés et les intervalles de confiance des erreurs de prévision. Enfin, nous appliquons ces deux modèles sur les prix spot de l'électricité des marchés français et allemand et nous comparons leurs capacités prédictives.
8

Estimation non-paramétrique d'une densité k-monotone: Une nouvelle théorie de distribution asymptotique.

Balabdaoui, Fadoua 26 April 2004 (has links) (PDF)
Nous considérons l'estimation non-paramétrique d'une densité k-monotone définie sur (0,∞), pour un entier k > 0 donné, via les méthodes de maximum de vraisemblance et des moindres carrés qu'on note respectivement par MLE et LSE.<br /><br />Dans l'introduction, nous présentons tout d'abord la motivation principale derrière ce problème et nous faisons l'effort d'inclure dans le cadre général de notre travail les résultats asymptotiques qui étaient déjà établis pour les cas spéciaux k=1 et k=2.<br /> <br />Ensuite, nous nous penchons sur l'étude des propriétés des MLE et LSE d'une densité k-monotone g_0 dans le cas où on dispose de n observations indépendantes générées de g_0. Notre étude asymptotique est locale, c'est-à-dire que nous nous intéressons uniquement aux propriétés asymptotiques des estimateurs et de leur dérivées à un point fixe, x_0. Sous certaines hypothèses que nous précisons, nous établissons d'abord les bornes inférieures minimax pour l'estimation des dérivées g^{(j)}_0(x_0), j=0,...,k-1. Les bornes obtenues indiquent que n^{-(k-j)/(2k+1)} est la vitesse de convergence optimale de n'importe quel estimateur non-paramétrique de g^{(j)}_0(x_0). Sous les mêmes hypothèses et si une certaine conjecture est vraie, nous démontrons que cette vitesse optimale est atteinte dans le cas des MLE et LSE.<br /><br />Pour compléter la théorie asymptotique des estimateurs et de leur dérivées au point x_0, nous passons à la dérivation de leurs distributions limites lorsque la taille de l'échantillon n tend vers l'infini. Il s'avère que ces distributions dépendent d'un processus stochastique bien particulier défini sur l'ensemble des réels R. On note ce processus par H_k Le 3ème chapitre est consacré essentiellement à l'existence et à l'unicité de H_k, ainsi qu'à sa caractérisation. Nous démontrons que si Y_k est la primitive (k-1)-ème d'un mouvement Brownien + k!/(2k)! t^{2k}, alors H_k reste au-dessus (au-dessous) de Y_k lorsque k est pair (impair). Un simple changement de variable suffit pour reconnaître que nos résultats comprennent les cas spéciaux k=1 et k=2 où le problème se réduit à l'estimation d'une densité décroissante et d'une densité décroissante et convexe respectivement. Pour ces cas-là, la théorie asymptotique des MLE et LES a été déjà établie.<br /><br />L'aspect algorithmique fait l'objet du 4ème chapitre. Les algorithmes de Splines itératifs (Iterative Spline algorithms) sont développés et implémentés afin de calculer les estimateurs et aussi pour obtenir une approximation du processus limite sur n'importe quel compact dans R. Ces algorithmes exploitent essentiellement la structure 'splineuse' des MLE, LSE et H_k, et se basent ainsi sur la suppression et l'addition itératives des noeuds de certains Splines aléatoires.
9

Méthode numérique d'estimation du mouvement des masses molles / Numerical method for soft tissue motion assessment

Thouzé, Arsène 18 December 2013 (has links)
Le mouvement des masses molles est à la fois une source d'erreur en analyse cinématique et une source d'information en analyse de la dynamique articulaire. Leur effet sur la cinématique peut être numériquement minimisé et leur dynamique estimée seulement par la simulation car aucune méthode numérique ne permet de distinguer la cinématique des masses molles de celle de l'os. Le travail présenté dans ce mémoire propose de développer une méthode numérique pour distinguer ces deux cinématiques. Une méthode d'optimisation locale a d'abord été utilisée pour évaluer le mouvement des masses molles et comparée à l'os pour valider celle-ci. Les résultats ont montré une inadaptation de la méthode locale à évaluer quantitativement et analyser le mouvement des masses molles. L'incapacité de cette méthode vient du fait qu'elle ne prend pas en compte l'ensemble des composantes du mouvement des masses molles. Un modèle numérique du membre inférieur a été développé dans la seconde étude pour considérer l'ensemble de ces composantes. Ce modèle assure le calcul de la cinématique articulaire du membre inférieur et estime un plus grand mouvement des masses molles à partir du déplacement total des marqueurs. Ce déplacement de marqueur est plus le fait d'une composante à l'unisson que d'une composante propre du mouvement des masses molles. Cette composante à l'unisson induit un mouvement commun des marqueurs par rapport à l'os. Ce mouvement commun permet ainsi de déduire la cinématique des masses molles autour des axes anatomiques des os modélisés. Cette méthode numérique permet ainsi de distinguer la cinématique de l'os de celle des masses molles offre une perspective d'étudier leur dynamique. / The movement of wobbling mass is the major source of error in kinematic analysis and a source of information in joint kinetic analysis. The effect on joint kinematic can numerically be minimized and their kinetic estimated using numerical model because there is no numerical method able to distinguish the wobbling masses kinematic from bones kinematic. The work presented in this thesis aims to develop a numerical method to distinguish those two kinematics. Firstly, a local optimisation method was used to assess the movement of wobbling mass and was compared to the bone in order to validate this numerical method. Results show maladjustment of the local method to assess quantitavely and analyze the movement of wobbling mass. The inability of this method is caused by the fact it cannot take in account all component of the movement of wobbling mass. A numerical model has been developing in the second part in order to consider all these components. This model insure similar joint kinematics, provides a bigger estimate of the movement of wobbling mass from marker displacements. This marker displacements is more induced by an unison component rather a own component of the movement of wobbling mass. The in unison component induce a common displacement of markers relative to the bones. This common movement allows to infer the kinematic of the wobbling mass in regard to anatomical axes of the modelled bones” This numerical method allows to distinguish the kinematic of bones and the kinematic of wobbling mass, and offers a perspective to investigate their kinetic.
10

Calcul de fonctions de forme de haut degré par une technique de perturbation / Calculation of high degree shape functions by a perturbation technique

Zézé, Djédjé Sylvain 29 September 2009 (has links)
La plupart des problèmes de la physique et de la mécanique conduisent à des équations aux dérivées partielles. Les nombreuses méthodes qui existent déjà sont de degré relativement bas. Dans cette thèse, nous proposons une méthode de très haut degré. Notre idée est d'augmenter l'ordre des fonctions d'interpolation via une technique de perturbation afin d'éviter ou de réduire les difficultés engendrées par les opérations très coûteuses comme les intégrations. En dimension 1, la technique proposée est proche de la P-version des éléments finis. Au niveau élémentaire, on approxime la solution par une série entière d'ordre p. Dans le cas d'une équation linéaire d'ordre 2, cette résolution locale permet de construire un élément de degré élevé, avec deux degrés de liberté par élément. Pour les problèmes nonlinéaires, une linéarisation du problème par la méthode de Newton s'impose. Des tests portant sur des équations linéaires et nonlinéaires ont permis de valider la méthode et de montrer que la technique a une convergence similaire à la p-version des éléments finis. En dimension 2, le problème se discrétise grâce à une réorganisation des polynômes en polynômes homogènes de degré k. Après une définition de variables dites principales et secondaires associé à un balayage vertical du domaine, le problème devient une suite de problème 1D. Une technique de collocation permet de prendre en compte les conditions aux limites et les conditions de raccord et de déterminer la solution du problème. La collocation couplée avec la technique des moindres carrés a permis de d'améliorer les premiers résultats et a ainsi rendu plus robuste la technique de perturbation / Most problems of physics and mechanics lead to partial differential equations. The many methods that exist are relatively low degree. In this thesis, we propose a method of very high degree. Our idea is to increase the order of interpolation function via a perturbation technique to avoid or reduce the difficulties caused by the high cost operations such as integrations. In dimension 1, the proposed technique is close to the P-version finite elements. At a basic level, approximates the solution by a power series of order p. In the case of a linear equation of order 2, the local resolution can build an element of degree, with two degrees of freedom per element. For nonlinear problems, a linearization of the problem by Newton's method is needed. Tests involving linear and nonlinear equations were used to validate the method and show that the technique has a similar convergence in the p-version finite elements. In dimension 2, the problem is discretized through reorganizing polynomials in homogeneous polynomials of degree k. After a definition of variables called principal and secondary combined with a vertical scanning field, the problem becomes a series of 1D problem. A collocation technique allows to take into account the boundary conditions and coupling conditions and determine the solution of the problem. The collocation technique coupled with the least-squares enabled to improve the initial results and has made more robust the perturbation technique

Page generated in 0.0708 seconds