• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • Tagged with
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Réduction de la dimension en régression

Portier, François 02 July 2013 (has links) (PDF)
Dans cette thèse, nous étudions le problème de réduction de la dimension dans le cadre du modèle de régression suivant Y=g(B X,e), où X est un vecteur de dimension p, Y appartient à R, la fonction g est inconnue et le bruit e est indépendant de X. Nous nous intéressons à l'estimation de la matrice B, de taille dxp où d est plus petit que p, (dont la connaissance permet d'obtenir de bonnes vitesses de convergence pour l'estimation de g). Ce problème est traité en utilisant deux approches distinctes. La première, appelée régression inverse nécessite la condition de linéarité sur X. La seconde, appelée semi-paramétrique ne requiert pas une telle condition mais seulement que X possède une densité lisse. Dans le cadre de la régression inverse, nous étudions deux familles de méthodes respectivement basées sur E[X f(Y)] et E[XX^T f(Y)]. Pour chacune de ces familles, nous obtenons les conditions sur f permettant une estimation exhaustive de B, aussi nous calculons la fonction f optimale par minimisation de la variance asymptotique. Dans le cadre de l'approche semi-paramétrique, nous proposons une méthode permettant l'estimation du gradient de la fonction de régression. Sous des hypothèses semi-paramétriques classiques, nous montrons la normalité asymptotique de notre estimateur et l'exhaustivité de l'estimation de B. Quel que soit l'approche considérée, une question fondamentale est soulevée : comment choisir la dimension de B ? Pour cela, nous proposons une méthode d'estimation du rang d'une matrice par test d'hypothèse bootstrap.
2

Optimisation de forme par gradient en dynamique rapide

Genest, Laurent 19 July 2016 (has links)
Afin de faire face aux nouveaux challenges de l’industrie automobile, les ingénieurs souhaitent appliquer des méthodes d’optimisation à chaque étape du processus de conception. En élargissant l’espace de conception aux paramètres de forme, en augmentant leur nombre et en étendant les plages de variation, de nouveaux verrous sont apparus. C’est le cas de la résistance aux chocs. Avec les temps de calcul long, la non-linéarité, l’instabilité et la dispersion numérique de ce problème de dynamique rapide, la méthode usuellement employée, l’optimisation par plan d’expériences et surfaces de réponse, devient trop coûteuse pour être utilisée industriellement. Se pose alors la problématique suivante : Comment faire de l’optimisation de forme en dynamique rapide avec un nombre élevé de paramètres ?. Pour y répondre, les méthodes d’optimisation par gradient s’avèrent être les plus judicieuses. Le nombre de paramètres a une influence réduite sur le coût de l’optimisation. Elles permettent donc l’optimisation de problèmes ayant de nombreux paramètres. Cependant, les méthodes classiques de calcul du gradient sont peu pertinentes en dynamique rapide : le coût en nombre de simulations et le bruit empêchent l’utilisation des différences finies et le calcul du gradient en dérivant les équations de dynamique rapide n’est pas encore disponible et serait très intrusif vis-à-vis des logiciels. Au lieu de déterminer le gradient, au sens classique du terme, des problèmes de crash, nous avons cherché à l’estimer. L’Equivalent Static Loads Method est une méthode permettant l’optimisation à moindre coût basée sur la construction d’un problème statique linéaire équivalent au problème de dynamique rapide. En utilisant la dérivée du problème équivalent comme estimation du gradient, il nous a été possible d’optimiser des problèmes de dynamique rapide ayant des épaisseurs comme variables d’optimisation. De plus, si l’on construit les équations du problème équivalent avec la matrice de rigidité sécante, l’approximation du gradient n’en est que meilleure. De cette manière, il est aussi possible d’estimer le gradient par rapport à la position des nœuds du modèle de calcul. Comme il est plus courant de travailler avec des paramètres CAO, il faut déterminer la dérivée de la position des nœuds par rapport à ces paramètres. Nous pouvons le faire de manière analytique si nous utilisons une surface paramétrique pour définir la forme et ses points de contrôle comme variables d’optimisation. Grâce à l’estimation du gradient et à ce lien entre nœuds et paramètres de forme, l’optimisation de forme avec un nombre important de paramètres est désormais possible à moindre coût. La méthode a été développée pour deux familles de critères issues du crash automobile. La première est liée au déplacement d’un nœud, objectif important lorsqu’il faut préserver l’intégrité de l’habitacle du véhicule. La seconde est liée à l’énergie de déformation. Elle permet d’assurer un bon comportement de la structure lors du choc. / In order to face their new industrial challenges, automotive constructors wish to apply optimization methods in every step of the design process. By including shape parameters in the design space, increasing their number and their variation range, new problematics appeared. It is the case of crashworthiness. With the high computational time, the nonlinearity, the instability and the numerical dispersion of this rapid dynamics problem, metamodeling techniques become to heavy for the standardization of those optimization methods. We face this problematic: ”How can we carry out shape optimization in rapid dynamics with a high number of parameters ?”. Gradient methods are the most likely to solve this problematic. Because the number of parameters has a reduced effect on the optimization cost, they allow optimization with a high number of parameters. However, conventional methods used to calculate gradients are ineffective: the computation cost and the numerical noise prevent the use of finite differences and the calculation of a gradient by deriving the rapid dynamics equations is not currently available and would be really intrusive towards the software. Instead of determining the real gradient, we decided to estimate it. The Equivalent Static Loads Method is an optimization method based on the construction of a linear static problem equivalent to the rapid dynamic problem. By using the sensitivity of the equivalent problem as the estimated gradient, we have optimized rapid dynamic problems with thickness parameters. It is also possible to approximate the derivative with respect to the position of the nodes of the CAE model. But it is more common to use CAD parameters in shape optimization studies. So it is needed to have the sensitivity of the nodes position with these CAD parameters. It is possible to obtain it analytically by using parametric surface for the shape and its poles as parameters. With this link between nodes and CAD parameters, we can do shape optimization studies with a large number of parameters and this with a low optimization cost. The method has been developed for two kinds of crashworthiness objective functions. The first family of criterions is linked to a nodal displacement. This category contains objectives like the minimization of the intrusion inside the passenger compartment. The second one is linked to the absorbed energy. It is used to ensure a good behavior of the structure during the crash.
3

Réduction de la dimension en régression / Dimension reduction in regression

Portier, François 02 July 2013 (has links)
Dans cette thèse, nous étudions le problème de réduction de la dimension dans le cadre du modèle de régression suivant Y=g(B X,e), où X est un vecteur de dimension p, Y appartient à R, la fonction g est inconnue et le bruit e est indépendant de X. Nous nous intéressons à l'estimation de la matrice B, de taille dxp où d est plus petit que p, (dont la connaissance permet d'obtenir de bonnes vitesses de convergence pour l'estimation de g). Ce problème est traité en utilisant deux approches distinctes. La première, appelée régression inverse nécessite la condition de linéarité sur X. La seconde, appelée semi-paramétrique ne requiert pas une telle condition mais seulement que X possède une densité lisse. Dans le cadre de la régression inverse, nous étudions deux familles de méthodes respectivement basées sur E[X f(Y)] et E[XX^T f(Y)]. Pour chacune de ces familles, nous obtenons les conditions sur f permettant une estimation exhaustive de B, aussi nous calculons la fonction f optimale par minimisation de la variance asymptotique. Dans le cadre de l'approche semi-paramétrique, nous proposons une méthode permettant l'estimation du gradient de la fonction de régression. Sous des hypothèses semi-paramétriques classiques, nous montrons la normalité asymptotique de notre estimateur et l'exhaustivité de l'estimation de B. Quel que soit l'approche considérée, une question fondamentale est soulevée : comment choisir la dimension de B ? Pour cela, nous proposons une méthode d'estimation du rang d'une matrice par test d'hypothèse bootstrap. / In this thesis, we study the problem of dimension reduction through the following regression model Y=g(BX,e), where X is a p dimensional vector, Y belongs to R, the function g is unknown and the noise e is independent of X. We are interested in the estimation of the matrix B, with dimension d times p where d is smaller than p (whose knowledge provides good convergence rates for the estimation of g). This problem is processed according to two different approaches. The first one, called the inverse regression, needs the linearity condition on X. The second one, called semiparametric, do not require such an assumption but only that X has a smooth density. In the context of inverse regression, we focus on two families of methods respectively based on E[X f(Y)] and E[XX^T f(Y)]. For both families, we provide conditions on f that allow an exhaustive estimation of B, and also we compute the better function f by minimizing the asymptotic variance. In the semiparametric context, we give a method for the estimation of the gradient of the regression function. Under some classical semiparametric assumptions, we show the root n consistency of our estimator, the exhaustivity of the estimation and the convergence in the processes space. Within each point, an important question is raised : how to choose the dimension of B ? For this we propose a method that estimates of the rank of a matrix by bootstrap hypothesis testing.

Page generated in 0.1628 seconds