• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 16
  • 13
  • 5
  • 4
  • 4
  • 1
  • 1
  • Tagged with
  • 77
  • 77
  • 13
  • 13
  • 12
  • 11
  • 10
  • 10
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Modélisation mathématique et résolution automatique de conflits par algorithmes génétiques et par optimisation locale continue

Peyronne, Clément 12 December 2012 (has links) (PDF)
La gestion du trafic aérien est un système complexe. Actuellement en pleine mutation, une des problématiques essentielles à l'évolution du système est la recherche de méthodes automatiques de résolution de conflits. Nous présentons d'abord un nouveau modèle de trajectoire courbe basé sur les B-splines et permettant de définir une trajectoire à l'aide d'un nombre très limité de paramètres. À partir de cette modélisation, nous arrêtons une nouvelle formulation du problème de résolution de conflits pour obtenir un problème d'optimisation continue. Celle-ci repose sur une formulation dite semi-infinie de la contrainte de séparation entre deux avions. La manière dont nous avons défini la fonction-objectif et les fonctions contraintes nous permettent également d'en calculer les gradients. Nous utilisons trois différentes méthodes d'optimisation pour résoudre notre problème. Une méthode globale stochastique est d'abord testée : les algorithmes génétiques, couramment utilisés pour le problème de résolution de conflits. Deux méthodes d'optimisation locale sont aussi mises en œuvre, une méthode de points intérieurs et une méthode d'optimisation sans dérivées. Enfin, nous présentons des résultats numériques prometteurs montrant la fiabilité de l'optimisation locale pour le problème de résolution de conflits. Notre méthodologie, alliant une modèle de trajectoire courbe parcimonieux et une méthode d'optimisation locale appliquée à notre formulation mathématique du problème, est une option crédible pour le problème de résolution de conflits aériens.
62

Estudo genético quantitativo do fluxo lácteo em bovinos da raça Holandesa

Laureano, Monyka Marianna Massolini [UNESP] 24 November 2008 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:32:15Z (GMT). No. of bitstreams: 0 Previous issue date: 2008-11-24Bitstream added on 2014-06-13T19:42:44Z : No. of bitstreams: 1 laureano_mmm_dr_jabo.pdf: 1370732 bytes, checksum: 917b233b8c336006b0fff4eae272a7b4 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Parâmetros genéticos para o fluxo lácteo medido no dia do controle (FLDC) de primeiras lactações de vacas da raça Holandesa foram estimados utilizando modelos de dimensão finita (TDM) e modelos de regressão aleatória. Para os TDM foram analisadas 10 características por meio de modelos uni e bi e multi-características e de repetibilidade, que continham como aleatórios, o efeito genético aditivo e o efeito residual e, como efeitos fixos, o grupo de contemporâneos e as covariáveis idade da vaca ao parto. A variável número de dias em lactação foi incluída somente no modelo de repetibilidade. Para os MRA, foram considerados os efeitos aleatórios genético aditivo direto, de ambiente permanente e o residual. Foram considerados como efeitos fixos, o grupo de contemporâneos, os efeitos linear e quadrático da covariável idade da vaca ao parto e a curva média de lactação da população, modelada por meio de polinômios ortogonais de Legendre de quarta ordem. Os efeitos aleatórios genético aditivo e de ambiente permanente foram modelados por meio de regressão aleatória sobre polinômios ortogonais de Legendre e por meio de funções b-splines. Diferentes estruturas de variâncias residuais foram testadas, por meio de classes contendo 1, 7, 10, 20 e 43 variâncias residuais, para os MRA modelados por meio de polinômios de Legendre. Já, para os MRA modelados por funções b-splines, a estrutura residual foi considerada heterogênea, contendo 7 classes de variâncias. Os MRA foram comparados usando o teste de razão de verossimilhança, o critério de informação de Akaike e o critério de informação de Bayesiano de Schwarz. As estimativas de herdabilidade (h2) para os FLDC variaram de 0,23 a 0,32 nas análises unicaracterísticas, de 0,24 a 0,32 nas bi-características e de 0,28 a 0,37 nas multicaracterísticas. Os valores de h2 estimados variaram no decorrer da... / Flow milk genetic parameters to the first lactation test-day milk yields of Holstein cattle were estimated using Test-day models (TDM) and Random regression models (RRM). Ten TDM differents traits were analyzed using uni, bi and multi-trait and repeatability animal models, that included the additive genetic as random effect and the fixed effects of contemporary group, age of cow (linear and quadratic) as covariables. The days in milk (linear) variable was included only at repeatability model. To RRM were included the additive genetic, permanent environmental and residual as random effects, the fixed effects of contemporary group, age of cow as covariable (linear and quadratic effects) and a 4th-order Legendre orthogonal polynomials of days in milk, to model the mean trend. The additive genetic and permanent environmental effects were fitted by Legendre orthogonal polynomials and b-splines functions. Different structures of residual variances were used, through the variances classes containing 1, 7, 10, 20, and e 43 residual variances, to the models fitted by Legendre orthogonal polynomials. Moreover, for the RRM fitted by b-splines-functions, the residual estructure was considered heterogeneous, having 7 variance classes. The RRM were compared by Likelihood ratio test, Bayesian and Akaike´s information criteria. The heritability estimated ranged from 0.23 to 0.32 by uni-trait analyses, from 0.24 to 0.32 by bi-traits analyses and from 0.28 to 0.37 by multi-trait analyses. The h2 estimates varied during the lactation being the highest estimate at the fourth month. The estimate obtained by the repeatability model was 0.27, and a repeatability estimate of 0.66. For the MRA fitted by Legendre orthogonal polynomials, related to the residual variance, the best model the one that deemed 7 residual classes. For the additive and permanent environmental effects, the having 3th-order... (Complete abstract click electronic access below)
63

Metody konstrukce výnosové křivky státních dluhopisů na českém dluhopisovém trhu / Methods for construction of zero-coupon yield curve from the Czech coupon bond market

Hladíková, Hana January 2008 (has links)
The zero coupon yield curve is one of the most fundamental tools in finance and is essential in the pricing of various fixed-income securities. Zero coupon rates are not observable in the market for a range of maturities. Therefore, an estimation methodology is required to derive the zero coupon yield curves from observable data. If we deal with approximations of empirical data to create yield curves it is necessary to choose suitable mathematical functions. We discuss the following methods: the methods based on cubic spline functions, methods employing linear combination of the Fourier or exponential basis functions and the parametric model of Nelson and Siegel. The current mathematical apparatus employed for this kind of approximation is outlined. In order to find parameters of the models we employ the least squares minimization of computed and observed prices. The theoretical background is applied to an estimation of the zero-coupon yield curves derived from the Czech coupon bond market. Application of proper smoothing functions and weights of bonds is crucial if we want to select a method which performs best according to given criteria. The best performance is obtained for Bspline models with smoothing.
64

Application des méthodes de partitionnement de données fonctionnelles aux trajectoires de voiture

Paul, Alexandre 08 1900 (has links)
La classification et le regroupement des données fonctionnelles longitudinales ont fait beaucoup de progrès dans les dernières années. Plusieurs méthodes ont été proposées et ont démontré des résultats prometteurs. Pour ce mémoire, on a comparé le comportement des algorithmes de partitionnement sur un ensemble de données décrivant les trajectoires de voitures dans une intersection de Montréal. La motivation est qu’il est coûteux et long de faire la classification manuellement et on démontre dans cet ouvrage qu’il est possible d’obtenir des prédictions adéquates avec les différents algorithmes. Parmi les méthodes utilisées, la méthode distclust utilise l’approche des K-moyennes avec une notion de distance entre les courbes fonctionnelles. On utilise aussi une classification par mélange de densité gaussienne, mclust. Ces deux approches n’étant pas conçues uniquement pour le problème de classification fonctionnelle, on a donc également appliqué des méthodes fonctionnelles spécifiques au problème : fitfclust, funmbclust, funclust et funHDDC. On démontre que les résultats du partitionnement et de la prédiction obtenus par ces approches sont comparables à ceux obtenus par ceux basés sur la distance. Les méthodes fonctionnelles sont préférables, car elles permettent d’utiliser des critères de sélection objectifs comme le AIC et le BIC. On peut donc éviter d’utiliser une partition préétablie pour valider la qualité des algorithmes, et ainsi laisser les données parler d’elles-mêmes. Finalement, on obtient des estimations détaillées de la structure fonctionnelle des courbes, comme sur l’impact de la réduction de données avec une analyse en composantes principales fonctionnelles multivariées. / The study of the clustering of functional data has made a lot of progress in the last couple of years. Multiple methods have been proposed and the respective analysis has shown their eÿciency with some benchmark studies. The objective of this Master’s thesis is to compare those clustering algorithms with datasets from traÿc at an intersection of Montreal. The idea behind this is that the manual classification of these data sets is time-consuming. We show that it is possible to obtain adequate clustering and prediction results with several algorithms. One of the methods that we discussed is distclust : a distance-based algorithm that uses a K-means approach. We will also use a Gaussian mixture density clustering method known as mclust. Although those two techniques are quite e˙ective, they are multi-purpose clustering methods, therefore not tailored to the functional case. With that in mind, we apply four functional clustering methods : fitfclust, funmbclust, funclust, and funHDDC. Our results show that there is no loss in the quality of the clustering between the afore-mentioned functional methods and the multi-purpose ones. We prefer to use the functional ones because they provide a detailed estimation of the functional structure of the trajectory curves. One notable detail is the impact of a dimension reduction done with multivari-ate functional principal components analysis. Furthermore, we can use objective selection criteria such as the AIC and the BIC, and avoid using cluster quality indices that use a pre-existing classification of the data.
65

Modul pro generování "atomů" pro přeparametrizovanou reprezentaci signálu / Software module generating "atoms" for purposes of overcomplete signal representation

Špiřík, Jan January 2010 (has links)
The aim of this master thesis is generating new "atoms'' for purposes of overcomplete signal representation for toolbox Frames in MATLAB. At first is described the principle of overcomplete systems and so-called frames. In the thesis is introduced the basic distribution of frames and conditions of their constructions. There is described the basic principle of finding the sparse solutions in overcomplete systems too. The main part is dealt with construction single functions for generating "atoms'', such as: Gabor function, B-splines, Bézier curves, Daubechies wavelets, etc. At last there is introduced an example of usage these functions for reconstruction signal in comparison with Fourier and wavelet transforms.
66

Reducing Curvature in Complex Tool Paths by Deviating from CAM-Produced Tool Paths Within a Tolerance Band

Naseath, George Benjamin 12 December 2007 (has links) (PDF)
This thesis develops an algorithm to decrease high-curvature sections in tool paths for complex parts to achieve shorter machining times resulting in higher production rates. In the research sample cases, the algorithm decreased machining times by 1% to 9% for design-induced sections of high curvature and by 16% to 75% for CAM induced ripples using high path tolerances. High-curvature sections in tool paths are caused by complex part geometry, noise, and discontinuities in the model. The curvature is decreased by deviating the tool path within an allowable path tolerance. The feedrate along the tool path is directly related to the curvature of the tool path. High-curvature sections cause the NC machine to reduce the feedrate along the tool path due to acceleration and jerk limits. These lower feedrates increase machining time and slow production rates. This new algorithm decreases curvature, which increases feedrates and decreases machining times, thereby increasing production rates for manufacturing companies. The tool paths are represented by cubic B-splines. The algorithm is based on the basic principle that the curvature of a B-spline directly relates to the geometry of its control polygon. If the control polygon's geometry has many tight corners then the B-spline will have high curvature. If the control polygon's geometry is a straight line then the B-spline will be a straight line with zero curvature. The algorithm deviates the control polygon's points so that they move towards forming a straight line. The control polygon will rarely form a straight line because the spline is limited by the path tolerance. However, as the control polygon moves towards forming a straight line, the curvature decreases, which allows the feedrate to increase. Six sample cases are explored in which the machining time is decreased. Three of the cases are tool paths that contain curvature sections with a range of unnecessary curvature from low to high. One sample is the tool path for the complex geometry in a snow tire mold. Another sample tool path contains ripples caused by noise in the CAD model. The last tool path contains ripples caused by tangency discontinuities in the CAD model. The percent of time saved directly relates to the severity of the curvature in the part. This thesis provides a quick and efficient means to reduce curvature in complex parts, resulting in decreased machining times and increased production rates.
67

Estimation de la diffusion thermique et du terme source du modèle de transport de la chaleur dans les plasmas de tokamaks. / Joint Diffusion and source term estimation in tokamak plasma heat transport.

Mechhoud, Sarah 17 December 2013 (has links)
Cette thèse porte sur l'estimation simultanée du coefficient de diffusion et du terme source régissant le modèle de transport de la température dans les plasmas chauds. Ce phénomène physique est décrit par une équation différentielle partielle (EDP) linéaire, parabolique du second-ordre et non-homogène, où le coefficient de diffusion est distribué et le coefficient de réaction est constant. Ce travail peut se présenter en deux parties. Dans la première, le problème d'estimation est traité en dimension finie ("Early lumping approach"). Dans la deuxième partie, le problème d'estimation est traité dans le cadre initial de la dimension infinie ("Late lumping approach"). Pour l'estimation en dimension finie, une fois le modèle établi, la formulation de Galerkin et la méthode d'approximation par projection sont choisies pour convertir l'EDP de transport en un système d'état linéaire, temps-variant et à entrées inconnues. Sur le modèle réduit, deux techniques dédiées à l'estimation des entrées inconnues sont choisies pour résoudre le problème. En dimension infinie, l'estimation en-ligne adaptative est adoptée pour apporter des éléments de réponse aux contraintes et limitations dues à la réduction du modèle. Des résultats de simulations sur des données réelles et simulées sont présentées dans ce mémoire. / This work deals with the diffusion and source term estimation in a heat transport model for tokamaks plasma . This phenomenon is described by a second-order linear parabolic partial differential equation (PDE) with distributed diffusion parameter and input. Both "Early lumping" and "Late lumping" approaches are considered in this thesis. First, once the heat model is chosen, the Galerkin formulation and the parameter projection method are combined to convert the PDE to a set of ordinary differential equations (ODEs). Then, two estimation methods able to give optimal estimates of the inputs are applied on the reduced model to identify simultaneously the source term and the diffusion coefficient. In the infinite dimensional method, the adaptive estimation technique is chosen in order to reconstruct "freely" the unknown parameters without the constraints due to the model reduction method. Simulation results on both simulated and real data are provided to attest the performance of the proposed methodologies.
68

Smooth Finite Element Methods with Polynomial Reproducing Shape Functions

Narayan, Shashi January 2013 (has links) (PDF)
A couple of discretization schemes, based on an FE-like tessellation of the domain and polynomial reproducing, globally smooth shape functions, are considered and numerically explored to a limited extent. The first one among these is an existing scheme, the smooth DMS-FEM, that employs Delaunay triangulation or tetrahedralization (as approximate) towards discretizing the domain geometry employs triangular (tetrahedral) B-splines as kernel functions en route to the construction of polynomial reproducing functional approximations. In order to verify the numerical accuracy of the smooth DMS-FEM vis-à-vis the conventional FEM, a Mindlin-Reissner plate bending problem is numerically solved. Thanks to the higher order continuity in the functional approximant and the consequent removal of the jump terms in the weak form across inter-triangular boundaries, the numerical accuracy via the DMS-FEM approximation is observed to be higher than that corresponding to the conventional FEM. This advantage notwithstanding, evaluations of DMS-FEM based shape functions encounter singularity issues on the triangle vertices as well as over the element edges. This shortcoming is presently overcome through a new proposal that replaces the triangular B-splines by simplex splines, constructed over polygonal domains, as the kernel functions in the polynomial reproduction scheme. Following a detailed presentation of the issues related to its computational implementation, the new method is numerically explored with the results attesting to a higher attainable numerical accuracy in comparison with the DMS-FEM.
69

Méthodes isogéométriques pour les équations aux dérivées partielles hyperboliques / Isogeometric methods for hyperbolic partial differential equations

Gdhami, Asma 17 December 2018 (has links)
L’Analyse isogéométrique (AIG) est une méthode innovante de résolution numérique des équations différentielles, proposée à l’origine par Thomas Hughes, Austin Cottrell et Yuri Bazilevs en 2005. Cette technique de discrétisation est une généralisation de l’analyse par éléments finis classiques (AEF), conçue pour intégrer la conception assistée par ordinateur (CAO), afin de combler l’écart entre la description géométrique et l’analyse des problèmes d’ingénierie. Ceci est réalisé en utilisant des B-splines ou des B-splines rationnelles non uniformes (NURBS), pour la description des géométries ainsi que pour la représentation de champs de solutions inconnus.L’objet de cette thèse est d’étudier la méthode isogéométrique dans le contexte des problèmes hyperboliques en utilisant les fonctions B-splines comme fonctions de base. Nous proposons également une méthode combinant l’AIG avec la méthode de Galerkin discontinue (GD) pour résoudre les problèmes hyperboliques. Plus précisément, la méthodologie de GD est adoptée à travers les interfaces de patches, tandis que l’AIG traditionnelle est utilisée dans chaque patch. Notre méthode tire parti de la méthode de l’AIG et la méthode de GD.Les résultats numériques sont présentés jusqu’à l’ordre polynomial p= 4 à la fois pour une méthode deGalerkin continue et discontinue. Ces résultats numériques sont comparés pour un ensemble de problèmes de complexité croissante en 1D et 2D. / Isogeometric Analysis (IGA) is a modern strategy for numerical solution of partial differential equations, originally proposed by Thomas Hughes, Austin Cottrell and Yuri Bazilevs in 2005. This discretization technique is a generalization of classical finite element analysis (FEA), designed to integrate Computer Aided Design (CAD) and FEA, to close the gap between the geometrical description and the analysis of engineering problems. This is achieved by using B-splines or non-uniform rational B-splines (NURBS), for the description of geometries as well as for the representation of unknown solution fields.The purpose of this thesis is to study isogeometric methods in the context of hyperbolic problems usingB-splines as basis functions. We also propose a method that combines IGA with the discontinuous Galerkin(DG)method for solving hyperbolic problems. More precisely, DG methodology is adopted across the patchinterfaces, while the traditional IGA is employed within each patch. The proposed method takes advantageof both IGA and the DG method.Numerical results are presented up to polynomial order p= 4 both for a continuous and discontinuousGalerkin method. These numerical results are compared for a range of problems of increasing complexity,in 1D and 2D.
70

Contours actifs paramétriques pour la segmentation<br />d'images et vidéos

Precioso, Frédéric 24 September 2004 (has links) (PDF)
Cette thèse s'inscrit dans le cadre des modèles de contours actifs. Il s'agit de méthodes dynamiquesappliquées à la segmentation d'image, en image fixe et vidéo. L'image est représentée par desdescripteurs régions et/ou contours. La segmentation est traitée comme un problème deminimisationd'une fonctionnelle. La recherche du minimum se fait via la propagation d'un contour actif dit basérégions. L'efficacité de ces méthodes réside surtout dans leur robustesse et leur rapidité. L'objectifde cette thèse est triple : le développement (i) d'une représentation paramétrique de courbes respectantcertaines contraintes de régularités, (ii) les conditions nécessaires à une évolution stable de cescourbes et (iii) la réduction des coûts calcul afin de proposer une méthode adaptée aux applicationsnécessitant une réponse en temps réel.Nous nous intéressons principalement aux contraintes de rigidité autorisant une plus granderobustesse vis-à-vis du bruit. Concernant l'évolution des contours actifs, nous étudions les problèmesd'application de la force de propagation, de la gestion de la topologie et des conditionsde convergence. Nous avons fait le choix des courbes splines cubiques. Cette famille de courbesoffre d'intéressantes propriétés de régularité, autorise le calcul exact des grandeurs différentiellesqui interviennent dans la fonctionnelle et réduit considérablement le volume de données à traiter.En outre, nous avons étendu le modèle classique des splines d'interpolation à un modèle de splinesd'approximation, dites smoothing splines. Ce dernier met en balance la contrainte de régularité etl'erreur d'interpolation sur les points d'échantillonnage du contour. Cette flexibilité permet ainsi deprivilégier la précision ou la robustesse.L'implémentation de ces modèles de splines a prouvé son efficacité dans diverses applicationsde segmentation.

Page generated in 0.0753 seconds