21 |
An Enhanced Multi-Beacon Superframe Structure for IEEE 802.15.4 Wireless Personal Area NetworksHo, Ping-Hsien 13 June 2012 (has links)
In an IEEE802.15.4 beacon-enabled wireless personal area network (WPAN), the PAN coordinator can allocate slots using contention free-GTSs (guaranteed the time slots) for admitted devices. However, due to fixed slot size, the bandwidth waste problem may arise. Hence, reference [6] proposed the multi-beacon superframe structure (MBS) to overcome this problem. However, in [6], the structure of sub-beacon intervals in a superframe is non-adaptive. Therefore, this thesis proposes an enhanced multi-beacon superframe structure (EMBS). In EMBS, a PAN coordinator employs the greedy SBI-allocation algorithm to adjust a superframe structure according to the traffic demand of admitted devices such that a superframe can consist of a number of different types of sub-beacon intervals (SBIs). Simulation results reveal that a WPAN using EMBS can attain higher bandwidth utilization than a WPAN using 802.15.4 or MBS.
|
22 |
Signal reconstruction from incomplete and misplaced measurementsSastry, Challa, Hennenfent, Gilles, Herrmann, Felix J. January 2007 (has links)
Constrained by practical and economical considerations, one often uses seismic data with missing traces. The use of such data results in image artifacts and poor spatial resolution. Sometimes due to practical limitations, measurements may be available on a perturbed grid, instead of on the designated grid. Due to algorithmic requirements, when such measurements are viewed as those on the designated grid, the recovery procedures may result in additional artifacts. This paper interpolates incomplete data onto regular grid via the Fourier domain, using a recently developed greedy algorithm. The basic objective is to study experimentally as to what could be the size of the perturbation in measurement coordinates that allows for the measurements on the perturbed grid to be considered as on the designated grid for faithful recovery. Our experimental work shows that for compressible signals, a uniformly distributed perturbation can be offset with slightly more number of measurements.
|
23 |
Mesures de similarité pour cartes généralisées / Similarity measures between generalized mapsCombier, Camille 28 November 2012 (has links)
Une carte généralisée est un modèle topologique permettant de représenter implicitementun ensemble de cellules (sommets, arêtes, faces , volumes, . . .) ainsi que l’ensemblede leurs relations d’incidence et d’adjacence au moyen de brins et d’involutions. Les cartes généralisées sont notamment utilisées pour modéliser des images et objets3D. A ce jour il existe peu d’outils permettant l’analyse et la comparaison de cartes généralisées.Notre objectif est de définir un ensemble d’outils permettant la comparaisonde cartes généralisées.Nous définissons tout d’abord une mesure de similarité basée sur la taille de la partiecommune entre deux cartes généralisées, appelée plus grande sous-carte commune.Nous définissons deux types de sous-cartes, partielles et induites, la sous-carte induitedoit conserver toutes les involutions tandis que la sous-carte partielle autorise certaines involutions à ne pas être conservées. La sous-carte partielle autorise que les involutionsne soient pas toutes conservées en analogie au sous-graphe partiel pour lequelles arêtes peuvent ne pas être toutes présentes. Ensuite nous définissons un ensembled’opérations de modification de brins et de coutures pour les cartes généralisées ainsiqu’une distance d’édition. La distance d’édition est égale au coût minimal engendrépar toutes les successions d’opérations transformant une carte généralisée en une autrecarte généralisée. Cette distance permet la prise en compte d’étiquettes, grâce à l’opérationde substitution. Les étiquettes sont posées sur les brins et permettent d’ajouter del’information aux cartes généralisées. Nous montrons ensuite, que pour certains coûtsnotre distance d’édition peut être calculée directement à partir de la plus grande souscartecommune.Le calcul de la distance d’édition est un problème NP-difficile. Nous proposons unalgorithme glouton permettant de calculer en temps polynomial une approximation denotre distance d’édition de cartes. Nous proposons un ensemble d’heuristiques baséessur des descripteurs du voisinage des brins de la carte généralisée permettant de guiderl’algorithme glouton, et nous évaluons ces heuristiques sur des jeux de test générésaléatoirement, pour lesquels nous connaissons une borne de la distance.Nous proposons des pistes d’utilisation de nos mesures de similarités dans le domainede l’analyse d’image et de maillages. Nous comparons notre distance d’éditionde cartes généralisées avec la distance d’édition de graphes, souvent utilisée en reconnaissancede formes structurelles. Nous définissons également un ensemble d’heuristiquesprenant en compte les étiquettes de cartes généralisées modélisant des images etdes maillages. Nous mettons en évidence l’aspect qualitatif de notre appariement, permettantde mettre en correspondance des zones de l’image et des points du maillages. / A generalized map is a topological model that allows to represent implicitly differenttypes of cells (vertices, edges, volumes, . . . ) and their relationship by using a set of dartsand some involutions. Generalized maps are used to model 3D meshes and images.Anyway there exists only few tools to compare theses generalized maps. Our main goalis to define some tools tolerant to error to compare them.We define a similarity measure based on the size of the common part of two generalizedmaps, called maximum common submap. Then we define two types of submaps,partial and induced, the induced submap needs to preserve all the involutions whereasthe partial one can allow some involutions to be removed. Then we define a set of operationsto modify a generalized map into another and the associated edit distance. Theedit distance is equal to the minimal cost of all the sequences of operations that modifya generalized map into the other. This edit distance can use labels to consider additionalinformation, with the operation called ’substitution’. Labels are set on darts. Wenext showa relation between our edit distance and the distance based on the maximumcommon submap.Computing theses distance are aNP-hard problem.We propose a greedy algorithmcomputing an approximation of it. We also propose a set of heuristics based on thedescription of the neighborhoob of the darts to help the greedy algorithm.We try thesesheuristics on a set of generalized maps randomly generated where a lower bound of thedistance is known. We also propose some applications of our similarity measures inthe image analysis domain. We compare our edit distance on generalized maps withthe edit distance on graphs. We also define a set of labels specific on images and 3Dmeshes. And we show that the matching computed by our algorithm construct a linkbetween images’s areas.
|
24 |
[en] CONTAINERS ROAD TRANSPORTATION OPTIMIZATION: EXACT AND HEURISTICS METHODS / [pt] OTIMIZAÇÃO DO TRANSPORTE RODOVIÁRIO DE CONTÊINERES: MÉTODOS EXATO E HEURÍSTICOSAULO BORGES PINHEIRO 03 September 2018 (has links)
[pt] Apesar da dimensão continental brasileira, da grandeza de sua costa e da proximidade entre o litoral e os grandes centros urbanos, o transporte de cargas em contêineres utilizando a cabotagem ainda é muito restrito no Brasil. Neste cenário, para ganhar espaço, os armadores brasileiros de cabotagem buscam oferecer serviços porta-a-porta, conseguindo economias de escala na contratação dos fornecedores que realizam as pontas rodoviárias, aumentando assim a competitividade da cabotagem com seu principal concorrente, o modal rodoviário. Neste trabalho são apresentados dois modelos que visam minimizar o custo total de contratação de fornecedores rodoviários para uma lista de demandas que devem ser atendidas. O primeiro é um modelo matemático de programação linear inteira, o segundo é um algoritmo que utiliza uma heurística gulosa. Os modelos foram desenvolvidos e testados em cenários reais, vividos por armador de cabotagem brasileiro durante um período de tempo determinado. Os resultados dos dois modelos, que são comparados entre si e com as soluções realizadas manualmente por funcionários do armador de cabotagem, mostram que as soluções dos modelos de otimização são muito melhores do que as soluções manuais. Os resultados mostram ainda que o algoritmo guloso alcança resultados muito próximos aos do método exato, mostrando ser de grande utilidade dada a facilidade de sua implantação. / [en] Despite the Brazilian continental scale, the magnitude of its coastline and the proximity between the coast and the large urban centers, the transport of cargo in containers using cabotage is still very limited in Brazil. In this scenario, the Brazilian cabotage ship-owners seek to provide door-to-door services, achieving economies of scale in procurement for suppliers that perform road ends, thus increasing the competitiveness of cabotage with its main competitor, the transportation by trucks. This work presents two models that aim to minimize the total cost of hiring road suppliers to a list of demands that must be performed. The first is a mathematical model based on integer linear programming, the second is an algorithm that uses a greedy heuristic. The models were developed and tested in real scenarios, experienced by a Brazilian cabotage ship-owner for a period of time. The results of the two models, which are compared among each other and with the manually solutions performed by the company’s employees, show that the solutions of optimization models are much better than the manual solutions. The results also show that the greedy algorithm achieves very close results to the exact method, proving to be very useful given the ease of its implementation.
|
25 |
Déconvolution aveugle parcimonieuse en imagerie échographique avec un algorithme CLEAN adaptatif / Sparse blind deconvolution in ultrasound imaging using an adaptative CLEAN algorithmChira, Liviu-Teodor 17 October 2013 (has links)
L'imagerie médicale ultrasonore est une modalité en perpétuelle évolution et notamment en post-traitement où il s'agit d'améliorer la résolution et le contraste des images. Ces améliorations devraient alors aider le médecin à mieux distinguer les tissus examinés améliorant ainsi le diagnostic médical. Il existe déjà une large palette de techniques "hardware" et "software". Dans ce travail nous nous sommes focalisés sur la mise en oeuvre de techniques dites de "déconvolution aveugle", ces techniques temporelles utilisant l'enveloppe du signal comme information de base. Elles sont capables de reconstruire des images parcimonieuses, c'est-à-dire des images de diffuseurs dépourvues de bruit spéculaire. Les principales étapes de ce type de méthodes consistent en i) l'estimation aveugle de la fonction d'étalement du point (PSF), ii) l'estimation des diffuseurs en supposant l'environnement exploré parcimonieux et iii) la reconstruction d'images par reconvolution avec une PSF "idéale". La méthode proposée a été comparée avec des techniques faisant référence dans le domaine de l'imagerie médicale en utilisant des signaux synthétiques, des séquences ultrasonores réelles (1D) et images ultrasonores (2D) ayant des statistiques différentes. La méthode, qui offre un temps d'exécution très réduit par rapport aux techniques concurrentes, est adaptée pour les images présentant une quantité réduite ou moyenne des diffuseurs. / The ultrasonic imaging knows a continuous advance in the aspect of increasing the resolution for helping physicians to better observe and distinguish the examined tissues. There is already a large range of techniques to get the best results. It can be found also hardware or signal processing techniques. This work was focused on the post-processing techniques of blind deconvolution in ultrasound imaging and it was implemented an algorithm that works in the time domain and uses the envelope signal as input information for it. It is a blind deconvolution technique that is able to reconstruct reflectors and eliminate the diffusive speckle noise. The main steps are: the estimation of the point spread function (PSF) in a blind way, the estimation of reflectors using the assumption of sparsity for the examined environment and the reconstruction of the image by reconvolving the sparse tissue with an ideal PSF. The proposed method was tested in comparison with some classical techniques in medical imaging reconstruction using synthetic signals, real ultrasound sequences (1D) and ultrasound images (2D) and also using two types of statistically different images. The method is suitable for images that represent tissue with a reduced amount or average scatters. Also, the technique offers a lower execution time than direct competitors.
|
26 |
Méthodes et modèles numériques appliqués aux risques du marché et à l’évaluation financière / Numerical methods and models in market risk and financial valuations areaInfante Acevedo, José Arturo 09 December 2013 (has links)
Ce travail de thèse aborde deux sujets : (i) L'utilisation d'une nouvelle méthode numérique pour l'évaluation des options sur un panier d'actifs, (ii) Le risque de liquidité, la modélisation du carnet d'ordres et la microstructure de marché. Premier thème : Un algorithme glouton et ses applications pour résoudre des équations aux dérivées partielles. L'exemple typique en finance est l'évaluation d'une option sur un panier d'actifs, laquelle peut être obtenue en résolvant l'EDP de Black-Scholes ayant comme dimension le nombre d'actifs considérés. Nous proposons d'étudier un algorithme qui a été proposé et étudié récemment dans [ACKM06, BLM09] pour résoudre des problèmes en grande dimension et essayer de contourner la malédiction de la dimension. L'idée est de représenter la solution comme une somme de produits tensoriels et de calculer itérativement les termes de cette somme en utilisant un algorithme glouton. La résolution des EDP en grande dimension est fortement liée à la représentation des fonctions en grande dimension. Dans le Chapitre 1, nous décrivons différentes approches pour représenter des fonctions en grande dimension et nous introduisons les problèmes en grande dimension en finance qui sont traités dans ce travail de thèse. La méthode sélectionnée dans ce manuscrit est une méthode d'approximation non-linéaire appelée Proper Generalized Decomposition (PGD). Le Chapitre 2 montre l'application de cette méthode pour l'approximation de la solution d'une EDP linéaire (le problème de Poisson) et pour l'approximation d'une fonction de carré intégrable par une somme des produits tensoriels. Un étude numérique de ce dernier problème est présenté dans le Chapitre 3. Le problème de Poisson et celui de l'approximation d'une fonction de carré intégrable serviront de base dans le Chapitre 4 pour résoudre l'équation de Black-Scholes en utilisant l'approche PGD. Dans des exemples numériques, nous avons obtenu des résultats jusqu'en dimension 10. Outre l'approximation de la solution de l'équation de Black-Scholes, nous proposons une méthode de réduction de variance des méthodes Monte Carlo classiques pour évaluer des options financières. Second thème : Risque de liquidité, modélisation du carnet d'ordres, microstructure de marché. Le risque de liquidité et la microstructure de marché sont devenus des sujets très importants dans les mathématiques financières. La dérégulation des marchés financiers et la compétition entre eux pour attirer plus d'investisseurs constituent une des raisons possibles. Dans ce travail, nous étudions comment utiliser cette information pour exécuter de façon optimale la vente ou l'achat des ordres. Les ordres peuvent seulement être placés dans une grille des prix. A chaque instant, le nombre d'ordres en attente d'achat (ou vente) pour chaque prix est enregistré. Dans [AFS10], Alfonsi, Fruth et Schied ont proposé un modèle simple du carnet d'ordres. Dans ce modèle, il est possible de trouver explicitement la stratégie optimale pour acheter (ou vendre) une quantité donnée d'actions avant une maturité. L'idée est de diviser l'ordre d'achat (ou de vente) dans d'autres ordres plus petits afin de trouver l'équilibre entre l'acquisition des nouveaux ordres et leur prix. Ce travail de thèse se concentre sur une extension du modèle du carnet d'ordres introduit par Alfonsi, Fruth et Schied. Ici, l'originalité est de permettre à la profondeur du carnet d'ordres de dépendre du temps, ce qui représente une nouvelle caractéristique du carnet d'ordres qui a été illustré par [JJ88, GM92, HH95, KW96]. Dans ce cadre, nous résolvons le problème de l'exécution optimale pour des stratégies discrètes et continues. Ceci nous donne, en particulier, des conditions suffisantes pour exclure les manipulations des prix au sens de Huberman et Stanzl [HS04] ou de Transaction-Triggered Price Manipulation (voir Alfonsi, Schied et Slynko) / This work is organized in two themes : (i) A novel numerical method to price options on manyassets, (ii) The liquidity risk, the limit order book modeling and the market microstructure.First theme : Greedy algorithms and applications for solving partial differential equations in high dimension Many problems of interest for various applications (material sciences, finance, etc) involve high-dimensional partial differential equations (PDEs). The typical example in finance is the pricing of a basket option, which can be obtained by solving the Black-Scholes PDE with dimension the number of underlying assets. We propose to investigate an algorithm which has been recently proposed and analyzed in [ACKM06, BLM09] to solve such problems and try to circumvent the curse of dimensionality. The idea is to represent the solution as a sum of tensor products and to compute iteratively the terms of this sum using a greedy algorithm. The resolution of high dimensional partial differential equations is highly related to the representation of high dimensional functions. In Chapter 1, we describe various linear approaches existing in literature to represent high dimensional functions and we introduce the high dimensional problems in finance that we will address in this work. The method studied in this manuscript is a non-linear approximation method called the Proper Generalized Decomposition. Chapter 2 shows the application of this method to approximate the so-lution of a linear PDE (the Poisson problem) and also to approximate a square integrable function by a sum of tensor products. A numerical study of this last problem is presented in Chapter 3. The Poisson problem and the approximation of a square integrable function will serve as basis in Chapter 4for solving the Black-Scholes equation using the PGD approach. In numerical experiments, we obtain results for up to 10 underlyings. Second theme : Liquidity risk, limit order book modeling and market microstructure. Liquidity risk and market microstructure have become in the past years an important topic in mathematical finance. One possible reason is the deregulation of markets and the competition between them to try to attract as many investors as possible. Thus, quotation rules are changing and, in general, more information is available. In particular, it is possible to know at each time the awaiting orders on some stocks and to have a record of all the past transactions. In this work we study how to use this information to optimally execute buy or sell orders, which is linked to the traders' behaviour that want to minimize their trading cost. In [AFS10], Alfonsi, Fruth and Schied have proposed a simple LOB model. In this model, it is possible to explicitly derive the optimal strategy for buying (or selling) a given amount of shares before a given deadline. Basically, one has to split the large buy (or sell) order into smaller ones in order to find the best trade-off between attracting new orders and the price of the orders. Here, we focus on an extension of the Limit Order Book (LOB) model with general shape introduced by Alfonsi, Fruth and Schied. The additional feature is a time-varying LOB depth that represents a new feature of the LOB highlighted in [JJ88, GM92, HH95, KW96]. We solve the optimal execution problem in this framework for both discrete and continuous time strategies. This gives in particular sufficient conditions to exclude Price Manipulations in the sense of Huberman and Stanzl [HS04] or Transaction-Triggered Price Manipulations (see Alfonsi, Schied and Slynko). The seconditions give interesting qualitative insights on how market makers may create price manipulations
|
27 |
Un nouvel a priori de formes pour les contours actifs / A new shape prior for active contour modelAhmed, Fareed 14 February 2014 (has links)
Les contours actifs sont parmi les méthodes de segmentation d'images les plus utilisées et de nombreuses implémentations ont vu le jour durant ces 25 dernières années. Parmi elles, l'approche greedy est considérée comme l'une des plus rapides et des plus stables. Toutefois, quelle que soit l'implémentation choisie, les résultats de segmentation souffrent grandement en présence d'occlusions, de concavités ou de déformation anormales de la forme. Si l'on dispose d'informations a priori sur la forme recherchée, alors son incorporation à un modèle existant peut permettre d'améliorer très nettement les résultats de segmentation. Dans cette thèse, l'inclusion de ce type de contraintes de formes dans un modèle de contour actif explicite est proposée. Afin de garantir une invariance à la rotation, à la translation et au changement d'échelle, les descripteurs de Fourier sont utilisés. Contrairement à la plupart des méthodes existantes, qui comparent la forme de référence et le contour actif en cours d'évolution dans le domaine d'origine par le biais d'une transformation inverse, la méthode proposée ici réalise cette comparaison dans l'espace des descripteurs. Cela assure à notre approche un faible temps de calcul et lui permet d'être indépendante du nombre de points de contrôle choisis pour le contour actif. En revanche, cela induit un biais dans la phase des coefficients de Fourier, handicapant l'invariance à la rotation. Ce problème est résolu par un algorithme original. Les expérimentations indiquent clairement que l'utilisation de ce type de contrainte de forme améliore significativement les résultats de segmentation du modèle de contour actif utilisé. / Active contours are widely used for image segmentation. There are many implementations of active contours. The greedy algorithm is being regarded as one of the fastest and stable implementations. No matter which implementation is being employed, the segmentation results suffer greatly in the presence of occlusion, context noise, concavities or abnormal deformation of shape. If some prior knowledge about the shape of the object is available, then its addition to an existing model can greatly improve the segmentation results. In this thesis inclusion of such shape constraints for explicit active contours is being implemented. These shape priors are introduced through the use of robust Fourier based descriptors which makes them invariant to the translation, scaling and rotation factors and enables the deformable model to converge towards the prior shape even in the presence of occlusion and contextual noise. Unlike most existing methods which compare the reference shape and evolving contour in the spatial domain by applying the inverse transforms, our proposed method realizes such comparisons entirely in the descriptor space. This not only decreases the computational time but also allows our method to be independent of the number of control points chosen for the description of the active contour. This formulation however, may introduce certain anomalies in the phase of the descriptors which affects the rotation invariance. This problem has been solved by an original algorithm. Experimental results clearly indicate that the inclusion of these shape priors significantly improved the segmentation results of the active contour model being used.
|
28 |
Kombinatorické úlohy o mincích / Combinatorial problems with coinsHamáček, Jan January 2016 (has links)
Práce se zabývá otázkami reprezentace zvolené částky pomocí libovolného množství mincí předep- saného typu. V první kapitole odvozujeme vzorce pro počet nereprezentovatelných částek a hodnotu největší nereprezentovatelné částky pro dvoumincové systémy. Dále ukazujeme grafový algoritmus pro výpočet Frobeniova čísla a d·kaz NP-úplnosti rozhodovacího problému reprezentovatelnosti zvolené částky v systému s více mincemi. V druhé kapitole se zabýváme výpočtem počtu reprezentací částky zvláš' v systémech o dvou nebo více mincích. Ve třetí kapitole se věnujeme otázce, zda lze ve zvoleném systému mincí použít hladový algoritmus pro nalezení reprezentace částky pomocí nejmenšího možného množství mincí. Poslední kapitola obsahuje sbírku řešených logických úloh o mincích. 1
|
29 |
Amélioration du modèle de sections efficaces dans le code de cœur COCAGNE de la chaîne de calculs d'EDF / Improvement of cross section model in COCAGNE code of the calculation chain of EDFLuu, Thi Hieu 17 February 2017 (has links)
Afin d'exploiter au mieux son parc nucléaire, la R&D d'EDF est en train de développer une nouvelle chaîne de calcul pour simuler le cœur des réacteurs nucléaires avec des outils à l'état de l'art. Ces calculs nécessitent une grande quantité de données physiques, en particulier les sections efficaces. Dans la simulation d'un cœur complet, le nombre de valeurs des sections efficaces est de l'ordre de plusieurs milliards. Ces sections efficaces peuvent être représentées comme des fonctions multivariées dépendant de plusieurs paramètres physiques. La détermination des sections efficaces étant un calcul complexe et long, nous pouvons donc les précalculer en certaines valeurs des paramètres (caluls hors ligne) puis les évaluer en tous points par une interpolation (calculs en ligne). Ce processus demande un modèle de reconstruction des sections efficaces entre les deux étapes. Pour réaliser une simulation plus fidèle du cœur dans la nouvelle chaîne d'EDF, les sections efficaces nécessitent d'être mieux représentées en prenant en compte de nouveaux paramètres. Par ailleurs, la nouvelle chaîne se doit d'être en mesure de calculer le réacteur dans des situations plus larges qu'actuellement. Le modèle d'interpolation multilinéaire pour reconstruire les sections efficaces est celui actuellement utilisé pour répondre à ces objectifs. Néanmoins, avec ce modèle, le nombre de points de discrétisation augmente exponentiellement en fonction du nombre de paramètres ou de manière considérable quand on ajoute des points sur un des axes. Par conséquence, le nombre et le temps des calculs hors ligne ainsi que la taille du stockage des données deviennent problématique. L'objectif de cette thèse est donc de trouver un nouveau modèle pour répondre aux demandes suivantes : (i)-(hors ligne) réduire le nombre de précalculs, (ii)-(hors ligne) réduire le stockage de données pour la reconstruction et (iii)-(en ligne) tout en conservant (ou améliorant) la précision obtenue par l'interpolation multilinéaire. D'un point de vue mathématique, ce problème consiste à approcher des fonctions multivariées à partir de leurs valeurs précalculées. Nous nous sommes basés sur le format de Tucker - une approximation de tenseurs de faible rang afin de proposer un nouveau modèle appelé la décomposition de Tucker . Avec ce modèle, une fonction multivariée est approchée par une combinaison linéaire de produits tensoriels de fonctions d'une variable. Ces fonctions d'une variable sont construites grâce à une technique dite de décomposition en valeurs singulières d'ordre supérieur (une « matricization » combinée à une extension de la décomposition de Karhunen-Loève). L'algorithme dit glouton est utilisé pour constituer les points liés à la résolution des coefficients dans la combinaison de la décomposition de Tucker. Les résultats obtenus montrent que notre modèle satisfait les critères exigés sur la réduction de données ainsi que sur la précision. Avec ce modèle, nous pouvons aussi éliminer a posteriori et à priori les coefficients dans la décomposition de Tucker. Cela nous permet de réduire encore le stockage de données dans les étapes hors ligne sans réduire significativement la précision. / In order to optimize the operation of its nuclear power plants, the EDF's R&D department iscurrently developing a new calculation chain to simulate the nuclear reactors core with state of the art tools. These calculations require a large amount of physical data, especially the cross-sections. In the full core simulation, the number of cross-section values is of the order of several billions. These cross-sections can be represented as multivariate functions depending on several physical parameters. The determination of cross-sections is a long and complex calculation, we can therefore pre-compute them in some values of parameters (online calculations), then evaluate them at all desired points by an interpolation (online calculations). This process requires a model of cross-section reconstruction between the two steps. In order to perform a more faithful core simulation in the new EDF's chain, the cross-sections need to be better represented by taking into account new parameters. Moreover, the new chain must be able to calculate the reactor in more extensive situations than the current one. The multilinear interpolation is currently used to reconstruct cross-sections and to meet these goals. However, with this model, the number of points in its discretization increases exponentially as a function of the number of parameters, or significantly when adding points to one of the axes. Consequently, the number and time of online calculations as well as the storage size for this data become problematic. The goal of this thesis is therefore to find a new model in order to respond to the following requirements: (i)-(online) reduce the number of pre-calculations, (ii)-(online) reduce stored data size for the reconstruction and (iii)-(online) maintain (or improve) the accuracy obtained by multilinear interpolation. From a mathematical point of view, this problem involves approaching multivariate functions from their pre-calculated values. We based our research on the Tucker format - a low-rank tensor approximation in order to propose a new model called the Tucker decomposition . With this model, a multivariate function is approximated by a linear combination of tensor products of one-variate functions. These one-variate functions are constructed by a technique called higher-order singular values decomposition (a « matricization » combined with an extension of the Karhunen-Loeve decomposition). The so-called greedy algorithm is used to constitute the points related to the resolution of the coefficients in the combination of the Tucker decomposition. The results obtained show that our model satisfies the criteria required for the reduction of the data as well as the accuracy. With this model, we can eliminate a posteriori and a priori the coefficients in the Tucker decomposition in order to further reduce the data storage in online steps but without reducing significantly the accuracy.
|
30 |
Design and Analysis of Non-symmetric Satellite Constellations / Design och analys av icke-symmetriska satellitkonstellationerCostales, Jomuel Danilo January 2023 (has links)
Satellite constellation design has been a well-studied problem since the beginning of the space age. In recent years new concepts and approaches tried to solve it with fewer satellites whilst guaranteeing coverage to the areas of interest, whether globally or regionally. This thesis introduces a novel approach based on the repeating ground track concept. It then links and converts the constellation design problem to a Set Cover problem. Although it is NP-hard, the Greedy Algorithm is capable to approximate the solution in a polynomial time with a logarithm ratio. An application of the non-symmetric strategy is illustrated with in 36 different scenarios, where altitude, sensor swath and time requirement are varied. In addition to that, a comparison with the Walker constellation on 6 scenarios is analyzed and discussed. In most cases the non-symmetric strategy produces constellations with significantly less satellites required. / Satellitkonstellationsdesign har varit ett väl studerat problem sedan början av rymdåldern. Under de senaste åren har nya koncept och tillvägagångssätt försökt lösa det med färre satelliter samtidigt som de garanterar täckning till intresseområdena, globalt eller regionalt. Detta examensarbete introducerar ett nytt tillvägagångssätt baserat på konceptet med återkommande markspår. Den länkar sedan och konverterar konstellationsdesignproblemet till ett Set Cover-problem. Även om problemet är NP-hårt, är den giriga algoritmen kapabel att approximera lösningen under polynomtid med ett logaritmförhållande. En tillämpning av den icke-symmetriska strategin illustreras med i 36 olika scenarier, där höjd, sensorsvep och tidsbehov varieras. Utöver det analyseras och diskuteras en jämförelse med Walker-konstellationen på 6 scenarier. I de allra flesta fall producerar den icke-symmetriska strategin konstellationer med betydligt färre satelliter.
|
Page generated in 0.0729 seconds