• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 10
  • 2
  • 2
  • 1
  • Tagged with
  • 41
  • 12
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Problèmes industriels de grande dimension en mécanique numérique du contact : performance, fiabilité et robustesse.

Kudawoo, Ayaovi Dzifa 22 November 2012 (has links)
Ce travail de thèse concerne la mécanique numérique du contact entre solides déformables. Il s'agit de contribuer à l'amélioration de la performance, de la fiabilité et de la robustesse des algorithmes et des modèles numériques utilisés dans les codes éléments finis en particulier Code_Aster qui est un code libre développé par Électricité De France (EDF) pour ses besoins en ingénierie. L'objectif final est de traiter les problèmes industriels de grande dimension avec un temps de calcul optimisé. Pour parvenir à ces objectifs, les algorithmes et formulations doivent prendre en compte les difficultés liées à la mécanique non régulière à cause des lois de Signorini-Coulomb ainsi que la gestion des non linéarités dûes aux grandes déformations et aux comportements des matériaux étudiés.Le premier axe de ce travail est dédié à une meilleure compréhension de la formulation dite de « Lagrangien stabilisé » initialement implémentée dans le code. Il a été démontré l'équivalence entre cette formulation et la formulation bien connue de « Lagrangien augmenté ». Les caractéristiques mathématiques liées aux opérateurs discrets ont été précisées et une écriture énergétique globale a été trouvée. / This work deals with computational contact mechanics between deformable solids. The aim of this work is to improve the performance, the reliability and the robustness of the algorithms and numerical models set in Code_Aster which is finite element code developped by Électricité De France (EDF) for its engineering needs. The proposed algorithms are used to solve high dimensional industrial problems in order to optimize the computational running times. Several solutions techniques are available in the field of computational contact mechanics but they must take into account the difficulties coming from non-smooth aspects due to Signorini-Coulomb laws coupled to large deformations of bodies and material non linearities. Firstly the augmented Lagrangian formulation so-called « stabilized Lagrangian » is introduced. Successively, the mathematical properties of the discrete operators are highlighted and furthermore a novel energetic function is presented. Secondly the kinematical condition with regard to the normal unknowns are reinforced through unconstrained optimization techniques which result to a novel formulation which is so-called « non standard augmented Lagrangian formulation ». Three types of strategies are implemented in the code. The generalized Newton method is developped : it is a method in which all the non linearities are solved in one loop of iterations. The partial Newton method is an hybrid technique between the generalized Newton one and a fixed point method.
32

Nonlinear System Identification with Kernels : Applications of Derivatives in Reproducing Kernel Hilbert Spaces / Contribution à l'identification des systèmes non-linéaires par des méthodes à noyaux

Bhujwalla, Yusuf 05 December 2017 (has links)
Cette thèse se concentrera exclusivement sur l’application de méthodes non paramétriques basées sur le noyau à des problèmes d’identification non-linéaires. Comme pour les autres méthodes non-linéaires, deux questions clés dans l’identification basée sur le noyau sont les questions de comment définir un modèle non-linéaire (sélection du noyau) et comment ajuster la complexité du modèle (régularisation). La contribution principale de cette thèse est la présentation et l’étude de deux critères d’optimisation (un existant dans la littérature et une nouvelle proposition) pour l’approximation structurale et l’accord de complexité dans l’identification de systèmes non-linéaires basés sur le noyau. Les deux méthodes sont basées sur l’idée d’intégrer des contraintes de complexité basées sur des caractéristiques dans le critère d’optimisation, en pénalisant les dérivées de fonctions. Essentiellement, de telles méthodes offrent à l’utilisateur une certaine souplesse dans la définition d’une fonction noyau et dans le choix du terme de régularisation, ce qui ouvre de nouvelles possibilités quant à la facon dont les modèles non-linéaires peuvent être estimés dans la pratique. Les deux méthodes ont des liens étroits avec d’autres méthodes de la littérature, qui seront examinées en détail dans les chapitres 2 et 3 et formeront la base des développements ultérieurs de la thèse. Alors que l’analogie sera faite avec des cadres parallèles, la discussion sera ancrée dans le cadre de Reproducing Kernel Hilbert Spaces (RKHS). L’utilisation des méthodes RKHS permettra d’analyser les méthodes présentées d’un point de vue à la fois théorique et pratique. De plus, les méthodes développées seront appliquées à plusieurs «études de cas» d’identification, comprenant à la fois des exemples de simulation et de données réelles, notamment : • Détection structurelle dans les systèmes statiques non-linéaires. • Contrôle de la fluidité dans les modèles LPV. • Ajustement de la complexité à l’aide de pénalités structurelles dans les systèmes NARX. • Modelisation de trafic internet par l’utilisation des méthodes à noyau / This thesis will focus exclusively on the application of kernel-based nonparametric methods to nonlinear identification problems. As for other nonlinear methods, two key questions in kernel-based identification are the questions of how to define a nonlinear model (kernel selection) and how to tune the complexity of the model (regularisation). The following chapter will discuss how these questions are usually dealt with in the literature. The principal contribution of this thesis is the presentation and investigation of two optimisation criteria (one existing in the literature and one novel proposition) for structural approximation and complexity tuning in kernel-based nonlinear system identification. Both methods are based on the idea of incorporating feature-based complexity constraints into the optimisation criterion, by penalising derivatives of functions. Essentially, such methods offer the user flexibility in the definition of a kernel function and the choice of regularisation term, which opens new possibilities with respect to how nonlinear models can be estimated in practice. Both methods bear strong links with other methods from the literature, which will be examined in detail in Chapters 2 and 3 and will form the basis of the subsequent developments of the thesis. Whilst analogy will be made with parallel frameworks, the discussion will be rooted in the framework of Reproducing Kernel Hilbert Spaces (RKHS). Using RKHS methods will allow analysis of the methods presented from both a theoretical and a practical point-of-view. Furthermore, the methods developed will be applied to several identification ‘case studies’, comprising of both simulation and real-data examples, notably: • Structural detection in static nonlinear systems. • Controlling smoothness in LPV models. • Complexity tuning using structural penalties in NARX systems. • Internet traffic modelling using kernel methods
33

Méthodes multivariées pour l'analyse jointe de données de neuroimagerie et de génétique / Multivariate methods for the joint analysis of neuroimaging and genetic data

Le floch, Edith 28 September 2012 (has links)
L'imagerie cérébrale connaît un intérêt grandissant, en tant que phénotype intermédiaire, dans la compréhension du chemin complexe qui relie les gènes à un phénotype comportemental ou clinique. Dans ce contexte, un premier objectif est de proposer des méthodes capables d'identifier la part de variabilité génétique qui explique une certaine part de la variabilité observée en neuroimagerie. Les approches univariées classiques ignorent les effets conjoints qui peuvent exister entre plusieurs gènes ou les covariations potentielles entre régions cérébrales.Notre première contribution a été de chercher à améliorer la sensibilité de l'approche univariée en tirant avantage de la nature multivariée des données génétiques, au niveau local. En effet, nous adaptons l'inférence au niveau du cluster en neuroimagerie à des données de polymorphismes d'un seul nucléotide (SNP), en cherchant des clusters 1D de SNPs adjacents associés à un même phénotype d'imagerie. Ensuite, nous prolongeons cette idée et combinons les clusters de voxels avec les clusters de SNPs, en utilisant un test simple au niveau du "cluster 4D", qui détecte conjointement des régions cérébrale et génomique fortement associées. Nous obtenons des résultats préliminaires prometteurs, tant sur données simulées que sur données réelles.Notre deuxième contribution a été d'utiliser des méthodes multivariées exploratoires pour améliorer la puissance de détection des études d'imagerie génétique, en modélisant la nature multivariée potentielle des associations, à plus longue échelle, tant du point de vue de l'imagerie que de la génétique. La régression Partial Least Squares et l'analyse canonique ont été récemment proposées pour l'analyse de données génétiques et transcriptomiques. Nous proposons ici de transposer cette idée à l'analyse de données de génétique et d'imagerie. De plus, nous étudions différentes stratégies de régularisation et de réduction de dimension, combinées avec la PLS ou l'analyse canonique, afin de faire face au phénomène de sur-apprentissage dû aux très grandes dimensions des données. Nous proposons une étude comparative de ces différentes stratégies, sur des données simulées et des données réelles d'IRM fonctionnelle et de SNPs. Le filtrage univarié semble nécessaire. Cependant, c'est la combinaison du filtrage univarié et de la PLS régularisée L1 qui permet de détecter une association généralisable et significative sur les données réelles, ce qui suggère que la découverte d'associations en imagerie génétique nécessite une approche multivariée. / Brain imaging is increasingly recognised as an interesting intermediate phenotype to understand the complex path between genetics and behavioural or clinical phenotypes. In this context, a first goal is to propose methods to identify the part of genetic variability that explains some neuroimaging variability. Classical univariate approaches often ignore the potential joint effects that may exist between genes or the potential covariations between brain regions. Our first contribution is to improve the sensitivity of the univariate approach by taking advantage of the multivariate nature of the genetic data in a local way. Indeed, we adapt cluster-inference techniques from neuroimaging to Single Nucleotide Polymorphism (SNP) data, by looking for 1D clusters of adjacent SNPs associated with the same imaging phenotype. Then, we push further the concept of clusters and we combined voxel clusters and SNP clusters, by using a simple 4D cluster test that detects conjointly brain and genome regions with high associations. We obtain promising preliminary results on both simulated and real datasets .Our second contribution is to investigate exploratory multivariate methods to increase the detection power of imaging genetics studies, by accounting for the potential multivariate nature of the associations, at a longer range, on both the imaging and the genetics sides. Recently, Partial Least Squares (PLS) regression or Canonical Correlation Analysis (CCA) have been proposed to analyse genetic and transcriptomic data. Here, we propose to transpose this idea to the genetics vs. imaging context. Moreover, we investigate the use of different strategies of regularisation and dimension reduction techniques combined with PLS or CCA, to face the overfitting issues due to the very high dimensionality of the data. We propose a comparison study of the different strategies on both a simulated dataset and a real fMRI and SNP dataset. Univariate selection appears to be necessary to reduce the dimensionality. However, the generalisable and significant association uncovered on the real dataset by the two-step approach combining univariate filtering and L1-regularised PLS suggests that discovering meaningful imaging genetics associations calls for a multivariate approach.
34

La distinction des nullités relative et absolue / The distinction of relative and absolute nullities

Lebret, Anne-Sophie 12 December 2015 (has links)
La distinction doctrinale des nullités relative et absolue apparaît dans notre droit au XVIe siècle. Depuis, la doctrine enseigne que de sa mise en oeuvre, découle l’entier régime d’une cause de nullité. Le caractère opératoire de cette distinction est régulièrement interrogé, voire contesté. Cette circonstance, ajoutée à celle de sa probable consécration lors de la prochaine réforme du droit des obligations, incite à éprouver la pertinence de cette distinction. Pour assurer sa fonction d’instrument de connaissance du droit, la distinction des nullités relative et absolue doit, comme toute distinction binaire, posséder trois caractéristiques : premièrement un critère de distinction solide assurant son caractère opératoire, deuxièmement une différence de régime significative entre les deux éléments composant la distinction et conférant tout son intérêt à celle-ci, troisièmement une différence de nature entre les deux composantes, établie par le critère choisi, et justifiant la disparité de régime. Or, à l’analyse, la distinction des nullités relative et absolue ne possède ni critère de distinction sûr, ni différence de régime incontestée, ni dualité de nature. L’étude de la nature de la nullité nous conduira à retenir une nature unique : la nullité sera analysée comme une sanction de la légalité, qui doit être prononcée. Le plus souvent, elle le sera par le juge et revêtira alors un caractère judiciaire. Dès lors, à l’unique nature de sanction judiciaire de la légalité il est proposé d’attacher un seul régime, autrement dit, des règles communes à toutes les causes de nullité. La nature commandant le régime, ce dernier doit être élaboré en considération de la nature de la nullité proposée. Il conviendra néanmoins de prendre également en considération les dispositions légales spécifiques à certaines causes de nullité. / The scholarly distinction of relative and absolute nullities appeared in our law during the sixteenth century. Ever since, scholarly opinion has been that the entire regime of a cause of nullity depends on the implementation of this distinction. The operational nature of this distinction is regularly questioned, and even discussed. Yet, its probable establishment by the upcoming reform of the law of obligations urges a scrutiny of this distinction’s relevance. In order to fulfil its task of knowledge of the law, the distinction of relative and absolute nullities must, like every binary distinction, possess three characteristics: firstly, a solid criterion of distinction must enable it to be operational; secondly, the two parts of the distinction must correspond to two sets of significantly different rules, this difference being the heart of the distinction; and thirdly, a difference in the nature of the two parts of the distinction, established by the chosen criterion, and justifying the difference of regimes. However, after close analysis, the distinction of relative and absolute nullities possesses neither a reliable criterion of distinction, nor an uncontested difference in the regimes, nor a duality of nature. The study of the nullity’s nature will enable us to state that nullity has a uniform nature: nullity will be analysed as a sanction of the act’s legality that must be imposed. More often than not, it will be imposed by the judge and will have a judicial nature. Thus, the uniform nature of judicial sanction of the act’s legality must correspond to a single regime, in other words it must correspond to rules that are common to all causes of nullity. Since the nature conditions the regime, the latter must be established by taking into consideration the nature of the proposed nullity. Nevertheless, it is necessary to also take into consideration the legal provisions specific to certain causes of nullity.
35

Estimation par méthodes inverses des profils d’émission des machines à bois électroportatives / Emission profiles characterization by inverse method for hand-held wood working machines

Chata, Florent 27 November 2015 (has links)
Cette thèse est dédiée à l'estimation de l'intensité d'une source de polluant de type particulaire par inversion de signaux de concentration mesurés avec un nombre fini de capteurs placés loin de la source. Cette méthode d'estimation inclut deux étapes distinctes. La première étape consiste à déterminer les paramètres du modèle d'inversion en utilisant une source d'aérosol connue et les mesures de concentration en particules correspondantes. Dans une seconde étape, une source d'aérosol inconnue est reconstruite à partir de l'inversion du modèle et des mesures de la concentration. Ce manuscrit traite dans un premier temps du cas stationnaire. L'approche théorique exposée permet de proposer un placement optimal des capteurs en plus de la méthode d'estimation de la source. Dans un second temps, on considère le cas où la source inconnue d'aérosol est instationnaire. La méthode d'estimation repose sur une approche convolutive du système, en introduisant la notion d'impédance source/capteur. Après une présentation de la technique d'inversion propre à la méthode d'estimation, elle est appliquée expérimentalement au cas des machines à bois éléctroportatives, dans le but de les discriminer en fonction de leur caractère émissif / This thesis is dedicated to the determination of unknown aerosol sources emission profiles from aerosol concentration measurements in the far-field. This procedure includes two distinct steps. The first step consists in determining the model linking the aerosol source and the concentration measurements using a known source of aerosols and the corresponding dust measurements. In a second step, the unknown source of aerosols is reconstructed by inverting the model for the measured aerosol concentrations. This manuscript deals in a first time with the stationary case. The exposed theoretical approach allows to suggest an optimal sensors placement in addition to the source estimation method. In a second time, we consider the case where the unknown aerosol source is unsteady. The estimation method is then based on a convolutive system approach, introducing the concept of source/sensor impedance. After a presentation of the numerical inversion technique, the method is applied experimentally to the real case of hand-held wood working machines so as to classify the machines with respect to their emission rate
36

Inverse source modeling of roll induced magnetic signature / Invers källmodellering av rullningsinducerad magnetisk signatur

Thermaenius, Erik January 2022 (has links)
Vessels constructed in electrically conductive materials give rise to frequency-dependent, induced magnetic fields when waves of water cause them to roll in the Earth's magnetic field. These fields, typically referred to as roll-induced magnetic vortex fields, are a component of the ship's overall signature, where signature refers to measurable quantities which can reveal or identify objects. It is crucial for military platforms to keep the signature low and thereby increase the possibilities of operation. For magnetic signatures, this is done through strategic design and construction of the platform or by using magnetic silencing systems. The signature is then decreased to minimize the risk of detection from naval mines and marine detection systems.  This report covers the initial research on the subject of an inverse source model for roll induced magnetic fields. By limiting the analysis to two basic objects and applying a time variant magnetic field to them, we induce a magnetic field which we then model. The inverse modeling is done using magnetic dipoles as sources which are placed around the area of the object. The parameters of the model are then found by applying a least squares algorithm coupled with Tikhonov regularization. The focus of this report is the configuration of this setup in terms of measurements and sources, as well as finding a proper regularization parameter. Since the applied magnetic field is dependent on the roll frequency, also the inverse model depends on a frequency parameter in addition to the geometry and material of the object. The objects here studied are of two simple geometries, a rectangular block and a hollow cylinder. Both objects are constructed in an aluminum alloy with well known material parameters. Measurement data is gathered using a numerical solver utilizing the finite element method for solving the partial differential equations. The numerical measurement data is compared to physical measurements as well. The physical measurement data is gathered by placing the objects in a Helmholtz-cage which is used to apply a homogeneous time variant magnetic field upon them. The project was carried out at the Swedish Defence Research Agency (FOI) at the department of underwater research.
37

Clustering of Unevenly Spaced Mixed Data Time Series / Klustring av ojämnt fördelade tidsserier med numeriska och kategoriska variabler

Sinander, Pierre, Ahmed, Asik January 2023 (has links)
This thesis explores the feasibility of clustering mixed data and unevenly spaced time series for customer segmentation. The proposed method implements the Gower dissimilarity as the local distance function in dynamic time warping to calculate dissimilarities between mixed data time series. The time series are then clustered with k−medoids and the clusters are evaluated with the silhouette score and t−SNE. The study further investigates the use of a time warping regularisation parameter. It is derived that implementing time as a feature has the same effect as penalising time warping, andtherefore time is implemented as a feature where the feature weight is equivalent to a regularisation parameter. The results show that the proposed method successfully identifies clusters in customer transaction data provided by Nordea. Furthermore, the results show a decrease in the silhouette score with an increase in the regularisation parameter, suggesting that the time at which a transaction occurred might not be of relevance to the given dataset. However, due to the method’s high computational complexity, it is limited to relatively small datasets and therefore a need exists for a more scalable and efficient clustering technique. / Denna uppsats utforskar klustring av ojämnt fördelade tidsserier med numeriska och kategoriska variabler för kundsegmentering. Den föreslagna metoden implementerar Gower dissimilaritet som avståndsfunktionen i dynamic time warping för att beräkna dissimilaritet mellan tidsserierna. Tidsserierna klustras sedan med k-medoids och klustren utvärderas med silhouette score och t-SNE. Studien undersökte vidare användningen av en regulariserings parameter. Det härledes att implementering av tid som en egenskap hade samma effekt som att bestraffa dynamic time warping, och därför implementerades tid som en egenskap där dess vikt är ekvivalent med en regulariseringsparameter.  Resultaten visade att den föreslagna metoden lyckades identifiera kluster i transaktionsdata från Nordea. Vidare visades det att silhouette score minskade då regulariseringsparametern ökade, vilket antyder att tiden transaktion då en transaktion sker inte är relevant för det givna datan. Det visade sig ytterligare att metoden är begränsad till reltaivt små dataset på grund av dess höga beräkningskomplexitet, och därför finns det behov av att utforksa en mer skalbar och effektiv klusteringsteknik.
38

Infeasibility detection and regularization strategies in nonlinear optimization / Détection de la non-réalisabilité et stratégies de régularisation en optimisation non linéaire

Tran, Ngoc Nguyen 26 October 2018 (has links)
Dans cette thèse, nous nous étudions des algorithmes d’optimisation non linéaire. D’une part nous proposons des techniques de détection rapide de la non-réalisabilité d’un problème à résoudre. D’autre part, nous analysons le comportement local des algorithmes pour la résolution de problèmes singuliers. Dans la première partie, nous présentons une modification d’un algorithme de lagrangien augmenté pour l’optimisation avec contraintes d’égalité. La convergence quadratique du nouvel algorithme dans le cas non-réalisable est démontrée théoriquement et numériquement. La seconde partie est dédiée à l’extension du résultat précédent aux problèmes d’optimisation non linéaire généraux avec contraintes d’égalité et d’inégalité. Nous proposons une modification d’un algorithme de pénalisation mixte basé sur un lagrangien augmenté et une barrière logarithmique. Les résultats théoriques de l’analyse de convergence et quelques tests numériques montrent l’avantage du nouvel algorithme dans la détection de la non-réalisabilité. La troisième partie est consacrée à étudier le comportement local d’un algorithme primal-dual de points intérieurs pour l’optimisation sous contraintes de borne. L’analyse locale est effectuée sans l’hypothèse classique des conditions suffisantes d’optimalité de second ordre. Celle-ci est remplacée par une hypothèse plus faible basée sur la notion de borne d’erreur locale. Nous proposons une technique de régularisation de la jacobienne du système d’optimalité à résoudre. Nous démontrons ensuite des propriétés de bornitude de l’inverse de ces matrices régularisées, ce qui nous permet de montrer la convergence superlinéaire de l’algorithme. La dernière partie est consacrée à l’analyse de convergence locale de l’algorithme primal-dual qui est utilisé dans les deux premières parties de la thèse. En pratique, il a été observé que cet algorithme converge rapidement même dans le cas où les contraintes ne vérifient l’hypothèse de qualification de Mangasarian-Fromovitz. Nous démontrons la convergence superlinéaire et quadratique de cet algorithme, sans hypothèse de qualification des contraintes. / This thesis is devoted to the study of numerical algorithms for nonlinear optimization. On the one hand, we propose new strategies for the rapid infeasibility detection. On the other hand, we analyze the local behavior of primal-dual algorithms for the solution of singular problems. In the first part, we present a modification of an augmented Lagrangian algorithm for equality constrained optimization. The quadratic convergence of the new algorithm in the infeasible case is theoretically and numerically demonstrated. The second part is dedicated to extending the previous result to the solution of general nonlinear optimization problems with equality and inequality constraints. We propose a modification of a mixed logarithmic barrier-augmented Lagrangian algorithm. The theoretical convergence results and the numerical experiments show the advantage of the new algorithm for the infeasibility detection. In the third part, we study the local behavior of a primal-dual interior point algorithm for bound constrained optimization. The local analysis is done without the standard assumption of the second-order sufficient optimality conditions. These conditions are replaced by a weaker assumption based on a local error bound condition. We propose a regularization technique of the Jacobian matrix of the optimality system. We then demonstrate some boundedness properties of the inverse of these regularized matrices, which allow us to prove the superlinear convergence of our algorithm. The last part is devoted to the local convergence analysis of the primal-dual algorithm used in the first two parts of this thesis. In practice, it has been observed that this algorithm converges rapidly even in the case where the constraints do not satisfy the Mangasarian-Fromovitz constraint qualification. We demonstrate the superlinear and quadratic convergence of this algorithm without any assumption of constraint qualification.
39

Integration of magnetic resonance spectroscopic imaging into the radiotherapy treatment planning / Intégration des cartes métaboliques d'imagerie spectroscopique à la planification de radiothérapie

Laruelo Fernandez, Andrea 24 May 2016 (has links)
L'objectif de cette thèse est de proposer de nouveaux algorithmes pour surmonter les limitations actuelles et de relever les défis ouverts dans le traitement de l'imagerie spectroscopique par résonance magnétique (ISRM). L'ISRM est une modalité non invasive capable de fournir la distribution spatiale des composés biochimiques (métabolites) utilisés comme biomarqueurs de la maladie. Les informations fournies par l'ISRM peuvent être utilisées pour le diagnostic, le traitement et le suivi de plusieurs maladies telles que le cancer ou des troubles neurologiques. Cette modalité se montre utile en routine clinique notamment lorsqu'il est possible d'en extraire des informations précises et fiables. Malgré les nombreuses publications sur le sujet, l'interprétation des données d'ISRM est toujours un problème difficile en raison de différents facteurs tels que le faible rapport signal sur bruit des signaux, le chevauchement des raies spectrales ou la présence de signaux de nuisance. Cette thèse aborde le problème de l'interprétation des données d'ISRM et la caractérisation de la rechute des patients souffrant de tumeurs cérébrales. Ces objectifs sont abordés à travers une approche méthodologique intégrant des connaissances a priori sur les données d'ISRM avec une régularisation spatio-spectrale. Concernant le cadre applicatif, cette thèse contribue à l'intégration de l'ISRM dans le workflow de traitement en radiothérapie dans le cadre du projet européen SUMMER (Software for the Use of Multi-Modality images in External Radiotherapy) financé par la Commission européenne (FP7-PEOPLE-ITN). / The aim of this thesis is to propose new algorithms to overcome the current limitations and to address the open challenges in the processing of magnetic resonance spectroscopic imaging (MRSI) data. MRSI is a non-invasive modality able to provide the spatial distribution of relevant biochemical compounds (metabolites) commonly used as biomarkers of disease. Information provided by MRSI can be used as a valuable insight for the diagnosis, treatment and follow-up of several diseases such as cancer or neurological disorders. Obtaining accurate and reliable information from in vivo MRSI signals is a crucial requirement for the clinical utility of this technique. Despite the numerous publications on the topic, the interpretation of MRSI data is still a challenging problem due to different factors such as the low signal-to-noise ratio (SNR) of the signals, the overlap of spectral lines or the presence of nuisance components. This thesis addresses the problem of interpreting MRSI data and characterizing recurrence in tumor brain patients. These objectives are addressed through a methodological approach based on novel processing methods that incorporate prior knowledge on the MRSI data using a spatio-spectral regularization. As an application, the thesis addresses the integration of MRSI into the radiotherapy treatment workflow within the context of the European project SUMMER (Software for the Use of Multi-Modality images in External Radiotherapy) founded by the European Commission (FP7-PEOPLE-ITN framework).
40

Advances Techniques for Time-Domain Modelling of High-Frequency Train/Track Interaction

Giner Navarro, Juan 07 November 2017 (has links)
[EN] The aim of the present Thesis is to develop models for the study of very high-frequency phenomena associated with the coupling dynamics of a railway vehicle with the track. Through these models, this Thesis intends to address squeal noise as a particular case of rolling noise when the train negotiates a small radius curve. Wheel/rail interaction is the predominant source of noise emission in railway operations. Rolling contact couples the wheel and the rail through a very small area, characterised by strongly non-linear and non-steady state dynamics that differentiates rolling noise from any other noise problem. Wheel/rail contact problem is studied based on Kalker's variational theory and the local falling behaviour of the coefficient of friction is introduced by means of a regularisation of Coulomb's law. Its implementation shows that the influence of the falling friction on the creep curves can be assumed negligible, thus rolling contact is finally modelled using a constant coefficient of friction. Flexibility is introduced in railway substructures through the Finite Element (FE) method in order to cover the high-frequency range. This work adopts a rotatory wheelset model that takes computational advantage of its rotational symmetry. It also develops a cyclic flexible rail model that fixes the translational contact force in a spatial point of the mesh through a technique called Moving Element (ME) method. A modal approach is used to reduce significantly the number of degrees of freedom of the global problem and a diagonalisation technique permits to decouple the resulting modal equations of motion in order to increase the computational velocity of the time integrator. Simulations in curving conditions in the time domain are carried out for constant friction conditions in order to study if the proposed interaction model can reproduce squeal characteristics for different curve radii and coefficients of friction. / [ES] El objetivo de la presente Tesis es desarrollar modelos para el estudio de fenómenos de muy alta frecuencia asociados a la dinámica acoplada de un vehículo ferroviario con la vía. A través de estos modelos, esta Tesis pretende abordar el fenómeno de los chirridos como un caso particular de ruido de rodadura en condiciones de curva cerrada. La interacción rueda/carril es la fuente predominante de ruido en las operaciones ferroviarias. El contacto es el responsable del acoplamiento entre la rueda y el carril a través de un área muy pequeña caracterizada por una dinámica fuertemente no lineal y no estacionaria. El problema de contacto rueda/carril se estudia mediante la teoría variacional de Kalker y la caída local del coeficiente de fricción se introduce por medio de una regularización de la ley de Coulomb, que muestra que su influencia sobre las curvas de fluencia se puede despreciar. Como consecuencia, el coeficiente de fricción se considera constante. La flexibilidad se introduce en las subestructuras ferroviarias a través del método de los Elementos Finitos (EF) para cubrir el rango de las altas frecuencias. La Tesis adopta un modelo de eje montado rotatorio que toma ventaja computacional de su simetría rotacional. También desarrolla un modelo de carril flexible y cíclico que fija la fuerza de contacto en un punto espacial de la malla mediante el método de los Elementos Móviles (EM). Se utiliza un enfoque modal para reducir significativamente el número de grados de libertad del problema global; las ecuaciones de movimiento resultantes en coordenadas modales se desacoplan mendiante una técnica de diagonalización para aumentar la velocidad computacional del integrador temporal. Las simulaciones en condiciones de curva en el dominio del tiempo se llevan a cabo en condiciones de fricción constante con el objetivo de estudiar si el modelo de interacción propuesto puede reproducir las características del chirrido en curva para diferentes radios de curva y coeficientes de fricción. / [CAT] L'objectiu de la present Tesi és desenvolupar models per a l'estudi de fenòmens de molt alta freqüència associats amb la dinàmica acoblada d'un vehicle ferroviari amb la via. Aquests models permeten simular el soroll de rodament encara que, en particular, aquest treball es proposa abordar el fenomen del soroll grinyolant produït quan el tren negocia un radi de curvatura estret. La interacció roda/carril és la font predominant de l'emissió de soroll en les operacions ferroviàries. El contacte acobla la roda i el carril a través d'una àrea molt reduïda que es caracteritza per una dinàmica fortament no lineal i no estacionària. El problema de contacte roda/carril s'estudia mitjançant la teoria variacional de Kalker i el descens local del coeficient de fricció s'introdueix per mitjà d'una regularització de la llei de Coulomb, què demostra que la seua influència en les corbes de fluència es pot suposar insignificant. Per tant, s'utilitza un coeficient de fricció constant per a modelar el contacte. La flexibilitat s'introdueix en les subestructures de ferrocarril a través del mètode d'Elements Finits (EF) per tal de cobrir el rang d'alta freqüència. La present tesi adopta un model d'eix muntat rotatori que s'aprofita de la seua la simetria rotacional per a augmentar la eficiència computacional. També desenvolupa un model de carril flexible i cíclic que fixa la força de contacte en un punt espacial de la malla a través del mètode dels Elements Mòbils (EM). S'empra un enfocament modal per reduir significativament el nombre de graus de llibertat del problema global, al temps que s'implementa una tècnica diagonalització que permet desacoblar les equacions modals de moviment per a augmentar la velocitat computacional de l'integrador temporal. Les simulacions en les condicions de corba en el domini del temps es duen a terme per a condicions de fricció constant per tal d'estudiar si el model d'interacció proposat pot reproduir les característiques del soroll grinyolant per a diferents radis de corba i coeficients de fricció. / Giner Navarro, J. (2017). Advances Techniques for Time-Domain Modelling of High-Frequency Train/Track Interaction [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/90637

Page generated in 0.1117 seconds