• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 133
  • 24
  • 12
  • 7
  • 5
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 213
  • 53
  • 31
  • 30
  • 29
  • 27
  • 24
  • 21
  • 21
  • 20
  • 19
  • 19
  • 19
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Proximal structured sparsity regularization for online reconstruction in high-resolution accelerated Magnetic Resonance imaging / Algorithmes de structures paricmonieuses pour la reconstruction en-ligne d'image haute résolution en IRM

El Gueddari, Loubna 13 December 2019 (has links)
L'imagerie par résonance magnétique (IRM) est la technique d'imagerie médicale de référence pour sonder in vivo et non invasivement les tissus mous du corps humain, en particulier le cerveau.L'amélioration de la résolution de l'IRM en un temps d'acquisition standard (400µm isotrope en 15 minutes) permettrait aux médecins d'améliorer considérablement leur diagnostic et le suivi des patients. Cependant, le temps d'acquisition en IRM reste long. Pour réduire ce temps, la récente théorie de l'échantillonnage comprimée (EC) a révolutionné la façon d'acquérir des données dans plusieurs domaines dont l'IRM en surmontant le théorème de Shannon-Nyquist. Avec l'EC, les données peuvent alors être massivement sous-échantillonnées tout en assurant des conditions optimales de reconstruction des images.Dans ce contexte, les thèses de doctorat précédemment soutenue au sein du laboratoire ont été consacrées à la conception et à la mise en oeuvre de scénarios d'acquisition physiquement plausibles pour accélérer l'acquisitions. Un nouvel algorithme d'optimisation pour la conception de trajectoire non cartésienne avancée appelée SPARKLING pour Spreading Projection Algorithm for Rapid K-space samplING en est né. Les trajectoires SPARKLING générées ont conduit à des facteurs d'accélération allant jusqu'à 20 en 2D et 70 pour les acquisitions 3D sur des images à haute résolution pondérées en T*₂ acquises à 7 Tesla. Ces accélérations n'étaient accessibles que grâce au rapport signal/bruit d'entrée élevé fourni par l'utilisation de bobines de réception multi-canaux (IRMp). Cependant, ces résultats ont été obtenus au détriment d'une reconstruction longue et complexe. Dans cette thèse, l'objectif est de proposer une nouvelle approche de reconstruction en ligne d'images acquies par IRMp non cartésiennes. Pour atteindre cet objectif, nous nous appuyons sur une approche en ligne où reconstruction et acquisition s'entremèlent. Par conséquent, la reconstruction débute avant la fin de l'acquisition et un résultat partiel est délivré au cours de l'examen. L'ensemble du pipeline est compatible avec une implémentation réelle à travers l'interface Gadgetron pour produire les images reconstruites à la console du scanner.Ainsi, après avoir exposé la théorie de l'échantillonage comprimé, nous présentons l'état de l'art de la méthode dédiée à la reconstruction en imagerie multi-canaux. En particulier, nous nous concentrerons d'abord sur les méthodes d'autocalibration qui présentent l'avantage d'être adaptées à l'échantillonnage non cartésien et nous proposons une méthode simple mais efficace pour estimer le profil de sensibilité des différents cannaux. Cependant, en raison de leur dépendance au profil de sensibilité, ces méthodes ne sont pas adapatable à la reconstruction en ligne. Par conséquent, la deuxième partie se concentre sur la suppression des ces profils et celà grâce à l'utilisation de norme mixte promouvant une parcimonie structurée. Ensuite, nous adaptons différentes réularization basées sur la parcimonie structurée pour reconstruire ces images fortement corrélées. Enfin, la méthode retenue sera appliquée à l'imagerie en ligne. / Magnetic resonance imaging (MRI) is the reference medical imaging technique for probing in vivo and non-invasively soft tissues in the human body, notably the brain. MR image resolution improvement in a standard scanning time (e.g., 400µm isotropic in 15 min) would allow medical doctors to significantly improve both their diagnosis and patients' follow-up. However the scanning time in MRI remains long, especially in the high resolution context. To reduce this time, the recent Compressed Sensing (CS) theory has revolutionized the way of acquiring data in several fields including MRI by overcoming the Shannon-Nyquist theorem. Using CS, data can then be massively under-sampled while ensuring conditions for optimal image recovery.In this context, previous Ph.D. thesis in the laboratory were dedicated to the design and implementation of physically plausible acquisition scenarios to accelerate the scan. Those projects deliver new optimization algorithm for the design of advanced non-Cartesian trajectory called SPARKLING: Spreading Projection Algorithm for Rapid K-space samplING. The generated SPARKLING trajectories led to acceleration factors up to 20 in 2D and 60 for 3D-acquisitions on highly resolved T₂* weighted images acquired at 7~Tesla.Those accelerations were only accessible thanks to the high input Signal-to-Noise Ratio delivered by the usage of multi-channel reception coils. However, those results are coming at a price of long and complex reconstruction.In this thesis, the objective is to propose an online approach for non-Cartesian multi-channel MR image reconstruction. To achieve this goal we rely on an online approach where the reconstruction starts from incomplete data.Hence acquisition and reconstruction are interleaved, and partial feedback is given during the scan. After exposing the Compressed Sensing theory, we present state-of the art method dedicated to multi-channel coil reconstruction. In particular, we will first focus on self-calibrating methods that presents the advantage to be adapted to non-Cartesian sampling and we propose a simple yet efficient method to estimate the coil sensitivity profile.However, owing to its dependence to user-defined parameters, this two-step approach (extraction of sensitivity maps and then image reconstruction) is not compatible with the timing constraints associated with online reconstruction. Then we studied the case of calibration-less reconstruction methods and splits them into two categories, the k-space based and the domain-based. While the k-space calibration-less method are sub-optimal for non-Cartesian reconstruction, due to the gridding procedure, we will retain the domain-based calibration-less reconstruction and prove theirs for online purposes. Hence in the second part, we first prove the advantage of mixed norm to improve the recovery guarantee in the pMRI setting. Then we studied the impact of structured sparse induced norm on the reconstruction multi-channel purposes, where then and adapt different penalty based on structured sparsity to handle those highly correlated images. Finally, the retained method will be applied to online purposes. The entire pipeline, is compatible with an implementation through the Gadgetron pipeline to deliver the reconstruction at the scanner console.
122

Statistical inference of Ornstein-Uhlenbeck processes : generation of stochastic graphs, sparsity, applications in finance / Inférence statistique de processus d'Ornstein-Uhlenbeck : génération de graphes stochastiques, sparsité, applications en finance

Matulewicz, Gustaw 15 December 2017 (has links)
Le sujet de cette thèse est l'inférence statistique de processus d'Ornstein-Uhlenbeck multi-dimensionnels. Dans une première partie, nous introduisons un modèle de graphes stochastiques définis comme observations binaires de trajectoires. Nous montrons alors qu'il est possible de déduire la dynamique de la trajectoire sous-jacente à partir des observations binaires. Pour ceci, nous construisons des statistiques à partir du graphe et montrons de nouvelles propriétés de convergence dans le cadre d'une observation en temps long et en haute fréquence. Nous analysons aussi les propriétés des graphes stochastiques du point de vue des réseaux évolutifs. Dans une deuxième partie, nous travaillons sous l'hypothèse d'information complète et en temps continu et ajoutons une hypothèse de sparsité concernant le paramètre de textit{drift} du processus d'Ornstein-Uhlenbeck. Nous montrons alors des propriétés d'oracle pointues de l'estimateur Lasso, prouvons une borne inférieure sur l'erreur d'estimation au sens minimax et démontrons des propriétés d'optimalité asymptotique de l'estimateur Lasso Adaptatif. Nous appliquons ensuite ces méthodes pour estimer la vitesse de retour à la moyenne des retours journaliers d'actions américaines ainsi que des prix de futures de dividendes pour l'indice EURO STOXX 50. / The subject if this thesis is the statistical inference of multi-dimensional Ornstein-Uhlenbeck processes. In a first part, we introduce a model of stochastic graphs, defined as binary observations of a trajectory. We show then that it is possible to retrieve the dynamic of the underlying trajectory from the binary observations. For this, we build statistics of the stochastic graph and prove new results on their convergence in the long-time, high-frequency setting. We also analyse the properties of the stochastic graph from the point of view of evolving networks. In a second part, we work in the setting of complete information and continuous time. We add then a sparsity assumption applied to the drift matrix coefficient of the Ornstein-Uhlenbeck process. We prove sharp oracle inequalities for the Lasso estimator, construct a lower bound on the estimation error for sparse estimators and show optimality properties of the Adaptive Lasso estimator. Then, we apply the methods to estimate mean-return properties of real-world financial datasets: daily returns of SP500 components and EURO STOXX 50 Dividend Future prices.
123

Estimation spectrale parcimonieuse de signaux à échantillonnage irrégulier : application à l’analyse vibratoire d’aubes de turbomachines à partir de signaux tip-timing / Sparse spectral analysis of irregularly sampled signals : application to the vibrating analysis of turbomachine blades from tip-timing signals

Bouchain, Antoine 25 April 2019 (has links)
Dans le cadre de la certification de ses moteurs d'hélicoptères, Safran Helicopter Engines réalise des essais en fonctionnement lors desquels les réponses vibratoires de turbomachines (compresseurs et turbines) sont mesurées. Les réponses vibratoires contiennent des modes (ou raies spectrales) dont les fréquences et amplitudes doivent être caractérisées. Les mesures sont réalisées par la technologie tip-timing qui permet d'observer les vibrations de toutes les pales d'un aubage en rotation.Cependant, la technologie tip-timing présente deux spécificités importantes. Premièrement, l'échantillonnage des signaux de vibrations est irrégulier quasi-périodique. Deuxièmement, l'ordre de grandeur des fréquences de vibration est généralement supérieur à la fréquence d'échantillonnage équivalente. Ces deux caractéristiques donnent lieu à des artefacts des composantes fréquentielles sur les spectres des signaux de vibrations. Ceux-ci gênent alors fortement l'identification du contenu spectral et perturbent donc l'interprétation du comportement vibratoire des pales.La nouvelle méthode d'analyse spectrale proposée s'appuie sur une modélisation parcimonieuse des signaux tip-timing et prend en compte les variations de la fréquence de rotation. L'analyse spectrale des signaux est alors réalisée par la minimisation d'un critère des moindres carrés linéaires régularisé par une pénalisation de "norme-l0" par l'algorithme Block-OMP.À l'aide de résultats numériques sur signaux synthétiques, il est démontré que cette méthode fournit de bonnes performances d'estimations des composantes spectrales et réalise une réduction importante de leurs artefacts. La prise en compte des variations de la fréquence de rotation permet en effet de tirer profit de l'utilisation de longues durées d'observation afin de réduire significativement les artefacts des composantes fréquentielles contenus dans les spectres. Par ailleurs, avec des performances légèrement meilleures à celles de l'ESMV (méthode reconnue pour l'analyse spectrale des signaux tip-timing), la méthode proposée est environ cent fois plus rapide.Deux cas de données réelles sont étudiés. À travers une détection de crique de pale, le premier cas d'étude montre que la méthode proposée est pertinente et réalise des estimations comparables aux méthodes industrielles. Le second cas d'étude présente plusieurs vibrations synchrones et asynchrones simultanées. Cela met en avant la capacité de réduction des artefacts des composantes fréquentielles de la méthode développée afin de faciliter l'interprétation du contenu vibratoire complexe de ce signal.L'optimisation du placement des sondes tip-timing est également étudiée pour faciliter l'identification des composantes synchrones. À partir de résultats numériques, il est démontré qu'éloigner les capteurs améliore l'estimation des amplitudes ce type de composantes. / As part of the certification of its helicopter engines, Safran Helicopter Engines performs operational tests in which the vibrations responses of turbomachines (compressors and turbines) are measured. The vibratory responses contain modes (or spectral lines) whose frequencies and amplitudes must be characterized. The measurements are provided by the tip-timing technology which can observe the vibrations of all the blades while rotating.However, tip-timing technology has two important features. Firstly, the sampling of the vibrating signals is irregular quasi-periodic. Secondly, the vibrating frequencies are generally higher than the equivalent sampling frequency. These two characteristics generate frequency components artefacts onto the vibrating signals spectrum. As a consequence, they strongly hinder the identification of the spectral content and thus disturb the interpretation of the blades vibratory behaviour.The proposed new spectral analysis method relies on sparse modelling of the tip-timing signals and considers the variations of the rotational frequency. The spectral analysis of the signals is then performed by the minimization of a linear least squares criterion regularized by a penalty of "norm-l0" by the Block-OMP algorithm.Using numerical results from synthetic signals, it is shown that this method provides good spectral component estimation performances and achieves a significant reduction of their artefacts. Considering the variations of the rotational frequency allows to take advantage of the use of long observation periods in order to significantly reduce the frequency components artefacts contained in the spectrum. In addition, with slightly better performances than the ESMV (acknowledged method for the tip-timing signals spectral analysis), the proposed method is about a hundred times faster.Two cases of real data are studied. Through a detection of a blade crack, the first studied case shows that the proposed method is relevant and makes equivalent estimates with respect to industrial methods. The second studied case presents several simultaneous synchronous and asynchronous vibrations. That highlights the ability to reduce the frequency components artefacts of the developed method in order to simplify the interpretation of the complex vibratory content of this signal.The optimization of the positioning of the tip-timing probes is also studied in order to simplify the identification of synchronous components. From numerical results, it is demonstrated that moving away the probes improves the amplitudes estimation of this type of components.
124

Localisation de sources dispersées : Performances de MUSIC en présence d'erreurs de modèle et estimation parcimonieuse à rang faible. / Localization of distributed sources : MUSIC performance with model error and low rank sparse estimator.

Xiong, Wenmeng 19 October 2016 (has links)
Cette thèse porte sur la localisation de sources spatialement distribuées. Premièrement, des résultats théoriques ont été établis concernant les performances des méthodes à haute résolution en présence d'erreurs de modèle dues à la distribution angulaire de source. Ainsi, le biais d'estimation et l'erreur quadratique moyenne sont exprimées en fonction des paramètres liés à l'erreur de modèle. De plus, les performances ont été étudiées en fonction de la géométrie de l'antenne afin de déterminer les configurations les plus robustes aux sources dispersées.Les résultats théoriques ont été validés par des simulations numériques. Dans un deuxième temps, une nouvelle approche non paramétrique a été proposée pour la localisation de sources distribuées : cette approche exploite les propriétés de parcimonie et de rang-faible de la matrice de covariance spatiale des sources. Cette méthode permet en outre d'estimer la forme de la distribution spatiale des sources. Les résultats de simulations ont permis de mettre en avant l'intérêt de l'hypothèse rang faible par rapport aux critères exploitant uniquement la parcimonie / This thesis focuses on the distributed source localization problem. In a first step, performance of high resolution methods in the presence of model errors due to the angular distribution of source has been studied. Theoretical expressions of the estimation bias and the mean square error of the direction of arrival of sources have been established in terms of model error. The impacts of the array geometry on the performances have studied in order to optimize the robustness of the array to the model error due to distributed sources.Theoretical results have been validated by numerical simulations.In a second step, a new approach for the localization of spatially distributed source has been proposed: the approach is based on the sparsity and low-rank property of the spatial covariance matrix of the sources. The proposed method provides also an estimation of the distribution shapes of the sources. Simulation results exhibit the advantages of exploiting the sparsity and the low rank properties.
125

Apprentissage d'estimateurs sans modèle avec peu de mesures - Application à la mécanique des fluides / Machine learning of model-less estimators using a limited amount of sensors - Applied to fluid flows

Kasper, Kévin 12 October 2016 (has links)
Cette thèse traite de techniques promouvant la parcimonie pour déterminer des estimateurs performants n’utilisant les mesures que d’un très faible nombre de capteurs. La position de ces capteurs est cruciale pour de bonnes performances et doit être déterminée avec soin. Les méthodes proposées dans ce travail reposent sur l’utilisation d’une base d’apprentissage du champ d’intérêt considéré et ne nécessitent pas de modèle dynamique du système physique. Les éléments de cette base d’apprentissage sont obtenus à l’aide de mesures effectuées sur le système réel ou par simulation numérique. Se basant uniquement sur ces éléments d’apprentissage, et non sur des modèles dynamiques, les approches proposées sont générales et applicables à des systèmes issus de domaines variés.Les approches proposées sont illustrées sur le cas d’un écoulement fluide 2-D autour d’un obstacle cylindrique. Le champ de pression dans un voisinage du cylindre doit être estimé à partir de quelques mesures de pression effectuées en paroi. En utilisant des positions préalablement fixées des capteurs, des estimateurs adaptés à ces positions sont proposés. Ces estimateurs tirent pleinement parti du très faible nombre de mesures en manipulant des représentations creuses et en exploitant la notion de classes. Des situations où les mesures ne portent pas sur le champ d’intérêt à estimer peuvent également être traitées. Un algorithme de placement de capteurs est proposé et permet une amélioration significative des performances des estimateurs par rapport à des capteurs placés a priori.Plusieurs extensions sont discutées : utilisation de mesures passées, utilisation de commandes passées, estimation du champ d’une quantité d’intérêt reliée de façon non linéaire aux mesures, estimation d’un champ à valeurs vectorielles, etc. / This thesis deals with sparsity promoting techniques in order to produce efficient estimators relying only on a small amount of measurements given by sensors. These sensor locations are crucial to the estimators and have to be chosen meticulously. The proposed methods do not require dynamical models and are instead based on a collection of snapshots of the field of interest. This learning sequence can be acquired through measurements on the real system or through numerical simulation. By relying only on a learning sequence, and not on dynamical models, the proposed methods become general and applicable to a variety of systems.These techniques are illustrated on the 2-D fluid flow around a cylindrical body. The pressure field in the neighbourhood of the cylinder has to be estimated from a limited amount of surface pressure measurements. For a given arrangement of the sensors, efficient estimators suited to these locations are proposed. These estimators fully harness the information given by the limited amount of sensors by manipulating sparse representations and classes. Cases where the measurements are no longer made on the field to be estimated can also be considered. A sensor placement algorithm is proposed in order to improve the performances of the estimators.Multiple extensions are discussed : incorporating past measurements, past control inputs, recovering a field non-linearly related to the measurements, estimating a vectorial field, etc.
126

Computing approximations and generalized solutions using moments and positive polynomials / Moments et polynômes positifs pour le calcul d'approximations et de solutions généralisées

Weisser, Tillmann 03 October 2018 (has links)
Le problème généralisé des moments (PGM) est un problème d'optimisation linéaire sur des espaces de mesures. Il permet de modéliser simplement un grand nombre d'applications. En toute généralité il est impossible à résoudre mais si ses données sont des polynômes et des ensembles semi-algébriques alors on peut définir une hiérarchie de relaxations semidéfinies (SDP) - la hiérarchie moments-sommes-de-carrés (moments-SOS) - qui permet en principe d'approcher la valeur optimale avec une précision arbitraire. Le travail contenu dans cette thèse adresse deux facettes concernants le PGM et la hiérarchie moments-SOS: Une première facette concerne l'évolution des relaxations SDP pour le PGM. Le degré des poids SOS dans la hiérarchie moments-SOS augmente avec l'ordre de relaxation. Lorsque le nombre de variables n'est pas modeste, on obtient rapidement des programmes SDP de taille trop grande pour les logiciels de programmation SDP actuels, sauf si l'on peut utiliser des symétries ou une parcimonie structurée souvent présente dans beaucoup d'applications de grande taille. On présente donc un nouveau certificat de positivité sur un compact semi-algébrique qui (i) exploite la parcimonie présente dans sa description, et (ii) dont les polynômes SOS ont un degré borné à l'avance. Grâce à ce nouveau certificat on peut définir une nouvelle hiérarchie de relaxations SDP pour le PGM qui exploite la parcimonie et évite l'explosion de la taille des matrices semidéfinies positives liée au degré des poids SOS dans la hiérarchie standard. Une deuxième facette concerne (i) la modélisation de nouvelles applications comme une instance particulière du PGM, et (ii) l'application de la méthodologie moments-SOS pour leur résolution. En particulier on propose des approximations déterministes de contraintes probabilistes, un problème difficile car le domaine des solutions admissibles associées est souvent non-convexe et même parfois non connecté. Dans notre approche moments-SOS le domaine admissible est remplacé par un ensemble plus petit qui est le sous-niveau d'un polynôme dont le vecteur des coefficients est une solution optimale d'un certain SDP. La qualité de l'approximation (interne) croît avec le degré du polynôme et la taille du SDP. On illustre cette approche dans le problème du calcul du flux de puissance optimal dans les réseaux d'énergie, une application stratégique où la prise en compte des contraintes probabilistes devient de plus en plus cruciale (e.g., pour modéliser l'incertitude liée á l'énergie éolienne et solaire). En outre on propose une extension des cette procedure qui est robuste à l'incertitude sur la distribution sous-jacente. Des garanties de convergence sont fournies. Une deuxième contribution concerne l'application de la méthodologie moments-SOS pour l'approximation de solutions généralisés en commande optimale. Elle permet de capturer le comportement limite d'une suite minimisante de commandes et de la suite de trajectoires associée. On peut traiter ainsi le cas de phénomènes simultanés de concentrations de la commande et de discontinuités de la trajectoire. Une troisième contribution concerne le calcul de solutions mesures pour les lois de conservation hyperboliques scalaires dont l'exemple typique est l'équation de Burgers. Cette classe d'EDP non linéaire peut avoir des solutions discontinues difficiles à approximer numériquement avec précision. Sous certaines hypothèses, la solution mesurepeut être identifiée avec la solution classique (faible) à la loi de conservation. Notre approche moment-SOS fournit alors une méthode alternative pour approcher des solutions qui contrairement aux méthodes existantes évite une discrétisation du domaine. / The generalized moment problem (GMP) is a linear optimization problem over spaces of measures. It allows to model many challenging mathematical problems. While in general it is impossible to solve the GMP, in the case where all data are polynomial and semialgebraic sets, one can define a hierarchy of semidefinite relaxations - the moment-sums-of-squares (moment-SOS) hierachy - which in principle allows to approximate the optimal value of the GMP to arbitrary precision. The work presented in this thesis addresses two facets concerning the GMP and the moment-SOS hierarchy: One facet is concerned with the scalability of relaxations for the GMP. The degree of the SOS weights in the moment-SOS hierarchy grows when augmenting the relaxation order. When the number of variables is not small, this leads quickly to semidefinite programs (SDPs) that are out of range for state of the art SDP solvers, unless one can use symmetries or some structured sparsity which is typically present in large scale applications. We provide a new certificate of positivity which (i) is able to exploit the structured sparsity and (ii) only involves SOS polynomials of fixed degree. From this, one can define a new hierarchy of SDP relaxations for the GMP which can take into account sparsity and at the same time prevents from explosion of the size of SDP variables related to the increasing degree of the SOS weights in the standard hierarchy. The second facet focusses on (i) modelling challenging problems as a particular instance of the GMP and (ii) solving these problems by applying the moment-SOS hierarchy. In particular we propose deterministic approximations of chance constraints a difficult problem as the associated set of feasible solutions is typically non-convex and sometimes not even connected. In our approach we replace this set by a (smaller) sub-level-set of a polynomial whose vector of coefficients is a by-product of the moment-SOS hierarchy when modeling the problem as an instance of the GMP. The quality of this inner approximation improves when increasing the degree of the SDP relaxation and asymptotic convergence is guaranteed. The procedure is illustrated by approximating the feasible set of an instance of the chance-constrained AC Optimal Power Flow problem (a nonlinear problem in the management of energy networks) which nowadays becomes more and more important as we rely increasingly on uncertain energy sources such as wind and solar power. Furthermore, we propose an extension of this framework to the case where the underlying distribution itself is uncertain and provide guarantees of convergence. Another application of the moment-SOS methodology discussed in this thesis consider measure valued solutions to optimal control problems. We show how this procedure can capture the limit behavior of an optimizing sequence of control and its corresponding sequence of trajectories. In particular we address the case of concentrations of control and discontinuities of the trajectory may occur simultaneously. In a final contribution, we compute measure valued solutions to scalar hyperbolic conservation laws, such as Burgers equation. It is known that this class of nonlinear partial differential equations has potentially discontinuous solutions which are difficult to approximate numerically with accuracy. Under some conditions the measure valued solution can be identified with the classical (weak) solution to the conservation law. In this case our moment-SOS approach provides an alternative numerical scheme to compute solutions which in contrast to existing methods, does not rely on discretization of the domain.
127

Iterative methods for the solution of the electrical impedance tomography inverse problem.

Alruwaili, Eman January 2023 (has links)
No description available.
128

Calibration of trip distribution by generalised linear models

Shrewsbury, John Stephen January 2012 (has links)
Generalised linear models (GLMs) provide a flexible and sound basis for calibrating gravity models for trip distribution, for a wide range of deterrence functions (from steps to splines), with K factors and geographic segmentation. The Tanner function fitted Wellington Transport Strategy Model data as well as more complex functions and was insensitive to the formulation of intrazonal and external costs. Weighting from variable expansion factors and interpretation of the deviance under sparsity are addressed. An observed trip matrix is disaggregated and fitted at the household, person and trip levels with consistent results. Hierarchical GLMs (HGLMs) are formulated to fit mixed logit models, but were unable to reproduce the coefficients of simple nested logit models. Geospatial analysis by HGLM showed no evidence of spatial error patterns, either as random K factors or as correlations between them. Equivalence with hierarchical mode choice, duality with trip distribution, regularisation, lorelograms, and the modifiable areal unit problem are considered. Trip distribution is calibrated from aggregate data by the MVESTM matrix estimation package, incorporating period and direction factors in the intercepts. Counts across four screenlines showed a significance similar to a thousand-household travel survey. Calibration was possible only in conjuction with trip end data. Criteria for validation against screenline counts were met, but only if allowance was made for error in the trip end data.
129

Interactive Object Retrieval using Interpretable Visual Models / Recherche Interactive d'Objets à l'Aide de Modèles Visuels Interprétables

Rebai, Ahmed 18 May 2011 (has links)
L'objectif de cette thèse est d'améliorer la recherche d'objets visuels à l'aide de l'interactivité avec l'utilisateur. Notre solution est de construire un système intéractif permettant aux utilisateurs de définir leurs propres concepts visuels à partir de certains mots-clés visuels. Ces mots-clés visuels, qui en théorie représentent les mots visuels les plus informatifs liés à une catégorie d'objets, sont appris auparavant à l'aide d'un algorithme d'apprentissage supervisé et d'une manière discriminative. Le challenge est de construire des mots-clés visuels concis et interprétables. Notre contribution repose sur deux points. D'abord, contrairement aux approches existantes qui utilisent les sacs de mots, nous proposons d'employer les descripteurs locaux sans aucune quantification préalable. Deuxièmement, nous proposons d'ajouter une contrainte de régularisation à la fonction de perte de notre classifieur pour favoriser la parcimonie des modèles produits. La parcimonie est en effet préférable pour sa concision (nombre de mots visuels réduits) ainsi pour sa diminution du temps de prédiction. Afin d'atteindre ces objectifs, nous avons développé une méthode d'apprentissage à instances multiples utilisant une version modifiée de l'algorithme BLasso. Cet algorithme est une forme de boosting qui se comporte similairement au LASSO (Least Absolute Shrinkage and Selection Operator). Il régularise efficacement la fonction de perte avec une contrainte additive de type L1 et ceci en alternant entre des itérations en avant et en arrière. La méthode proposée est générique dans le sens où elle pourrait être utilisée avec divers descripteurs locaux voire un ensemble structuré de descripteurs locaux qui décrit une région locale de l'image. / This thesis is an attempt to improve visual object retrieval by allowing users to interact with the system. Our solution lies in constructing an interactive system that allows users to define their own visual concept from a concise set of visual patches given as input. These patches, which represent the most informative clues of a given visual category, are trained beforehand with a supervised learning algorithm in a discriminative manner. Then, and in order to specialize their models, users have the possibility to send their feedback on the model itself by choosing and weighting the patches they are confident of. The real challenge consists in how to generate concise and visually interpretable models. Our contribution relies on two points. First, in contrast to the state-of-the-art approaches that use bag-of-words, we propose embedding local visual features without any quantization, which means that each component of the high-dimensional feature vectors used to describe an image is associated to a unique and precisely localized image patch. Second, we suggest using regularization constraints in the loss function of our classifier to favor sparsity in the models produced. Sparsity is indeed preferable for concision (a reduced number of patches in the model) as well as for decreasing prediction time. To meet these objectives, we developed a multiple-instance learning scheme using a modified version of the BLasso algorithm. BLasso is a boosting-like procedure that behaves in the same way as Lasso (Least Absolute Shrinkage and Selection Operator). It efficiently regularizes the loss function with an additive L1-constraint by alternating between forward and backward steps at each iteration. The method we propose here is generic in the sense that it can be used with any local features or feature sets representing the content of an image region. / تعالج هذه الأطروحة مسألة البحث عن الأشياء في الصور الثابتة و هي محاولة لتحسين نتائج البحث المنتظرة عن طريق تفاعل المستخدم مع النظام . يتمثل الحل المقترح في تصميم نظام تفاعلي يتيح للمستخدم صياغة مفهومه المرئي عن طريق مجموعة مقتضبة من أجزاء صغيرة للصور هي عبارة عن كلمات مفاتيح قد تم تعلمها سابقا عن طريق تعلم آلي استنتاجي . يمكن للمستخدم حينئذ تخصيص أنموذجه أولا بالاختيار ثم بترجيح الأجزاء التي يراها مناسبة . يتمثل التحدي القائم في كيفية توليد نماذج مرئية مفهومة و مقتضبة . نكون قد ساهمنا في هذا المجال بنقطتين أساسيتين تتمثل الأولى في إدماج الواصفات المحلية للصور دون أي تكميم ، و بذلك يكون كل مكون من ناقلات الميزات ذات الأبعاد العالية مرتبط حصريا بمكان وحيد و محدد في الصورة . ثانيا ، نقترح إضافة قيود تسوية لدالة الخسارة من أجل التحصل على حلول متفرقة و مقتضبة . يساهم ذلك في تقلص عدد هذه الأجزاء المرئية و بالتالي في ربح إضافي لوقت التكهن . في إطار تحقيق الأهداف المرسومة ، قمنا بإعداد مشروع تعلم قائم على تعدد الأمثلة يرتكز أساسا على نسخة محورة لخوارزمية بلاسو . تجدر الإشارة في الأخير أنه يمكن توظيف هذا العمل باستخدام نوع أو عدة أنواع من الواصفات المحلية للصور.
130

Déconvolution aveugle parcimonieuse en imagerie échographique avec un algorithme CLEAN adaptatif / Sparse blind deconvolution in ultrasound imaging using an adaptative CLEAN algorithm

Chira, Liviu-Teodor 17 October 2013 (has links)
L'imagerie médicale ultrasonore est une modalité en perpétuelle évolution et notamment en post-traitement où il s'agit d'améliorer la résolution et le contraste des images. Ces améliorations devraient alors aider le médecin à mieux distinguer les tissus examinés améliorant ainsi le diagnostic médical. Il existe déjà une large palette de techniques "hardware" et "software". Dans ce travail nous nous sommes focalisés sur la mise en oeuvre de techniques dites de "déconvolution aveugle", ces techniques temporelles utilisant l'enveloppe du signal comme information de base. Elles sont capables de reconstruire des images parcimonieuses, c'est-à-dire des images de diffuseurs dépourvues de bruit spéculaire. Les principales étapes de ce type de méthodes consistent en i) l'estimation aveugle de la fonction d'étalement du point (PSF), ii) l'estimation des diffuseurs en supposant l'environnement exploré parcimonieux et iii) la reconstruction d'images par reconvolution avec une PSF "idéale". La méthode proposée a été comparée avec des techniques faisant référence dans le domaine de l'imagerie médicale en utilisant des signaux synthétiques, des séquences ultrasonores réelles (1D) et images ultrasonores (2D) ayant des statistiques différentes. La méthode, qui offre un temps d'exécution très réduit par rapport aux techniques concurrentes, est adaptée pour les images présentant une quantité réduite ou moyenne des diffuseurs. / The ultrasonic imaging knows a continuous advance in the aspect of increasing the resolution for helping physicians to better observe and distinguish the examined tissues. There is already a large range of techniques to get the best results. It can be found also hardware or signal processing techniques. This work was focused on the post-processing techniques of blind deconvolution in ultrasound imaging and it was implemented an algorithm that works in the time domain and uses the envelope signal as input information for it. It is a blind deconvolution technique that is able to reconstruct reflectors and eliminate the diffusive speckle noise. The main steps are: the estimation of the point spread function (PSF) in a blind way, the estimation of reflectors using the assumption of sparsity for the examined environment and the reconstruction of the image by reconvolving the sparse tissue with an ideal PSF. The proposed method was tested in comparison with some classical techniques in medical imaging reconstruction using synthetic signals, real ultrasound sequences (1D) and ultrasound images (2D) and also using two types of statistically different images. The method is suitable for images that represent tissue with a reduced amount or average scatters. Also, the technique offers a lower execution time than direct competitors.

Page generated in 0.0301 seconds