• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 440
  • 117
  • 102
  • 48
  • 33
  • 25
  • 14
  • 13
  • 13
  • 6
  • 6
  • 5
  • 5
  • 4
  • 3
  • Tagged with
  • 974
  • 134
  • 120
  • 110
  • 99
  • 86
  • 82
  • 72
  • 71
  • 71
  • 70
  • 70
  • 70
  • 62
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Contribution to fluorescence microscopy, 3D thick samples deconvolution and depth-variant PSF / Contribution à la microscopie de fluorescence, Deconvolution des échantillons épais avec PSF variables en profondeur

Maalouf, Elie 20 December 2010 (has links)
La reconstruction 3D par coupes sériées en microscopie optique est un moyen efficace pour étudier des spécimens biologiques fluorescents. Dans un tel système, la formation d'une image peut être représentée comme une convolution linéaire d'un objet avec une réponse impulsionnelle optique de l'instrument (PSF). Pour une étude quantitative, une estimation de l'objet doit être calculée en utilisant la déconvolution qui est le phénomène inverse de la convolution. Plusieurs algorithmes de déconvolution ont été développés en se basant sur des modèles statistiques ou par inversion directe, mais ces algorithmes se basent sur la supposition de l'invariance spatiale de la PSF pour simplifier et accélérer le processus. Dans certaines configurations optiques la PSF 3D change significativement en profondeur et ignorer ces changements implique des erreurs quantitatives dans l'estimation. Nous proposons un algorithme (EMMA) qui se base sur une hypothèse où l'erreur minimale sur l'estimation par un algorithme ne tenant pas compte de la non-invariance, se situe aux alentours de la position (profondeur) de la PSF utilisée. EMMA utilise des PSF à différentes positions et fusionne les différentes estimations en utilisant des masques d'interpolation linéaires adaptatifs aux positions des PSF utilisées. Pour obtenir des PSF à différentes profondeurs, un algorithme d'interpolation de PSF a également été développé. La méthode consiste à décomposer les PSF mesurées en utilisant les moments de Zernike pseudo-3D, puis les variations de chaque moment sont approximés par une fonction polynomiale. Ces fonctions polynomiales sont utilisées pour interpoler des PSF aux profondeurs voulues. / The 3-D fluorescence microscope has become the method of choice in biological sciences for living cells study. However, the data acquired with conventional3-D fluorescence microscopy are not quantitatively significant because of distortions induced by the optical acquisition process. Reliable measurements need the correction of theses distortions. Knowing the instrument impulse response, also known as the PSF, one can consider the backward process of convolution induced by the microscope, known as "deconvolution". However, when the system response is not invariant in the observation field, the classical algorithms can introduce large errors in the results. In this thesis we propose a new approach, which can be easily adapted to any classical deconvolution algorithm, direct or iterative, for bypassing the non-invariance PSF problem, without any modification to the later. Based on the hypothesis that the minimal error in a restored image using non-invariance assumption is located near the used PSF position, the EMMA (Evolutive Merging Masks Algorithm) blends multiple deconvolutions in the invariance assumption using a specific merging mask set. In order to obtain sufficient number of measured PSF at various depths for a better restoration using EMMA (or any other depth-variant deconvolution algorithm) we propose a 3D PSF interpolation algorithm based on the image moments theory using Zernike polynomials as decomposition base. The known PSF are decomposed into Zernike moments set and each moment's variation is fitted into a polynomial function, the resulting functions are then used to interpolate the needed PSF's Zernike moments set to reconstruct the interpolated PSF.
272

Fonctions latticielles polynomiales pour l’interpolation et la classification monotone / Lattice polynomial functions for interpolation and monotonic classification

Brabant, Quentin 29 January 2019 (has links)
Une Fonction Latticielle Polynômiale (FLP) sur un treillis L est une fonction p : Ln → L, qui peut être exprimée à partir de variables, de constantes et des opérateurs de treillis ∧ et ∨ . Dans les cas où L est distributif et borné, les FLP incluent les intégrales de Sugeno. Celles-ci sont des fonctions d'agrégation qui permettent de fusionner des valeurs sur des échelles ordinales non numériques, et qui sont utilisées notamment dans l'approche qualitative de l'Aide à la Décision Multi Critères en tant qu'alternatives ordinales aux intégrales de Choquet. Dans une première partie, nous traitons la tâche d'interpolation par des FLP, c'est à dire : pour un treillis L, un sous-ensemble fini D de Ln et une fonction f : D → L, retourner une FLP p : Ln → L telle que p(x) = f(x) pour tout x ∊ D (si une telle FLP existe). Nous traitons successivement le cas où L est un treillis fini et le cas où L est une treillis distributif borné. Dans les deux cas, nous donnons des algorithmes qui résolvent ce problème en temps polynomial. Dans une seconde partie, nous abordons les généralisations des intégrales de Sugeno appelées Fonctions d'Utilité de Sugeno (FUS), qui permettent la fusion de valeurs appartenant à des échelles ordinales différentes, ainsi que leur application à la tâche de classification monotone. Nous introduisons un modèle composé de plusieurs FUS, ainsi qu'un algorithme d'apprentissage d'un tel modèle. Nous comparons ce modèle aux ensembles de règles de décision appris par VC-DomLEM, et étudions le nombre de FUS nécessaires afin de modéliser des données empiriques / A Lattice Polynomial Function (LPF) over a lattice L is a map p : Ln → L that can be defined by an expression involving variables, constants and the lattice operators ∧ and ∨. If L is a distributive lattice, these maps include the so-called Sugeno integrals that are aggregation functions capable of merging ordinal values, not necessarily numerical. They are widely used in the qualitative approach to Multiple Criteria Decision Aiding (MCDA), and they can be thought of as the ordinal counterparts of Choquet integrals. In the first part of this thesis, we tackle the task of interpolating a partial function by an LPF, stated as follows: for a lattice L, a finite subset D of Ln, and a function f : D → L, return an LPF p : Ln → L such that p(x) = f(x) for all x ∊ D (if such an LPF exists). We treat the cases where L is a finite lattice, and then the cases where L is a bounded distributive lattice. In both cases, we provide algorithms that solve this problem in polynomial time. In the second part, we consider generalizations of Sugeno integrals in the multi-attribute setting, in particular, the Sugeno Utility Functions (SUFs), that are able to merge values coming from different ordinal scales. We consider the their use in monotonic classification tasks. We present a model based on a set of SUFs and an algorithm for learning such model from data. We compare this model to the sets of monotonic decision rules learned by VC-DomLEM, and study the number of SUFs that are required in order to model empirical data
273

Forensic Source Camera Identification by Using Features in Machine Learning Approach / Identification d'appareils photos par apprentissage

Alhussainy, Amel Tuama 01 December 2016 (has links)
L'identification d'appareils photos a récemment fait l'objet d'une grande attention en raison de son apport en terme sécurité et juridique. Établir l'origine d'un médias numériques, obtenus par un appareil d'imagerie est important à chaque fois que le contenu numériques est présente et utilise comme preuve devant un tribunal.L'identification d'appareils photos consiste à déterminer la marque, le modèle, ou le dispositif qui a été utilisé pour prendre une image.Notre première contribution pour l'identification du modèle d'appareil photo numérique est basée sur l'extraction de trois ensembles de caractéristiques puis l'utilisation d'apprentissage automatique. Ces caractéristiques sont la matrice de cooccurrences,des corrélations inter-canaux mesurant la trace laissée par l'interpolation CFA, et les probabilités conditionnelles calculées dans le domaine JPEG. Ces caractéristiques donnent des statistiques d'ordre élevées qui complètent et améliorent le taux d'identification. Les expériences prouvent la force de notre proposition, car la précision obtenue est supérieure à celle des méthodes basées sur la corrélation.La deuxième contribution est basée sur l'utilisation des CNNs. Contrairement aux méthodes traditionnelles, les CNNs apprennent simultanément les caractéristiques et la classification. Nous proposons d'ajouter une couche de pré-traitement (filtre passe-haut applique à l'image d’entrée) au CNN. Le CNN obtenu donne de très bonnes performances pour une faible complexité d'apprentissage. La méthode proposée donne des résultats équivalent à ceux obtenu par une approche en deux étapes (extraction de caractéristiques + SVM). Par ailleurs nous avons également examines les CNNs : AlexNet et GoogleNet. GoogleNet donne actuellement les meilleurs taux d'identification pour une complexité d'apprentissage plus grande / Source camera identification has recently received a wide attention due to its importantrole in security and legal issue. The problem of establishing the origin ofdigital media obtained through an imaging device is important whenever digitalcontent is presented and is used as evidence in the court. Source camera identification is the process of determining which camera device or model has been used to capture an image.Our first contribution for digital camera model identification is based on the extractionof three sets of features in a machine learning scheme. These featuresare the co-occurrences matrix, some features related to CFA interpolation arrangement,and conditional probability statistics computed in the JPEG domain.These features give high order statistics which supplement and enhance the identification rate. The experiments prove the strength of our proposition since it achieves higher accuracy than the correlation-based method.The second contribution is based on using the deep convolutional neural networks(CNNs). Unlike traditional methods, CNNs can automatically and simultaneouslyextract features and learn to classify during the learning process. A layer ofpreprocessing is added to the CNN model, and consists of a high pass filter which isapplied to the input image. The obtained CNN gives very good performance for avery small learning complexity. Experimental comparison with a classical two stepsmachine learning approach shows that the proposed method can achieve significantdetection performance. The well known object recognition CNN models, AlexNetand GoogleNet, are also examined.
274

Data-driven approaches for ocean remote sensing : from the non-negative decomposition of operators to the reconstruction of satellite-derived sea surface dynamics / Approches pilotées par les données pour la télédétection océanique : de la décomposition non négative d'opérateurs à la reconstruction des dynamiques de la surface de l'océan à partir de données satellitaires

Lopez Radcenco, Manuel 12 December 2018 (has links)
Au cours des dernières années, la disponibilité toujours croissante de données de télédétection multi-source de l'océan a été un facteur clé pour améliorer notre compréhension des dynamiques de la surface de l'océan. A cet égard, il est essentiel de mettre au point des approches efficaces pour exploiter ces ensembles de données. En particulier, la décomposition des processus géophysiques en modes pertinents est une question clé pour les problèmes de caractérisation, de prédiction et de reconstruction. Inspirés par des progrès récents en séparation aveugle des sources, nous visons, dans la première partie de cette thèse, à étendre les modèles de séparation aveugle de sources sous contraintes de non-négativité au problème de la caractérisation et décomposition d'opérateurs ou fonctions de transfert entre variables d'intérêt. Nous développons des schémas computationnels efficaces reposant sur des fondations mathématiques solides. Nous illustrons la pertinence des modèles de décomposition proposés dans différentes applications impliquant l'analyse et la prédiction de dynamiques géophysiques. Par la suite, étant donné que la disponibilité toujours croissante d'ensembles de données multi-sources supporte l'exploration des approches pilotées par les données en tant qu'alternative aux formulations classiques basées sur des modèles, nous explorons des approches basées sur les données récemment introduits pour l'interpolation des champs géophysiques à partir d'observations satellitaires irrégulièrement échantillonnées. De plus, en vue de la future mission SWOT, la première mission satellitaire à produire des observations d'altimétrie par satellite complètement bidimensionnelles et à large fauchée, nous nous intéressons à évaluer dans quelle mesure les données SWOT permettraient une meilleure reconstruction des champs altimétriques. / In the last few decades, the ever-growing availability of multi-source ocean remote sensing data has been a key factor for improving our understanding of upper ocean dynamics. In this regard, developing efficient approaches to exploit these datasets is of major importance. Particularly, the decomposition of geophysical processes into relevant modes is a key issue for characterization, forecasting and reconstruction problems. Inspired by recent advances in blind source separation, we aim, in the first part of this thesis dissertation, at extending non-negative blind source separation models to the problem of the observation-based characterization and decomposition of linear operators or transfer functions between variables of interest. We develop mathematically sound and computationally efficient schemes. We illustrate the relevance of the proposed decomposition models in different applications involving the analysis and forecasting of geophysical dynamics. Subsequently, given that the ever-increasing availability of multi-source datasets supports the exploration of data-driven alternatives to classical model-driven formulations, we explore recently introduced data-driven models for the interpolation of geophysical fields from irregularly sampled satellite-derived observations. Importantly, with a view towards the future SWOT mission, the first satellite mission to produce complete two-dimensional wide-swath satellite altimetry observations, we focus on assessing the extent to which SWOT data may lead to an improved reconstruction of altimetry fields.
275

Design géométrique de surfaces de topologie arbitraire

Taleb, Riadh 01 October 2001 (has links) (PDF)
Cette thèse est consacrée à la définition d'une surface géométriquement lisse interpolant un ensemble triangulé de points de R^3. Une telle triangulation, que nous appelons "réseau surfacique", doit définir une sous-variété de dimension 2, et peut représenter des surfaces de n'importe quel genre topologique. Il fournit l'information topologique, par l'intermédiaire d'une structure de données contenant les informations d'adjacence entre les sommets, les arêtes et les faces. Nous avons développé deux méthodes pour l'interpolation des sommets du réseau surfacique. Elles sont strictement locales et produisent des surfaces polynomiales par morceaux de degré 5 et de continuité G^1. De nombreux paramètres libres sont disponibles et ajustés soit interactivement soit automatiquement afin de lisser la surface. Dans le contexte interactif, plusieurs outils de design sont développés, basés sur l'interprétation géométrique des paramètres libres. La forme voulue peut être obtenue par une modélisation temps réel, grâce à la localité des algorithmes. Dans le cas du design automatique, de nombreux algorithmes ont été developpés satisfaisant un certain nombre de caractéristiques de forme. Un grand nombre de règles heuristiques et d'optimisations locales sont utilisées pour définir les valeurs des paramètres de forme dans le but d'obtenir des formes satisfaisantes ainsi qu'un contrôle optimal de la surface.
276

A convex optimization approach to complexity constrained analytic interpolation with applications to ARMA estimation and robust control

Blomqvist, Anders January 2005 (has links)
Analytical interpolation theory has several applications in systems and control. In particular, solutions of low degree, or more generally of low complexity, are of special interest since they allow for synthesis of simpler systems. The study of degree constrained analytic interpolation was initialized in the early 80's and during the past decade it has had significant progress. This thesis contributes in three different aspects to complexity constrained analytic interpolation: theory, numerical algorithms, and design paradigms. The contributions are closely related; shortcomings of previous design paradigms motivate development of the theory, which in turn calls for new robust and efficient numerical algorithms. Mainly two theoretical developments are studied in the thesis. Firstly, the spectral Kullback-Leibler approximation formulation is merged with simultaneous cepstral and covariance interpolation. For this formulation, both uniqueness of the solution, as well as smoothness with respect to data, is proven. Secondly, the theory is generalized to matrix-valued interpolation, but then only allowing for covariance-type interpolation conditions. Again, uniqueness and smoothness with respect to data is proven. Three algorithms are presented. Firstly, a refinement of a previous algorithm allowing for multiple as well as matrix-valued interpolation in an optimization framework is presented. Secondly, an algorithm capable of solving the boundary case, that is, with spectral zeros on the unit circle, is given. This also yields an inherent numerical robustness. Thirdly, a new algorithm treating the problem with both cepstral and covariance conditions is presented. Two design paradigms have sprung out of the complexity constrained analytical interpolation theory. Firstly, in robust control it enables low degree Hinf controller design. This is illustrated by a low degree controller design for a benchmark problem in MIMO sensitivity shaping. Also, a user support for the tuning of controllers within the design paradigm for the SISO case is presented. Secondly, in ARMA estimation it provides unique model estimates, which depend smoothly on the data as well as enables frequency weighting. For AR estimation, a covariance extension approach to frequency weighting is discussed, and an example is given as an illustration. For ARMA estimation, simultaneous cepstral and covariance matching is generalized to include prefiltering. An example indicates that this might yield asymptotically efficient estimates. / QC 20100928
277

Spatio-temporal data interpolation for dynamic scene analysis

Kim, Kihwan 06 January 2012 (has links)
Analysis and visualization of dynamic scenes is often constrained by the amount of spatio-temporal information available from the environment. In most scenarios, we have to account for incomplete information and sparse motion data, requiring us to employ interpolation and approximation methods to fill for the missing information. Scattered data interpolation and approximation techniques have been widely used for solving the problem of completing surfaces and images with incomplete input data. We introduce approaches for such data interpolation and approximation from limited sensors, into the domain of analyzing and visualizing dynamic scenes. Data from dynamic scenes is subject to constraints due to the spatial layout of the scene and/or the configurations of video cameras in use. Such constraints include: (1) sparsely available cameras observing the scene, (2) limited field of view provided by the cameras in use, (3) incomplete motion at a specific moment, and (4) varying frame rates due to different exposures and resolutions. In this thesis, we establish these forms of incompleteness in the scene, as spatio-temporal uncertainties, and propose solutions for resolving the uncertainties by applying scattered data approximation into a spatio-temporal domain. The main contributions of this research are as follows: First, we provide an efficient framework to visualize large-scale dynamic scenes from distributed static videos. Second, we adopt Radial Basis Function (RBF) interpolation to the spatio-temporal domain to generate global motion tendency. The tendency, represented by a dense flow field, is used to optimally pan and tilt a video camera. Third, we propose a method to represent motion trajectories using stochastic vector fields. Gaussian Process Regression (GPR) is used to generate a dense vector field and the certainty of each vector in the field. The generated stochastic fields are used for recognizing motion patterns under varying frame-rate and incompleteness of the input videos. Fourth, we also show that the stochastic representation of vector field can also be used for modeling global tendency to detect the region of interests in dynamic scenes with camera motion. We evaluate and demonstrate our approaches in several applications for visualizing virtual cities, automating sports broadcasting, and recognizing traffic patterns in surveillance videos.
278

A posteriori error estimation for non-linear eigenvalue problems for differential operators of second order with focus on 3D vertex singularities

Pester, Cornelia 07 May 2006 (has links) (PDF)
This thesis is concerned with the finite element analysis and the a posteriori error estimation for eigenvalue problems for general operator pencils on two-dimensional manifolds. A specific application of the presented theory is the computation of corner singularities. Engineers use the knowledge of the so-called singularity exponents to predict the onset and the propagation of cracks. All results of this thesis are explained for two model problems, the Laplace and the linear elasticity problem, and verified by numerous numerical results.
279

Komplexität und Stabilität von kernbasierten Rekonstruktionsmethoden / Complexity and Stability of Kernel-based Reconstructions

Müller, Stefan 21 January 2009 (has links)
No description available.
280

POD Approach for Aeroelastic Updating / Approche POD pour le Recalage du Modele Aeroelastique

Vetrano, Fabio 17 December 2014 (has links)
Bien que les méthodes de calcul peuvent donner de bons résultats, ils ne sont généralement pas en accord avec exactement les données d'essais en vol en raison des incertitudes dans les modelé de calcul de structure et aérodynamiques. Une méthode efficace est nécessaire pour la mise à jour des modelé aeroelastiques en utilisant les données d'essais en vol, les données d'essais de vibration au sol ( GVT ) et les données de soufflerie. Tout d'abord tous les développements ont été valides sur une section de l'aile 2D et sur un modèle 3D simple et après l'approche POD a été applique= a une configuration industrielle (modèle de soufflerie aile-fuselage et modèle d' avions complète). / Although computational methods can provide good results, they usually do not agree exactly with the flight test data due to uncertainties in structural and aerodynamic computational models. An effective method is required for updating computational aeroelastic models using the flight test data along with Ground Vibration Test (GVT) data and wind tunnel data. Firstly all developments have been validated on a 2D wing section and on a simple 3D model and after the POD approach has been applied to an industrial configuration (wing-fuselage wind tunnel model and complete aircraft model).

Page generated in 0.0292 seconds