• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 281
  • 116
  • 69
  • 46
  • 19
  • 12
  • 10
  • 8
  • 6
  • 6
  • 3
  • 3
  • 3
  • 3
  • 3
  • Tagged with
  • 652
  • 149
  • 119
  • 98
  • 83
  • 77
  • 66
  • 53
  • 51
  • 42
  • 40
  • 38
  • 38
  • 37
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
591

Contribution au traitement du signal pour le contrôle de santé in situ de structures composites : application au suivi de température et à l’analyse des signaux d’émission acoustique / Signal processing for in situ Structural Health Monitoring of composite structures : application to the estimation of the temperature dynamics and to the study of acoustic emission

Hamdi, Seif Eddine 12 October 2012 (has links)
Le contrôle de santé structural ou Structural Health Monitoring (SHM) des matériaux constitue une démarche fondamentale pour la maîtrise de la durabilité et de la fiabilité des structures en service. Au-delà des enjeux industriels et humains qui ne cessent de s’accroître en termes de sécurité et de fiabilité, le contrôle de santé doit faire face à des exigences de plus en plus élaborées. Les nouvelles stratégies de contrôle de santé doivent non seulement détecter et identifier l’endommagement mais aussi quantifier les différents phénomènes qui en sont responsables. Pour atteindre cet objectif, il est nécessaire d’accéder à une meilleure connaissance des processus d’endommagement. Par ailleurs, ceux-ci surviennent fréquemment sous l’effet de sollicitations mécaniques et environnementales. Ainsi, il est indispensable, d’une part, d’élaborer des méthodes de traitement des signaux permettant d’estimer les effets des conditions environnementales et opérationnelles, dans un contexte de l’analyse des événements précurseurs des mécanismes d’endommagement, et, d’autre part, de définir les descripteurs d’endommagement les plus adaptés à cette analyse. Cette étude propose donc des méthodes de traitement du signal permettant d’atteindre cet objectif, dans un premier temps, pour l’estimation des effets externes sur les ondes multidiffusées dans un contexte de contrôle de santé actif et, dans un second temps, pour l’extraction d’un indicateur d’endommagement à partir de l’analyse des signaux d’émission acoustique dans un contexte de contrôle de santé passif. Dans la première partie de ce travail, quatre méthodes de traitement du signal sont proposées. Celles-ci permettent de prendre en compte les variations des conditions environnementales dans la structure, qui dans le cadre de cette thèse, se sont limitées au cas particulier du changement de la température. En effet, les variations de température ont pour effet de modifier les propriétés mécaniques du matériau et par conséquent la vitesse de propagation des ondes ultrasonores. Ce phénomène entraîne alors une dilatation temporelle des signaux acoustiques qu’il convient d’estimer afin de suivre les variations de température. Quatre estimateurs de coefficients de dilatation sont alors étudiés : Il s’agit de l’intercorrélation à fenêtre glissante, utilisée comme méthode de référence, la méthode du stretching, l’estimateur à variance minimale et la transformée exponentielle. Les deux premières méthodes ont été déjà validées dans la littérature alors que les deux dernières ont été développées spécifiquement dans le cadre de cette étude. Par la suite, une évaluation statistique de la qualité des estimations est menée grâce à des simulations de Monte-Carlo utilisant des signaux de synthèse. Ces signaux sont basés sur un modèle de signal multidiffusé prenant en compte l’influence de la température. Une estimation sommaire de la complexité algorithmique des méthodes de traitement du signal complète également cette phase d’évaluation. Enfin, la validation expérimentale des méthodes d’estimation est réalisée sur deux types de matériaux : Tout d’abord, dans une plaque d’aluminium, milieu homogène dont les caractéristiques sont connues, puis, dans un second temps dans un milieu fortement hétérogène prenant la forme d’une plaque composite en verre/epoxy. Dans ces expériences, les plaques sont soumises à différentes températures dans un environnement thermique contrôlé. Les estimations de température sont alors confrontées à un modèle analytique décrivant le comportement du matériau. La seconde partie de ce travail concerne la caractérisation in situ des mécanismes d’endommagement par émission acoustique dans des matériaux hétérogènes. Les sources d’émission acoustique génèrent des signaux non stationnaires... / Structural health monitoring (SHM) of materials is a fundamental measure to master thedurability and the reliability of structures in service. Beyond the industrial and human issuesever increasing in terms of safety and reliability, health monitoring must cope with demandsincreasingly sophisticated. New health monitoring strategies must not only detect and identifydamage but also quantify the various phenomena involved in it. To achieve this objective, itis necessary to reach a better understanding of the damage process. Moreover, they frequentlyoccur as a result of mechanical and environmental stresses. Thus, it is essential, first, to developsignal processing methods for estimating the effects of environmental and operational conditions,in the context of the analysis of precursor events of damage mechanisms, and on theother hand, to define the damage descriptors that are the most suitable to this analysis. Thisstudy proposes signal processing methods to achieve this goal. At first, to the estimation ofexternal effects on the scattered waves in an active health control context, in a second step, tothe extraction of a damage indicator from the signals analysis of acoustic emission in a passivehealth monitoring context.In the first part of this work, four signal processing methods are proposed. These allow takinginto account the variation of environmental conditions in the structure, which in this thesis,were limited to the particular case of temperature change. Indeed, temperature changes have theeffect of altering the mechanical properties of the material and therefore the propagation velocityof ultrasonic waves. This phenomenon then causes a dilation of the acoustic signals that shouldbe estimated in order to monitor changes in temperature. Four estimators of dilation coefficientsare then studied: the intercorrelation sliding window, used as reference method, the stretchingmethod, the minimum variance estimator and the exponential transform. The first two methodshave already been validated in the literature while the latter two were developed specificallyin the context of this study. Thereafter, a statistical evaluation of the quality of estimates isconducted through Monte Carlo simulations using synthetic signals. These signals are basedon a scattered signal model taking into account the influence of temperature. A raw estimateof the computational complexity of signal processing methods also completes this evaluationphase. Finally, the experimental validation of estimation methods is performed on two types ofmaterial: First, in an aluminum plate, homogeneous medium whose characteristics are known,then, in a second step in a highly heterogeneous environment in the form of a compositeglass/epoxy plate. In these experiments, the plates are subjected to different temperatures in acontrolled thermal environment. The temperature estimates are then faced with an analyticalmodel describing the material behavior.The second part of this work concerns in situ characterization of damage mechanisms byacoustic emission in heterogeneous materials. Acoustic emission sources generate non-stationarysignals. The Hilbert-Huang transform is thus proposed for the discrimination of signals representativeof four typical sources of acoustic emission in composites: matrix cracking, debondingfiber/matrix, fiber breakage and delamination. A new time-frequency descriptor is then definedfrom the Hilbert-Huang transform and is introduced into an online classification algorithm. Amethod of unsupervised classification, based on the k-means method, is then used to discriminatethe sources of acoustic emission and the data segmentation quality is evaluated. Thesignals are recorded from blank samples, using piezoelectric sensors stuck to the surface of thematerial and sensitive samples (sensors integrated within the material)...
592

Image Reconstruction Based On Hilbert And Hybrid Filtered Algorithms With Inverse Distance Weight And No Backprojection Weight

Narasimhadhan, A V 08 1900 (has links) (PDF)
Filtered backprojection (FBP) reconstruction algorithms are very popular in the field of X-ray computed tomography (CT) because they give advantages in terms of the numerical accuracy and computational complexity. Ramp filter based fan-beam FBP reconstruction algorithms have the position dependent weight in the backprojection which is responsible for spatially non-uniform distribution of noise and resolution, and artifacts. Many algorithms based on shift variant filtering or spatially-invariant interpolation in the backprojection step have been developed to deal with this issue. However, these algorithms are computationally demanding. Recently, fan-beam algorithms based on Hilbert filtering with inverse distance weight and no weight in the backprojection have been derived using the Hamaker’s relation. These fan-beam reconstruction algorithms have been shown to improve noise uniformity and uniformity in resolution. In this thesis, fan-beam FBP reconstruction algorithms with inverse distance back-projection weight and no backprojection weight for 2D image reconstruction are presented and discussed for the two fan-beam scan geometries -equi-angular and equispace detector array. Based on the proposed and discussed fan-beam reconstruction algorithms with inverse distance backprojection and no backprojection weight, new 3D cone-beam FDK reconstruction algorithms with circular and helical scan trajectories for curved and planar detector geometries are proposed. To start with three rebinning formulae from literature are presented and it is shown that one can derive all fan-beam FBP reconstruction algorithms from these rebinning formulae. Specifically, two fan-beam algorithms with no backprojection weight based on Hilbert filtering for equi-space linear array detector and one new fan-beam algorithm with inverse distance backprojection weight based on hybrid filtering for both equi-angular and equi-space linear array detector are derived. Simulation results for these algorithms in terms of uniformity of noise and resolution in comparison to standard fan-beam FBP reconstruction algorithm (ramp filter based fan-beam reconstruction algorithm) are presented. It is shown through simulation that the fan-beam reconstruction algorithm with inverse distance in the backprojection gives better noise performance while retaining the resolution properities. A comparison between above mentioned reconstruction algorithms is given in terms of computational complexity. The state of the art 3D X-ray imaging systems in medicine with cone-beam (CB) circular and helical computed tomography scanners use non-exact (approximate) FBP based reconstruction algorithm. They are attractive because of their simplicity and low computational cost. However, they produce sub-optimal reconstructed images with respect to cone-beam artifacts, noise and axial intensity drop in case of circular trajectory scan imaging. Axial intensity drop in the reconstructed image is due to the insufficient data acquired by the circular-scan trajectory CB CT. This thesis deals with investigations to improve the image quality by means of the Hilbert and hybrid filtering based algorithms using redundancy data for Feldkamp, Davis and Kress (FDK) type reconstruction algorithms. In this thesis, new FDK type reconstruction algorithms for cylindrical detector and planar detector for CB circular CT are developed, which are obtained by extending to three dimensions (3D) an exact Hilbert filtering based FBP algorithm for 2D fan-beam beam algorithms with no position dependent backprojection weight and fan-beam algorithm with inverse distance backprojection weight. The proposed FDK reconstruction algorithm with inverse distance weight in the backprojection requires full-scan projection data while the FDK reconstruction algorithm with no backprojection weight can handle partial-scan data including very short-scan. The FDK reconstruction algorithms with no backprojection weight for circular CB CT are compared with Hu’s, FDK and T-FDK reconstruction algorithms in-terms of axial intensity drop and computational complexity. The simulation results of noise, CB artifacts performance and execution timing as well as the partial-scan reconstruction abilities are presented. We show that FDK reconstruction algorithms with no backprojection weight have better noise performance characteristics than the conventional FDK reconstruction algorithm where the backprojection weight is known to result in spatial non-uniformity in the noise characteristics. In this thesis, we present an efficient method to reduce the axial intensity drop in circular CB CT. The efficient method consists of two steps: the first one is reconstruction of the object using FDK reconstruction algorithm with no backprojection weight and the second is estimating the missing term. The efficient method is comparable to Zhu et al.’s method in terms of reduction in axial intensity drop, noise and computational complexity. The helical scanning trajectory satisfies the Tuy-smith condition, hence an exact and stable reconstruction is possible. However, the helical FDK reconstruction algorithm is responsible for the cone-beam artifacts since the helical FDK reconstruction algorithm is approximate in its derivation. In this thesis, helical FDK reconstruction algorithms based on Hilbert filtering with no backprojection weight and FDK reconstruction algorithm based on hybrid filtering with inverse distance backprojection weight are presented to reduce the CB artifacts. These algorithms are compared with standard helical FDK in-terms of noise, CB artifacts and computational complexity.
593

Approche spectrale pour l’interpolation à noyaux et positivité conditionnelle / Spectral approach for kernel-based interpolation and conditional positivity

Gauthier, Bertrand 12 July 2011 (has links)
Nous proposons une approche spectrale permettant d'aborder des problèmes d'interpolation à noyaux dont la résolution numérique n'est pas directement envisageable. Un tel cas de figure se produit en particulier lorsque le nombre de données est infini. Nous considérons dans un premier temps le cadre de l'interpolation optimale dans les sous-espaces hilbertiens. Pour un problème donné, un opérateur intégral est défini à partir du noyau sous-jacent et d'une paramétrisation de l'ensemble des données basée sur un espace mesuré. La décomposition spectrale de l'opérateur est utilisée afin d'obtenir une formule de représentation pour l'interpolateur optimal et son approximation est alors rendu possible par troncature du spectre. Le choix de la mesure induit une fonction d'importance sur l'ensemble des données qui se traduit, en cas d'approximation, par une plus ou moins grande précision dans le rendu des données. Nous montrons à titre d'exemple comment cette approche peut être utilisée afin de rendre compte de contraintes de type "conditions aux limites" dans les modèles d'interpolation à noyaux. Le problème du conditionnement des processus gaussiens est également étudié dans ce contexte. Nous abordons enfin dans la dernière partie de notre manuscrit la notion de noyaux conditionnellement positifs. Nous proposons la définition générale de noyaux symétriques conditionnellement positifs relatifs à une espace de référence donné et développons la théorie des sous-espaces semi-hilbertiens leur étant associés. Nous étudions finalement la théorie de l'interpolation optimale dans cette classe d'espaces. / We propose a spectral approach for the resolution of kernel-based interpolation problems of which numerical solution can not be directly computed. Such a situation occurs in particular when the number of data is infinite. We first consider optimal interpolation in Hilbert subspaces. For a given problem, an integral operator is defined from the underlying kernel and a parameterization of the data set based on a measurable space. The spectral decomposition of the operator is used in order to obtain a representation formula for the optimal interpolator and spectral truncation allows its approximation. The choice of the measure on the parameters space introduces a hierarchy onto the data set which allows a tunable precision of the approximation. As an example, we show how this methodology can be used in order to enforce boundary conditions in kernel-based interpolation models. The Gaussian processes conditioning problem is also studied in this context. The last part of this thesis is devoted to the notion of conditionally positive kernels. We propose a general definition of symmetric conditionally positive kernels relative to a given space and exposed the associated theory of semi-Hilbert subspaces. We finally study the optimal interpolation problem in such spaces.
594

Contributions au démélange non-supervisé et non-linéaire de données hyperspectrales / Contributions to unsupervised and nonlinear unmixing of hyperspectral data

Ammanouil, Rita 13 October 2016 (has links)
Le démélange spectral est l’un des problèmes centraux pour l’exploitation des images hyperspectrales. En raison de la faible résolution spatiale des imageurs hyperspectraux en télédetection, la surface représentée par un pixel peut contenir plusieurs matériaux. Dans ce contexte, le démélange consiste à estimer les spectres purs (les end members) ainsi que leurs fractions (les abondances) pour chaque pixel de l’image. Le but de cette thèse estde proposer de nouveaux algorithmes de démélange qui visent à améliorer l’estimation des spectres purs et des abondances. En particulier, les algorithmes de démélange proposés s’inscrivent dans le cadre du démélange non-supervisé et non-linéaire. Dans un premier temps, on propose un algorithme de démelange non-supervisé dans lequel une régularisation favorisant la parcimonie des groupes est utilisée pour identifier les spectres purs parmi les observations. Une extension de ce premier algorithme permet de prendre en compte la présence du bruit parmi les observations choisies comme étant les plus pures. Dans un second temps, les connaissances a priori des ressemblances entre les spectres à l’échelle localeet non-locale ainsi que leurs positions dans l’image sont exploitées pour construire un graphe adapté à l’image. Ce graphe est ensuite incorporé dans le problème de démélange non supervisé par le biais d’une régularisation basée sur le Laplacian du graphe. Enfin, deux algorithmes de démélange non-linéaires sont proposés dans le cas supervisé. Les modèles de mélanges non-linéaires correspondants incorporent des fonctions à valeurs vectorielles appartenant à un espace de Hilbert à noyaux reproduisants. L’intérêt de ces fonctions par rapport aux fonctions à valeurs scalaires est qu’elles permettent d’incorporer un a priori sur la ressemblance entre les différentes fonctions. En particulier, un a priori spectral, dans un premier temps, et un a priori spatial, dans un second temps, sont incorporés pour améliorer la caractérisation du mélange non-linéaire. La validation expérimentale des modèles et des algorithmes proposés sur des données synthétiques et réelles montre une amélioration des performances par rapport aux méthodes de l’état de l’art. Cette amélioration se traduit par une meilleure erreur de reconstruction des données / Spectral unmixing has been an active field of research since the earliest days of hyperspectralremote sensing. It is concerned with the case where various materials are found inthe spatial extent of a pixel, resulting in a spectrum that is a mixture of the signatures ofthose materials. Unmixing then reduces to estimating the pure spectral signatures and theircorresponding proportions in every pixel. In the hyperspectral unmixing jargon, the puresignatures are known as the endmembers and their proportions as the abundances. Thisthesis focuses on spectral unmixing of remotely sensed hyperspectral data. In particular,it is aimed at improving the accuracy of the extraction of compositional information fromhyperspectral data. This is done through the development of new unmixing techniques intwo main contexts, namely in the unsupervised and nonlinear case. In particular, we proposea new technique for blind unmixing, we incorporate spatial information in (linear and nonlinear)unmixing, and we finally propose a new nonlinear mixing model. More precisely, first,an unsupervised unmixing approach based on collaborative sparse regularization is proposedwhere the library of endmembers candidates is built from the observations themselves. Thisapproach is then extended in order to take into account the presence of noise among theendmembers candidates. Second, within the unsupervised unmixing framework, two graphbasedregularizations are used in order to incorporate prior local and nonlocal contextualinformation. Next, within a supervised nonlinear unmixing framework, a new nonlinearmixing model based on vector-valued functions in reproducing kernel Hilbert space (RKHS)is proposed. The aforementioned model allows to consider different nonlinear functions atdifferent bands, regularize the discrepancies between these functions, and account for neighboringnonlinear contributions. Finally, the vector-valued kernel framework is used in orderto promote spatial smoothness of the nonlinear part in a kernel-based nonlinear mixingmodel. Simulations on synthetic and real data show the effectiveness of all the proposedtechniques
595

Fourier and Variational Based Approaches for Fingerprint Segmentation

Hoang Thai, Duy 28 January 2015 (has links)
No description available.
596

Méthodes d'ondelettes pour l'analyse d'opérateurs

Ezzine, Abdelhak 23 May 1997 (has links) (PDF)
L'idée d'utiliser des bases d'ondelettes dans l'analyse numérique (résolution des équations elliptiques, aux dérivées partielles, intégrales) s'est imposée depuis que ces bases ont fait preuve de leur efficacité dans le traitement du signal. Deux problèmes se posent quant au calcul de la solution dans une base d'ondelettes : - problème 1 : l'étude de la structure de la matrice associée à un noyau K d'un opérateur intégral T dans une base d'ondelettes ; - problème 2 : l'adaptation des techniques de discrétisation de Galerkin aux bases d'ondelettes. Cette thèse contribue à l'étude de ces problèmes par l'introduction d'une nouvelle classe d'opérateurs définis par leur matrice représentative dans une base d'ondelettes et caractérisés par les dérivées fractionnaires de leurs noyaux.
597

Contributions à l’étude algébrique et géométrique des structures et théories du premier ordre / Contributions to the algebraic and geometric study of first order structures and theories

Berthet, Jean 03 December 2010 (has links)
La notion de T-radical d’un idéal permet à G.Cherlin de démontrer un Nullstellensatz dans les théories inductives d’anneaux. Nous proposons une analyse modèle-théorique de phénomènes connexes. En premier lieu, une réciproque de ce théorème nous conduit à une caractérisation des corps algébriquement clos, suggérant une version “positive” du travail de Cherlin, la théorie des idéaux T-radiciels. Ceux-ci se caractérisent par un théorème de représentation et sont associés à un théorème des zéros “positif”. Ces résultats se généralisent à la logique du premier ordre : grâce à la notion de classe spéciale, nous développons ensuite une théorie logique des idéaux. On peut encore parler d’idéaux premiers et radiciels, relativement à une classe de structures. Dans ce cadre, le théorème de représentation est une propriété intrinsèque des classes spéciales et le théorème des zéros une propriété de préservation logique, que nous appelons “complétude géométrique” et qui entretient des rapports étroits avec la modèle-complétude positive. Les algèbres basées en groupes de P.Higgins permettent d’appliquer ces résultats aux théories modèle-complètes de corps avec opérateurs additionnels. Dans certains cas “noethériens”, l’algèbre de coordonnées est un invariant algébrique des “variétés affines”. Enfin, il est possible à partir d’un ensemble de formules E de généraliser les classes spéciales et autres classes de structures. Notre théorie des idéaux logiques est de plus un cas particulier du phénomène de localisation étudié par M.Coste ; dans certaines situations, un bon choix de formules permet d’identifier les types complets d’une “algèbre” à des types de localisation / The notion of T-radical of an ideal allows G.Cherlin to prove a Nullstellensatz for inductive ring theories.We present here a model-theoretic analysis of closely related phenomena. At first, a reverse of this theorem leeds us to a characterization of algebraically closed fields, suggesting a “positive” version of Cherlin’s work, the theory of T-radical ideals. These are characterized by a representation theorem and associated to a “positive” Nullstellensatz. Those results are generalized to first order logic : thanks to the notion of special class, we then develop a logical theory of ideals. One may still speak about prime and radical ideals, relatively to a class of structures. In this setting, the representation theorem is an intrinsic property of special classes and the Nullstellensatz a logical preservation property, which we call “geometric completeness” and which is closely linked to positive model-completeness. The group-based algebras of P.Higgins allow us to apply these results to model-complete theories of fields with additional operators. In certain “noetherian” cases, the coordinate algebra is an algebraic invariant of “affine algebraic sets”. At last, it is possible from a set of formulas E to generalize special and other classes of structures. Moreover, our theory of logical ideals is a particular case of the localisation phenomenon studied by M.Coste ; in certain situations, a good choice of formulasleeds to an identification of the complete types of a given “algebra” with some localisation types
598

希爾柏特黃轉換於非穩定時間序列之分析:用電量與黃金價格 / Non-stationary time series analysis by using Hilbert-Huang transform: electricity consumption and gold price volatility

張雁茹, Chang, Yen Rue Unknown Date (has links)
本文有兩個研究目標,第一個是比較政大用電量與氣溫之間的相關性,第二則是分析影響黃金價格波動的因素。本文使用到的研究方法有希爾柏特黃轉換(HHT)與一些統計值。   本研究使用的分析數據如下:政大逐時用電量、台北逐時氣溫以及倫敦金屬交易所(London Metal Exchange)的月平均黃金價格。透過經驗模態分解法(EMD),我們可以將分析數據拆解成數個互相獨立的分量,再藉由統計值選出較重要的分量並分析其意義。逐時用電量的重要分量為日分量、週分量與趨勢;逐時氣溫的重要分量為日分量與趨勢;月平均黃金價格的重要分量則是低頻分量與趨勢。 藉由這些重要分量,我們可以更加了解原始數據震盪的特性,並且選出合理的平均週期將所有的分量分組,做更進一步的分析。逐時用電量與逐時氣溫分成高頻、中頻、低頻與趨勢四組,其中低頻與趨勢相加的組合具有最高的相關性。月平均黃金價格則是分為高頻、低頻與趨勢三組,其中高頻表現出供需以及突發事件等短週期因素,低頻與歷史上對經濟有重大影響的事件相對應,趨勢則是反應出通貨膨脹的現象。 / There are two main separated researched purposes in this thesis. First one is comparing the correlation between electricity consumption and temperature in NCCU. Another one is analyzing the properties of gold price volatility. The methods used in the study are Hilbert-Huang transform (HHT) and some statistical measures.   The following original data: hourly electricity consumption in NCCU, hourly temperature in Taipei, and the LME monthly gold prices are decomposed into several components by empirical mode decomposition (EMD). We can ascertain the significant components and analyze their meanings or properties by statistical measures. The significant components of each data are shown as follows: daily component, weekly component and residue for hourly electricity consumption; daily component and residue for hourly temperature; low frequency components and residue for the LME monthly gold prices.   We can understand more properties about these data according to the significant components, and dividing the components into several terms based on reasonable mean period. The components of hourly electricity consumption and hourly temperature are divided into high, mid, low frequency terms and trends, and the composition of low frequency terms and trends have the highest correlation between them. The components of LME monthly gold prices are divided into high, low frequency term and trend. High frequency term reveals the supply-demand and abrupt events. The low frequency term represents the significant events affecting economy seriously, and trend shows the inflation in the long run.
599

Quelques problèmes de géométrie complexe et presque complexe

Grivaux, Julien 19 October 2009 (has links) (PDF)
Le travail effectué dans cette thèse consiste à construire et adapter dans d'autres cadres des objets issus de la géométrie algébrique. Nous nous intéressons d'abord à la théorie des classes de Chern pour les faisceaux cohérents. Sur les variétés projectives, elle est complètement achevée dans les anneaux de Chow grâce à l'existence de résolutions globales localement libres et se ramène formellement à la théorie pour les fibrés. Un résultat de Voisin montre que ces résolutions n'existent pas toujours sur des variétés complexes compactes générales. Nous construisons ici par récurrence sur la dimension de la variété de base des classes de Chern en cohomologie de Deligne rationnelle pour les faisceaux analytiques cohérents en imposant la formule de Grothendieck-Riemann-Roch pour les immersions et en utilisant des méthodes de dévissage. Ces classes sont les seules à vérifier la formule de fonctorialité par pull-back, la formule de Whitney et la formule de Grothendieck-Riemann-Roch pour les immersions; elles coïncident donc avec les classes topologiques et les classes d'Atiyah. Elles vérifient aussi le théorème de Grothendieck-Riemann-Roch pour les morphismes projectifs. Notre second travail est l'étude des schémas de Hilbert ponctuels d'une variété symplectique ou presque complexe de dimension 4. Ils ont été construits par Voisin et généralisent les schémas de Hilbert connus pour les surfaces projectives. En utilisant les structures complexes relatives intégrables introduites dans la construction de Voisin, nous pouvons étendre au cas presque complexe ou symplectique la théorie classique. Nous calculons les nombres de Betti, nous construisons les opérateurs de Nakajima, nous étudions l'anneau de cohomologie et la classe de cobordisme de ces schémas de Hilbert, et nous prouvons dans ce contexte un cas particulier de la conjecture de la résolution crêpante de Ruan.
600

Stability Rates for Linear Ill-Posed Problems with Convolution and Multiplication Operators

Hofmann, B., Fleischer, G. 30 October 1998 (has links) (PDF)
In this paper we deal with the `strength' of ill-posedness for ill-posed linear operator equations Ax = y in Hilbert spaces, where we distinguish according_to_M. Z. Nashed [15] the ill-posedness of type I if A is not compact, but we have R(A) 6= R(A) for the range R(A) of A; and the ill-posedness of type II for compact operators A: From our considerations it seems to follow that the problems with noncompact operators A are not in general `less' ill-posed than the problems with compact operators. We motivate this statement by comparing the approximation and stability behaviour of discrete least-squares solutions and the growth rate of Galerkin matrices in both cases. Ill-posedness measures for compact operators A as discussed in [10] are derived from the decay rate of the nonincreasing sequence of singular values of A. Since singular values do not exist for noncompact operators A; we introduce stability rates in order to have a common measure for the compact and noncompact cases. Properties of these rates are illustrated by means of convolution equations in the compact case and by means of equations with multiplication operators in the noncompact case. Moreover using increasing rearrangements of the multiplier functions specific measures of ill-posedness called ill-posedness rates are considered for the multiplication operators. In this context, the character of sufficient conditions providing convergence rates of Tikhonov regularization are compared for compact operators and multiplication operators.

Page generated in 0.0318 seconds