• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 82
  • 70
  • 16
  • 3
  • 1
  • 1
  • Tagged with
  • 186
  • 74
  • 58
  • 44
  • 33
  • 31
  • 30
  • 30
  • 25
  • 25
  • 23
  • 23
  • 21
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Approximation élément spectral des équations de Navier-Stokes Incompressibles dans un domaine mobile et applications

Pena, Gonçalo 01 October 2009 (has links) (PDF)
Dans cette thèse nous nous intéressons a l'approximation numérique des équations incompressibles de Navier-Stokes évoluant dans un domaine en mouvement par la méthode des éléments spectraux et des intégrateurs en temps d'ordre élève. Dans une première phase, nous présentons la méthode des éléments spectraux et les outils de base pour effectuer des discrétisations spectrales du type Galerkin ou Galerkin avec intégration numérique (G-NI). Nous couvrons un large éventail de possibilités concernant les éléments de référence, fonctions de base, points d'interpolation et points de quadrature. Dans cette approche, l'intégration et la différentiation des fonctions polynomiales est faite numériquement grâce a l'aide d'ensembles de points convenables. En ce qui concerne la différenciation, nous présentons une étude numérique des points qui doivent être utilisés pour atteindre une meilleure stabilité numérique (parmi les choix que nous avons actuellement). Deuxièmement, nous introduisons les équations incompressibles stationnaires et non-stationnaires de Stokes et de Navier-Stokes et son approximation spectrale. Dans le cas non-stationnaire, nous introduisons une combinaison de la méthode Backward Différentiation Formula (BDF) et une formule d'extrapolation du même ordre pour l'intégration par rapport au temps. Une fois les équations discrétisées, un système linéaire doit être résolu pour obtenir la solution approchée. Dans ce contexte, nous resolvons ce système avec un préconditionneur par blocs. Nous montrons que le préconditionneur est optimal par rapport au nombre d'iterations utilisées par la méthode GMRES dans le cas stationnaire, mais pas dans le cas non-stationnaire. Une autre alternative est d'utiliser les méthodes de factorization algébrique de type Yosida et séparer le calcul de la vitesse et de la pression. Un cas test est présente pour déterminer les proprietes de convergence de ce type de méthodes dans notre contexte. Troisièmement, nous 'tendons les algorithmes développés dans le cas ou le domaine est fixe au cadre de la formulation Arbitraire Lagrange-Euler (ALE). La question de la définition d'une carte ALE d'ordre élevé est aborée. Cela permet de construire un domaine de calcul qui est d'ecrit avec des éléments courbes. Un cas test utilisant une méthode directe et les méthodes Yosida-q pour resoudre le système linéaire est présente pour montrer les ordres de convergence de la méthode proposée. Finalement, nous appliquons la méthode développée pour résoudre une un problème d'interaction fluide-structure pour un exemple simple bidimensionnel d'hémodynamique. Nous considérons deux approches: une implicite entièrement couplée et une semi-implicite.
102

Nodale Spektralelemente und unstrukturierte Gitter - Methodische Aspekte und effiziente Algorithmen

Fladrich, Uwe 23 October 2012 (has links) (PDF)
Die Dissertation behandelt methodische und algorithmische Aspekte der Spektralelementemethode zur räumlichen Diskretisierung partieller Differentialgleichungen. Die Weiterentwicklung einer symmetriebasierten Faktorisierung ermöglicht effiziente Operatoren für Tetraederelemente. Auf Grundlage einer umfassenden Leistungsanalyse werden Engpässe in der Implementierung der Operatoren identifiziert und durch algorithmische Modifikationen der Methode eliminiert.
103

Méthodes de Séparation Aveugle de Sources pour l'imagerie hyperspectrale. Application à la télédétection urbaine et à l'astrophysique

Meganem, Inès 05 December 2012 (has links) (PDF)
Au cours de cette thèse nous avons développé des méthodes de Séparation Aveugle de Sources (SAS) pour des images hyperspectrales, dans le cadre de deux champs d'application : la télédétection urbaine et l'astrophysique. Dans la première partie de la thèse nous nous sommes intéressés au démélange hyperspectral pour des images urbaines, le but étant de retrouver d'une manière non supervisée les matériaux présents sur la scène en extrayant leurs spectres et leurs proportions. La plupart des méthodes de la littérature sont basées sur un modèle linéaire, qui n'est pas valide en milieu urbain à cause des structures 3D. Une première étape a donc été d'établir un modèle de mélange adapté aux milieux urbains, en partant d'équations physiques basées sur la théorie du transfert radiatif. Le modèle final de forme linéaire quadratique invariant spectralement, ainsi que les possibles hypothèses sur les coefficients de mélange, sont justifiés par les résultats obtenus sur des images simulées réalistes. Nous avons ensuite proposé, pour le démélange, des méthodes de SAS fondées sur la FMN (Factorisation en Matrices Non-négatives). Ces méthodes sont basées sur un calcul de gradient qui tient compte des termes quadratiques. La première méthode utilise un algorithme de gradient à pas fixe, à partir de laquelle une version de Newton a aussi été proposée. La dernière méthode est un algorithme FMN multiplicatif. Les méthodes proposées donnent de meilleures performances qu'une méthode linéaire de la littérature. En astrophysique nous avons développé des méthodes de SAS pour des images de champs denses d'étoiles du spectro-imageur MUSE. A cause de la PSF (Point Spread Function), les informations contenues dans les pixels peuvent résulter des contributions de plusieurs étoiles. C'est là que réside l'intérêt de la SAS : extraire, à partir de ces signaux qui sont des mélanges, les spectres des étoiles qui sont donc nos "sources". Le modèle de mélange est linéaire non invariant spectralement. Nous avons proposé une méthode de SAS basée sur la positivité des données. Cette approche exploite le modèle paramétrique de la FSF (Field Spread Function) de MUSE. La méthode mise en place est itérative et alterne l'estimation des spectres par moindres carrés (avec contraintes de positivité) et estimation des paramètres de la FSF par un algorithme de gradient projeté. La méthode proposée donne de bonnes performances sur des images simulées de MUSE.
104

Uniqueness and Complexity in Generalised Colouring

Farrugia, Alastair January 2003 (has links)
The study and recognition of graph families (or graph properties) is an essential part of combinatorics. Graph colouring is another fundamental concept of graph theory that can be looked at, in large part, as the recognition of a family of graphs that are colourable according to certain rules. In this thesis, we study additive induced-hereditary families, and some generalisations, from a colouring perspective. Our main results are: · Additive induced-hereditary families are uniquely factorisable into irreducible families. · If <i>P</i> and <i>Q</i> are additive induced-hereditary graph families, then (<i>P</i>,<i>Q</i>)-COLOURING is NP-hard, with the exception of GRAPH 2-COLOURING. Moreover, with the same exception, (<i>P</i>,<i>Q</i>)-COLOURING is NP-complete iff <i>P</i>- and <i>Q</i>-RECOGNITION are both in NP. This proves a 1997 conjecture of Kratochvíl and Schiermeyer. We also provide generalisations to somewhat larger families. Other results that we prove include: · a characterisation of the minimal forbidden subgraphs of a hereditary property in terms of its minimal forbidden induced-subgraphs, and <i>vice versa</i>; · extensions of Mihók's construction of uniquely colourable graphs, and Scheinerman's characterisations of compositivity, to disjoint compositive properties; · an induced-hereditary property has at least two factorisations into arbitrary irreducible properties, with an explicitly described set of exceptions; · if <i>G</i> is a generating set for <i>A</i> &#959; <i>B</i>, where <i>A</i> and <i>B</i> are indiscompositive, then we can extract generating sets for <i>A</i> and <i>B</i> using a <i>greedy algorithm</i>.
105

Uniqueness and Complexity in Generalised Colouring

Farrugia, Alastair January 2003 (has links)
The study and recognition of graph families (or graph properties) is an essential part of combinatorics. Graph colouring is another fundamental concept of graph theory that can be looked at, in large part, as the recognition of a family of graphs that are colourable according to certain rules. In this thesis, we study additive induced-hereditary families, and some generalisations, from a colouring perspective. Our main results are: · Additive induced-hereditary families are uniquely factorisable into irreducible families. · If <i>P</i> and <i>Q</i> are additive induced-hereditary graph families, then (<i>P</i>,<i>Q</i>)-COLOURING is NP-hard, with the exception of GRAPH 2-COLOURING. Moreover, with the same exception, (<i>P</i>,<i>Q</i>)-COLOURING is NP-complete iff <i>P</i>- and <i>Q</i>-RECOGNITION are both in NP. This proves a 1997 conjecture of Kratochvíl and Schiermeyer. We also provide generalisations to somewhat larger families. Other results that we prove include: · a characterisation of the minimal forbidden subgraphs of a hereditary property in terms of its minimal forbidden induced-subgraphs, and <i>vice versa</i>; · extensions of Mihók's construction of uniquely colourable graphs, and Scheinerman's characterisations of compositivity, to disjoint compositive properties; · an induced-hereditary property has at least two factorisations into arbitrary irreducible properties, with an explicitly described set of exceptions; · if <i>G</i> is a generating set for <i>A</i> &#959; <i>B</i>, where <i>A</i> and <i>B</i> are indiscompositive, then we can extract generating sets for <i>A</i> and <i>B</i> using a <i>greedy algorithm</i>.
106

Continuous real-time measurement of the chemical composition of atmospheric particles in Greece using aerosol mass spectrometry

Φλώρου, Καλλιόπη 04 November 2014 (has links)
Atmospheric aerosol is an important component of our atmosphere influencing human health, regional and global atmospheric chemistry and climate. The organic component of submicron aerosol contributes around 50% of its mass and is a complex mixture of tens of thousands of compounds. Real-time aerosol mass spectrometry was the major measurement tool used in this work. The Aerodyne High Resolution Time of Flight Aerosol Mass Spectrometer (HR-ToF-AMS) can quantitatively measure the chemical composition and size distribution of non-refractory submicron aerosol (NR-PM1). The mass spectra provided by the instrument every few minutes contain information about aerosol sources and processes. This thesis uses the HR-ToF-AMS measurements in two areas of Greece to quantify the contributions of organic aerosol sources to the corresponding organic aerosol levels. Local and regional air pollution sources were monitored and characterized in two sites during intensive campaigns. The first campaign took place during the fall of 2011 (September 24 to October 23) in Finokalia, Crete, a remote-background coastal site without any major human activity. The aim of the study was to quantify the extent of oxidation of the organic aerosol (OA) during autumn, a season neither too hot nor cold, with reduced solar radiation in comparison to summer. The second one took place during the winter of 2012 (February 26 to March 5), in the third major city of Greece, Patras. The measurements were conducted in the campus of the Technological Educational Institute of Patras (TEI), in order to quantify the severity of the wintertime air pollution problem in the area and its sources. The contributions of traffic and residential wood burning were the foci of that study. The Finokalia site is isolated and far away from anthropogenic sources of pollution, making it ideal for the study of organic aerosol coming from different directions, usually exposed to high levels of atmospheric oxidants. The fine PM measured during the Finokalia Atmospheric Measurement Experiment (FAME-11) by the AMS and a Multi Angle Absorption Photometer (MAAP) was mostly ammonium sulfate and bisulfate (60%), organic compounds (34%), and BC (5%). The aerosol sampled originated mainly from Turkey during the first days of the study, but also from Athens and Northern Greece during the last days of the campaign. By performing Positive Matrix Factorization (PMF) analysis on the AMS organic spectra for the whole dataset the organic aerosol (OA) composition could be explained by two components: a low volatility factor (LV-OOA) and a semi-volatile one (SV-OOA). Hydrocarbon-like organic aerosol (HOA) was not present, consistent with the lack of strong local sources. The second field campaign took place in the suburbs of the city of Patras, 4 km away from the city center during the winter of 2012. During this 10-day campaign, organics were responsible for 70% during the day and 80% during the evening of the total PM1. The OA mean concentration during that period was approximately 20 μg m-3 and reaching hourly maximum values as high as 85 μg m-3. Sulfate ions and black carbon followed with 10% and 7% of the PM1. PMF analysis of the organic mass spectra of PM1 explained the OA observations with four sources: cooking (COA), traffic (HOA), biomass burning (BBOA), and oxygenated aerosol (OOA), related to secondary formation and long range transport. On average, BBOA represented 58% of the total OM, followed by OOA with 18%, COA and HOA, with the last two contributing of the same percentage (12%). / --
107

Représentations des polynômes, algorithmes et bornes inférieures

Grenet, Bruno 29 November 2012 (has links) (PDF)
La complexité algorithmique est l'étude des ressources nécessaires -- le temps, la mémoire, ... -- pour résoudre un problème de manière algorithmique. Dans ce cadre, la théorie de la complexité algébrique est l'étude de la complexité algorithmique de problèmes de nature algébrique, concernant des polynômes.Dans cette thèse, nous étudions différents aspects de la complexité algébrique. D'une part, nous nous intéressons à l'expressivité des déterminants de matrices comme représentations des polynômes dans le modèle de complexité de Valiant. Nous montrons que les matrices symétriques ont la même expressivité que les matrices quelconques dès que la caractéristique du corps est différente de deux, mais que ce n'est plus le cas en caractéristique deux. Nous construisons également la représentation la plus compacte connue du permanent par un déterminant. D'autre part, nous étudions la complexité algorithmique de problèmes algébriques. Nous montrons que la détection de racines dans un système de n polynômes homogènes à n variables est NP-difficile. En lien avec la question " VP = VNP ? ", version algébrique de " P = NP ? ", nous obtenons une borne inférieure pour le calcul du permanent d'une matrice par un circuit arithmétique, et nous exhibons des liens unissant ce problème et celui du test d'identité polynomiale. Enfin nous fournissons des algorithmes efficaces pour la factorisation des polynômes lacunaires à deux variables.
108

Tests phénoménologiques de la chromodynamique quantique perturbative à haute énergie au LHC

Ducloué, Bertrand 08 July 2014 (has links) (PDF)
Dans la limite des hautes énergies, la petite valeur de la constante de couplage de l'interaction forte peut être compensée par l'apparition de grands logarithmes de l'énergie dans le centre de masse. Toutes ces contributions peuvent être du même ordre de grandeur et sont resommées par l'équation de Balitsky-Fadin-Kuraev-Lipatov (BFKL). De nombreux processus ont été proposés pour étudier cette dynamique. L'un des plus prometteurs, proposé par Mueller et Navelet, est l'étude de la production de deux jets vers l'avant séparés par un grand intervalle en rapidité dans les collisions de hadrons. Un calcul BFKL ne prenant en compte que les termes dominants (approximation des logarithmes dominants ou LL) prédit une augmentation rapide de la section efficace avec l'augmentation de l'intervalle en rapidité entre les jets ainsi qu'une faible corrélation angulaire. Cependant, des calculs basés sur cette approximation ne purent pas décrire correctement les mesures expérimentales de ces observables au Tevatron. Dans cette thèse, nous étudions ce processus à l'ordre des logarithmes sous-dominants, ou NLL, en prenant en compte les corrections NLL aux facteurs d'impact, qui décrivent la transition d'un hadron initial vers un jet, et à la fonction de Green, qui décrit le couplage entre les facteurs d'impact. Nous étudions l'importance de ces corrections NLL et trouvons qu'elles sont très importantes, ce qui conduit à des résultats très différents de ceux obtenus à l'ordre des logarithmes dominants. De plus, ces résultats dépendent fortement du choix des échelles présentes dans ce processus. Nous comparons nos résultats avec des données récentes de la collaboration CMS sur les corrélations angulaires des jets Mueller-Navelet au LHC et ne trouvons pas un bon accord. Nous montrons que cela peut être corrigé en utilisant la procédure de Brodsky-Lepage-Mackenzie pour fixer le choix de l'échelle de renormalisation. Cela conduit à des résultats plus stables et une très bonne description des données de CMS. Finalement, nous montrons que, à l'ordre des logarithmes sous-dominants, l'absence de conservation stricte de l'énergie-impulsion (qui est un effet négligé dans un calcul BFKL) devrait être un problème beaucoup moins important qu'à l'ordre des logarithmes dominants.
109

Contributions à la reconstruction spatiale et temporelle à partir de plusieurs caméras

Zaharescu, Andrei 21 October 2008 (has links) (PDF)
Cette thèse propose une méthodologie pour construire un système de reconstruction spatiale et temporelle à partir de plusieurs caméras: étalonnage des caméras et reconstruction 3-D éparse, reconstruction 3-D dense, reconstruction temporelle éparse et dense. Tout d'abord, une formulation probabiliste est dévelo-ppée en association avec des algorithmes de factorisation affine (méthode de reconstruction 3-D fondée sur la factorisation matricielle). Elle permet de récupérer à la fois les paramètres extrinsèques des caméras et les coordonnées 3-D des points de contrôle, étant données les correspondances 2-D de leurs projections et les paramètres intrinsèques des caméras. Le cadre proposé est robuste au bruit et se compare favorablement avec l'ajustement de faisceaux, une méthode standard de minimisation non-linéaire, qui exige un bon estimé initial non loin de l'optimum. Deuxièmement, une méthode d'évolution de maillages est proposée. Elle est capable de gérer les changements topologiques et les auto-intersections sans imposer de contraintes d'échantillonnage sur le maillage. La géométrie exacte du maillage est préservée, à l'exception des parties qui s'auto-intersectent, que l'on retriangularise localement. Des applications sont présentées: le morphing des maillages et la reconstruction 3-D à partir de plusieurs caméras en utilisant des méthodes variationnelles. Troisièmement, une méthode de regroupement de caméras qui utilise l'information de la scène est développée, capable de séparer des reconstructions à grande échelle qui consomment beaucoup de mémoire en plusieurs petites tâches indépendantes de reconstructions partielles utilisant moins de ressources. Enfin, un nouveau descripteur en 3 dimensions est proposé, défini sur des maillages triangulaires échantillonné uniformément. Il est invariant à la rotation, la translation, l'échelle, étant en mesure de capturer les informations géométriques et photométriques locales. Il est particulièrement utile dans le cadre multi-caméras, où les maillages reconstruits bénéficient de la couleur / texture. De plus, le descripteur est défini d'une manière générique pour une fonction quelconque tout au long de la surface (i.e. la couleur, la courbure). Des résultats de correspondance rigide et non rigide sont présentés. Finalement, le descripteur est intégré dans un cadre de suivi temporel dense du maillage.
110

Séparation de sources en imagerie nucléaire / Source separation in nuclear imaging

Filippi, Marc 05 April 2018 (has links)
En imagerie nucléaire (scintigraphie, TEMP, TEP), les diagnostics sont fréquemment faits à l'aide des courbes d'activité temporelles des différents organes et tissus étudiés. Ces courbes représentent l'évolution de la distribution d'un traceur radioactif injecté dans le patient. Leur obtention est compliquée par la superposition des organes et des tissus dans les séquences d'images 2D, et il convient donc de séparer les différentes contributions présentes dans les pixels. Le problème de séparation de sources sous-jacent étant sous-déterminé, nous proposons d'y faire face dans cette thèse en exploitant différentes connaissances a priori d'ordre spatial et temporel sur les sources. Les principales connaissances intégrées ici sont les régions d'intérêt (ROI) des sources qui apportent des informations spatiales riches. Contrairement aux travaux antérieurs qui ont une approche binaire, nous intégrons cette connaissance de manière robuste à la méthode de séparation, afin que cette dernière ne soit pas sensible aux variations inter et intra-utilisateurs dans la sélection des ROI. La méthode de séparation générique proposée prend la forme d'une fonctionnelle à minimiser, constituée d'un terme d'attache aux données ainsi que de pénalisations et de relâchements de contraintes exprimant les connaissances a priori. L'étude sur des images de synthèse montrent les bons résultats de notre approche par rapport à l'état de l'art. Deux applications, l'une sur les reins, l'autre sur le cœur illustrent les résultats sur des données cliniques réelles. / In nuclear imaging (scintigraphy, SPECT, PET), diagnostics are often made with time activity curves (TAC) of organs and tissues. These TACs represent the dynamic evolution of tracer distribution inside patient's body. Extraction of TACs can be complicated by overlapping in the 2D image sequences, hence source separation methods must be used in order to extract TAC properly. However, the underlying separation problem is underdetermined. We propose to overcome this difficulty by adding some spatial and temporal prior knowledge about sources on the separation process. The main knowledge used in this work is region of interest (ROI) of organs and tissues. Unlike state of the art methods, ROI are integrated in a robust way in our method, in order to face user-dependancy in their selection. The proposed method is generic and minimize an objective function composed with a data fidelity criterion, penalizations and relaxations expressing prior knowledge. Results on synthetic datasets show the efficiency of the proposed method compare to state of the art methods. Two clinical applications on the kidney and on the heart are also adressed.

Page generated in 0.0778 seconds