• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 82
  • 70
  • 16
  • 3
  • 1
  • 1
  • Tagged with
  • 186
  • 74
  • 58
  • 44
  • 33
  • 31
  • 30
  • 30
  • 25
  • 25
  • 23
  • 23
  • 21
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

S³niffer : un système de recherche de service basé sur leur description / S3niffer : A text description-based service search system

Caicedo-Castro, Isaac 12 May 2015 (has links)
Dans cette recherche, nous abordons le problème de le recherche de services qui répondent à des besoins des utilisateurs exprimés sous forme de requête en texte libre. Notre objectif est de résoudre les problèmes qui affectent l'efficacité des modèles de recherche d'information existant lorsqu'ils sont appliqués à la recherche de services dans un corpus rassemblant des descriptions standard de ces services. Ces problèmes sont issus du fait que les descriptions des services sont brèves. En effet, les fournisseurs de services n'utilisent que quelques termes pour décrire les services souhaités. Ainsi, lorsque ces descriptions sont différentes des phrases dans les requêtes ce qui diminue l'efficacité des modèles classiques qui dépendent de traits observables au lieu de traits sémantiques latents du texte. Nous avons adapté une famille de modèles de recherche d'information (IR) dans le but de contribuer à accroître l'efficacité acquise avec les modèles existant concernant la découverte de services. En outre, nous avons mené des expériences systématiques afin de comparer notre famille de modèles IR avec ceux de l'état de l'art portant sur la découverte de service. Des résultats des expériences, nous concluons que notre modèle basé sur l'extension des requêtes via un thésaurus co-occurrence est plus efficace en terme des mesures classiques utilisées en IR que tous les modèles étudiés dans cette recherche. Par conséquent, nous avons mis en place ce modèle dans S3niffer, qui est un moteur de recherche de service basé sur leur description standard. / In this research, we address the problem of retrieving services which fulfil users' need expressed in query in free text. Our goal is to cope the term mismatch problems which affect the effectiveness of service retrieval models applied in prior re- search on text descriptions-based service retrieval models. These problems are caused due to service descriptions are brief. Service providers use few terms to describe desired services, thereby, when these descriptions are different to the sentences in queries, term mismatch problems decrease the effectiveness in classical models which depend on the observable text features instead of the latent semantic features of the text. We have applied a family of Information Retrieval (IR) models for the purpose of contributing to increase the effectiveness acquired with the models applied in prior research on service retrieval. Besides, we have conducted systematic experiments to compare our family of IR models with those used in the state-of-the-art in service discovery. From the outcomes of the experiments, we conclude that our model based on query expansion via a co-occurrence thesaurus outperforms the effectiveness of all the models studied in this research. Therefore, we have implemented this model in S3niffer, which is a text description-based service search engine.
22

Efficient "black-box" multigrid solvers for convection-dominated problems

Rees, Glyn Owen January 2011 (has links)
The main objective of this project is to develop a "black-box" multigrid preconditioner for the iterative solution of finite element discretisations of the convection-diffusion equation with dominant convection. This equation can be considered a stand alone scalar problem or as part of a more complex system of partial differential equations, such as the Navier-Stokes equations. The project will focus on the stand alone scalar problem. Multigrid is considered an optimal preconditioner for scalar elliptic problems. This strategy can also be used for convection-diffusion problems, however an appropriate robust smoother needs to be developed to achieve mesh-independent convergence. The focus of the thesis is on the development of such a smoother. In this context a novel smoother is developed referred to as truncated incomplete factorisation (tILU) smoother. In terms of computational complexity and memory requirements, the smoother is considerably less expensive than the standard ILU(0) smoother. At the same time, it exhibits the same robustness as ILU(0) with respect to the problem and discretisation parameters. The new smoother significantly outperforms the standard damped Jacobi smoother and is a competitor to the Gauss-Seidel smoother (and in a number of important cases tILU outperforms the Gauss-Seidel smoother). The new smoother depends on a single parameter (the truncation ratio). The project obtains a default value for this parameter and demonstrated the robust performance of the smoother on a broad range of problems. Therefore, the new smoothing method can be regarded as "black-box". Furthermore, the new smoother does not require any particular ordering of the nodes, which is a prerequisite for many robust smoothers developed for convection-dominated convection-diffusion problems. To test the effectiveness of the preconditioning methodology, we consider a number of model problems (in both 2D and 3D) including uniform and complex (recirculating) convection fields discretised by uniform, stretched and adaptively refined grids. The new multigrid preconditioner within block preconditioning of the Navier-Stokes equations was also tested. The numerical results gained during the investigation confirm that tILU is a scalable, robust smoother for both geometric and algebraic multigrid. Also, comprehensive tests show that the tILU smoother is a competitive method.
23

L'analyse probabiliste en composantes latentes et ses adaptations aux signaux musicaux : application à la transcription automatique de musique et à la séparation de sources / Probabilistic latent component analysis and its adaptation to musical signals : application to automatic music transcription and source separation

Fuentes, Benoît 14 March 2013 (has links)
La transcription automatique de musique polyphonique consiste à estimer automatiquernent les notes présentes dans un enregistrement via trois de leurs attributs : temps d'attaque, durée et hauteur. Pour traiter ce problème, il existe une classe de méthodes dont le principe est de modéliser un signal comme une somme d'éléments de base, porteurs d'informations symboliques. Parmi ces techniques d'analyse, on trouve l'analyse probabiliste en composantes latentes (PLCA). L'objet de cette thèse est de proposer des variantes et des améliorations de la PLCA afin qu'elle puisse mieux s'adapter aux signaux musicaux et ainsi mieux traiter le problème de la transcription. Pour cela, un premier angle d'approche est de proposer de nouveaux modèles de signaux, en lieu et place du modèle inhérent à la PLCA, suffisamment expressifs pour pouvoir s'adapter aux notes de musique possédant simultanément des variations temporelles de fréquence fondamentale et d'enveloppe spectrale. Un deuxième aspect du travail effectué est de proposer des outils permettant d'aider l'algorithme d'estimation des paramètres à converger vers des solutions significatives via l'incorporation de connaissances a priori sur les signaux à analyser, ainsi que d'un nouveau modèle dynamique. Tous les algorithmes ainsi imaginés sont appliqués à la tâche de transcription automatique. Nous voyons également qu'ils peuvent être directement utilisés pour la séparation de sources, qui consiste à séparer plusieurs sources d'un mélange, et nous proposons deux applications dans ce sens. / Automatic music transcription consists in automatically estimating the notes in a recording, through three attributes: onset time, duration and pitch. To address this problem, there is a class of methods which is based on the modeling of a signal as a sum of basic elements, carrying symbolic information. Among these analysis techniques, one can find the probabilistic latent component analysis (PLCA). The purpose of this thesis is to propose variants and improvements of the PLCA, so that it can better adapt to musical signals and th us better address the problem of transcription. To this aim, a first approach is to put forward new models of signals, instead of the inherent model 0 PLCA, expressive enough so they can adapt to musical notes having variations of both pitch and spectral envelope over time. A second aspect of this work is to provide tools to help the parameters estimation algorithm to converge towards meaningful solutions through the incorporation of prior knowledge about the signals to be analyzed, as weil as a new dynamic model. Ali the devised algorithms are applie to the task of automatic transcription. They can also be directly used for source separation, which consists in separating several sources from a mixture, and Iwo applications are put forward in this direction
24

Memory-aware Algorithms and Scheduling Techniques for Matrix Computattions / Algorithmes orientés mémoire et techniques d'ordonnancement pour le calcul matriciel

Herrmann, Julien 25 November 2015 (has links)
Dans cette thèse, nous nous sommes penchés d’un point de vue à la foisthéorique et pratique sur la conception d’algorithmes et detechniques d’ordonnancement adaptées aux architectures complexes dessuperordinateurs modernes. Nous nous sommes en particulier intéressésà l’utilisation mémoire et la gestion des communications desalgorithmes pour le calcul haute performance (HPC). Nous avonsexploité l’hétérogénéité des superordinateurs modernes pour améliorerles performances du calcul matriciel. Nous avons étudié lapossibilité d’alterner intelligemment des étapes de factorisation LU(plus rapide) et des étapes de factorisation QR (plus stablenumériquement mais plus deux fois plus coûteuses) pour résoudre unsystème linéaire dense. Nous avons amélioré les performances desystèmes d’exécution dynamique à l’aide de pré-calculs statiquesprenants en compte l’ensemble du graphe de tâches de la factorisationCholesky ainsi que l’hétérogénéité de l’architecture. Nous noussommes intéressés à la complexité du problème d’ordonnancement degraphes de tâches utilisant de gros fichiers d’entrée et de sortiesur une architecture hétérogène avec deux types de ressources,utilisant chacune une mémoire spécifique. Nous avons conçu denombreuses heuristiques en temps polynomial pour la résolution deproblèmes généraux que l’on avait prouvés NP-complet aupréalable. Enfin, nous avons conçu des algorithmes optimaux pourordonnancer un graphe de différentiation automatique sur uneplateforme avec deux types de mémoire : une mémoire gratuite maislimitée et une mémoire coûteuse mais illimitée. / Throughout this thesis, we have designed memory-aware algorithms and scheduling techniques suitedfor modern memory architectures. We have shown special interest in improving the performance ofmatrix computations on multiple levels. At a high level, we have introduced new numerical algorithmsfor solving linear systems on large distributed platforms. Most of the time, these linear solvers rely onruntime systems to handle resources allocation and data management. We also focused on improving thedynamic schedulers embedded in these runtime systems by adding static information to their decisionprocess. We proposed new memory-aware dynamic heuristics to schedule workflows, that could beimplemented in such runtime systems.Altogether, we have dealt with multiple state-of-the-art factorization algorithms used to solve linearsystems, like the LU, QR and Cholesky factorizations. We targeted different platforms ranging frommulticore processors to distributed memory clusters, and worked with several reference runtime systemstailored for these architectures, such as P A RSEC and StarPU. On a theoretical side, we took specialcare of modelling convoluted hierarchical memory architectures. We have classified the problems thatare arising when dealing with these storage platforms. We have designed many efficient polynomial-timeheuristics on general problems that had been shown NP-complete beforehand.
25

Réactions dures exclusives au twist sous-dominant / Hard exclusive processes beyond the leading twist

Besse, Adrien 02 July 2013 (has links)
Le sujet de cette thèse sont les amplitudes d'hélicités de la leptoproduction exclusive et diffractive du méson rho dans la limite de Regge perturbative et au-delà du twist dominant. La compréhension de pareils processus exclusifs en termes des constituants élémentaires de QCD est un important défi pour comprendre la structure des hadrons. On présente ici deux nouveaux modèles phénoménologiques basés sur la kT-factorisation des amplitudes d'hélicités en un facteur d'impact γ*(λ) → ρ(λ'), où λ et λ' dénotent les polarisations du photon virtuel et du méson rho, et le facteur d'impact du nucléon cible. Les facteurs d'impacts γ*(λ) → ρ(λ') sont calculés en utilisant la factorisation colinéaire pour séparer la partie molle du méson rho. Le premier modèle est obtenu en combinant les résultats respectivement de twist 2 et twist 3 des facteurs d'impacts où les deux polarisations sont longitudinales ou transverses, avec un modèle pour le facteur d'impact du nucléon et un modèle pour les distributions d'amplitudes du méson rho. Dans la seconde approche présentée dans cette thèse, on calcule ces facteurs d'impacts dans l'espace des paramètres d'impacts et on montre que l'amplitude de diffusion d'un dipôle de couleur avec le nucléon se factorise, permettant de combiner nos résultats avec un modèle de section efficace de dipôle. On obtient en très bon accord avec les données de H1 et ZEUS pour des virtualités plus grandes que quelques GeV. Nous discutons les résultats obtenus et les comparons à d'autres modèles existants. / This thesis deals with the computation of the helicity amplitudes of the exclusive diffractive rho meson leptoproduction in the perturbative Regge limit beyond the leading twist. The understanding of such exclusive processes in terms of the elementary constituents of QCD is a serious challenge to understand the hadronic structure. We present two new phenomenological models based on the kT-factorization of the helicity amplitudes in a γ*(λ) → ρ(λ') impact factor, where λ and λ' denote the polarizations of the virtual photon and the rho meson, and the nucleon target impact factor. The γ*(λ) → ρ(λ') impact factors are then computed using the collinear factorization of the rho meson soft part. The first model relies on the combination of the results respectively up to twist 2 and twist 3 for the impact factors where both polarizations are longitudinal or transverse, with a model for the nucleon impact factor and a model for the distribution amplitudes of the rho meson. In the second approach presented in this thesis, we derive these impact factors in impact parameter space and show that the color dipole scattering amplitude with the nucleon factorizes, allowing to use our results in combination with dipole cross-section models. We get a very good agreement with the data from H1 and ZEUS collaborations for virtualities higher than a few GeV. We discuss our results and compare them to other models.
26

Décomposition booléenne des tableaux multi-dimensionnels de données binaires : une approche par modèle de mélange post non-linéaire / Boolean decomposition of binary multidimensional arrays using a post nonlinear mixture model

Diop, Mamadou 14 December 2018 (has links)
Cette thèse aborde le problème de la décomposition booléenne des tableaux multidimensionnels de données binaires par modèle de mélange post non-linéaire. Dans la première partie, nous introduisons une nouvelle approche pour la factorisation booléenne en matrices binaires (FBMB) fondée sur un modèle de mélange post non-linéaire. Contrairement aux autres méthodes de factorisation de matrices binaires existantes, fondées sur le produit matriciel classique, le modèle proposé est équivalent au modèle booléen de factorisation matricielle lorsque les entrées des facteurs sont exactement binaires et donne des résultats plus interprétables dans le cas de sources binaires corrélées, et des rangs d'approximation matricielle plus faibles. Une condition nécessaire et suffisante d'unicité pour la FBMB est également fournie. Deux algorithmes s'appuyant sur une mise à jour multiplicative sont proposés et illustrés dans des simulations numériques ainsi que sur un jeu de données réelles. La généralisation de cette approche au cas de tableaux multidimensionnels (tenseurs) binaires conduit à la factorisation booléenne de tenseurs binaires (FBTB). La démonstration de la condition nécessaire et suffisante d’unicité de la décomposition booléenne de tenseurs binaires repose sur la notion d'indépendance booléenne d'une famille de vecteurs. L'algorithme multiplicatif fondé sur le modèle de mélange post non-linéaire est étendu au cas multidimensionnel. Nous proposons également un nouvel algorithme, plus efficace, s'appuyant sur une stratégie de type AO-ADMM (Alternating Optimization -ADMM). Ces algorithmes sont comparés à ceux de l'état de l'art sur des données simulées et sur un jeu de données réelles / This work is dedicated to the study of boolean decompositions of binary multidimensional arrays using a post nonlinear mixture model. In the first part, we introduce a new approach for the boolean factorization of binary matrices (BFBM) based on a post nonlinear mixture model. Unlike the existing binary matrix factorization methods, the proposed method is equivalent to the boolean factorization model when the matrices are strictly binary and give thus more interpretable results in the case of correlated sources and lower rank matrix approximations compared to other state-of-the-art algorithms. A necessary and suffi-cient condition for the uniqueness of the BFBM is also provided. Two algorithms based on multiplicative update rules are proposed and tested in numerical simulations, as well as on a real dataset. The gener-alization of this approach to the case of binary multidimensional arrays (tensors) leads to the boolean factorisation of binary tensors (BFBT). The proof of the necessary and sufficient condition for the boolean decomposition of binary tensors is based on a notion of boolean independence of binary vectors. The multiplicative algorithm based on the post nonlinear mixture model is extended to the multidimensional case. We also propose a new algorithm based on an AO-ADMM (Alternating Optimization-ADMM) strategy. These algorithms are compared to state-of-the-art algorithms on simulated and on real data
27

Transcription et séparation automatique de la mélodie principale dans les signaux de musique polyphoniques

Durrieu, Jean-Louis 07 May 2010 (has links) (PDF)
Nous proposons de traiter l'extraction de la mélodie principale, ainsi que la séparation de l'instrument jouant cette mélodie. La première tâche appartient au domaine de la recherche d'information musicale (MIR) : nous cherchons à indexer les morceaux de musique à l'aide de leur mélodie. La seconde application est la séparation aveugle de sources sonores (BASS) : extraire une piste audio pour chaque source présente dans un mélange sonore. La séparation de la mélodie principale et de l'accompagnement et l'extraction de cette mélodie sont traitées au sein d'un même cadre statistique. Le modèle pour l'instrument principal est un modèle de production source/filtre. Il suppose deux états cachés correspondant à l'état du filtre et de la source. Le modèle spectral choisi permet de prendre compte les fréquences fondamentales de l'instrument désiré et de séparer ce dernier de l'accompagnement. Deux modèles de signaux sont proposés, un modèle de mélange de gaussiennes amplifiées (GSMM) et un modèle de mélange instantané (IMM). L'accompagnement est modélisé par un modèle spectral plus général. Cinq systèmes sont proposés, trois systèmes fournissent la mélodie sous forme de séquence de fréquences fondamentales, un système fournit les notes de la mélodie et le dernier système sépare l'instrument principal de l'accompagnement. Les résultats en estimation de la mélodie et en séparation sont du niveau de l'état de l'art, comme l'ont montré nos participations aux évaluations internationales (MIREX'08, MIREX'09 et SiSEC'08). Nous avons ainsi réussi à intégrer de la connaissance musicale améliorant les résultats de travaux antérieurs sur la séparation de sources sonores.
28

Les fibrations de Grothendieck et l’algèbre homotopique / Grothendieck fibrations and homotopical algebra

Balzin, Eduard 20 June 2016 (has links)
Cette thèse est consacrée à l'étude des familles de catégories munies d'une structure homotopique. Les résultats principaux compris dans cette oeuvre sont : i. Une généralisation de la structure de modèles de Reedy, qui dans ce travail est construite pour les sections d'une famille convenable des catégories de modèles sur une catégorie de Reedy. À la différence des considérations précédentes, par exemple celles de Hirschowitz-Simpson, nous exigeons aussi peu de propriétés de la famille que possible, pour que notre résultat puisse être appliqué dans les situations où les foncteurs de transition ne sont pas linéaires. ii. Une extension du formalisme de Segal pour les structures algébriques, dans le territoire des catégories monoïdales sur une catégorie d'opérateurs au sens de Barwick. Pour ce faire, nous présentons les structures monoidales comme certaines opfibrations de Grotendieck, et introduisons les sections dérivées des opfibrations en utilisant les remplacements simpliciaux de Bousfield-Kan. Notre résultat concernant la structure de Reedy nous permet alors de travailler avec les sections dérivées. iii. Une preuve d'un certain résultat de la descente homotopique, qui donne des conditions suffisantes pour que le foncteur d'image inverse soit une équivalence entre catégories de sections dérivées au sens adapté. L'on montre ce résultat pour les foncteurs qui satisfont une propriété technique du genre ``Théorème A de Quillen'', les foncteurs que nous appelons résolutions. Un exemple d'une résolution est donné par un foncteur de la catégorie des arbres planaires stables de Kontsevich-Soibelman, au groupoïde fondamental stratifié de l'espace de Ran du $2$-disque / This thesis is devoted to the study of families of categories equipped with a homotopical structure. The principal results comprising this work are:i. A generalisation of the Reedy model structure, which, in this work, is constructed for sections of a suitable family of model categories over a Reedy category. Unlike previous considerations, such as Hirschowitz-Simpson, we require as little as possible from the family, so that our result may be applied in situations when the transition functors in the family are non-linear in nature. ii. An extension of Segal formalism for algebraic structures to the setting of monoidal categories over an operator category in the sense of Barwick. We do this by treating monoidal structures using the language of Grothendieck opfibrations, and introduce derived sections of the latter using the simplicial replacements of Bousfield-Kan. Our Reedy structure result then permits to work with derived sections. iii. A proof of a certain homotopy descent result, which gives sufficient conditions on when an inverse image functor is an equivalence between suitable categories of derived sections. We show this result for functors which satisfy a technical ``Quillen Theorem A''-type property, called resolutions. One example of a resolution is given by a functor from the category of planar marked trees of Kontsevich-Soibelman, to the stratified fundamental groupoid of the Ran space of the $2$-disc. An application of the homotopy descent result to this functor gives us a new proof of Deligne conjecture, providing an alternative to the use of operads
29

Etude de faisabilité de l'estimation non-invasive de la fonction d'entrée artérielle B+ pour l'imagerie TEP chez l'homme / Feasibility study of the non-invasive estimation of the b+ arterial input function for human PET imaging

Hubert, Xavier 08 December 2009 (has links)
Cette thèse traite de l'estimation de la concentration dans le sang artériel de molécules marquées par un radioélément émettant des positons. Cette concentration est appelée « fonction d'entrée artérielle B+ ». Elle doit être déterminée dans de nombreuses analyses en pharmacocinétique. Actuellement, elle est mesurée à l'aide d'une série de prélèvements artériels, méthode précise mais nécessitant un protocole contraignant. Des complications liées au caractère invasif de la méthode peuvent survenir (hématomes, infections nosocomiales).L'objectif de cette thèse est de s'affranchir de ses prélèvements artériels par l'estimation non-invasive de la fonction d'entrée B+ à l'aide d'un détecteur externe et d'un collimateur. Cela permet la reconstruction des vaisseaux sanguins afin de discriminer le signal artériel du signal contenu dans les autres tissus avoisinants. Les collimateurs utilisés en imagerie médicale ne sont pas adaptés à l'estimation de la fonction d'entrée artérielle B+ car leur sensibilité est très faible. Pour cette thèse, ils sont remplacés par des collimateurs codés, issus de la recherche en astronomie. De nouvelles méthodes pour utiliser des collimateurs à ouverture codée avec des algorithmes statistiques de reconstruction sont présentées.Des techniques de lancer de rayons et une méthode d'accélération de la convergence des reconstructions sont proposées. Une méthode de décomposition spatio-temporelle est également mise au point pour estimer efficacement la fonction d'entrée artérielle à partir d'une série d'acquisitions temporelles.Cette thèse montre qu'il est possible d'améliorer le compromis entre sensibilité et résolution spatiale en tomographie d'émission à l'aide de masques codés et d'algorithmes statistiques de reconstruction ; elle fournit également les outils nécessaires à la réalisation de tellesreconstructions. / This work deals with the estimation of the concentration of molecules in arterial blood which are labelled with positron-emitting radioelements. This concentration is called “ B+ arterial input function”. This concentration has to be estimated for a large number of pharmacokinetic analyses. Nowadays it is measured through series of arterial sampling, which is an accurate method but requiring a stringent protocol. Complications might occur during arterial blood sampling because this method is invasive (hematomes, nosocomial infections).The objective of this work is to overcome this risk through a non-invasive estimation of B+ input function with an external detector and a collimator. This allows the reconstruction of blood vessels and thus the discrimination of arterial signal from signals in other tissues.Collimators in medical imaging are not adapted to estimate B+ input function because their sensitivity is very low. During this work, they are replaced by coded-aperture collimators, originally developed for astronomy.New methods where coded apertures are used with statistical reconstruction algorithms are presented. Techniques for analytical ray-tracing and for the acceleration of reconstructions are proposed. A new method which decomposes reconstructions on temporal sets and on spatial sets is also developped to efficiently estimate arterial input function from series of temporal acquisitions.This work demonstrates that the trade-off between sensitivity and spatial resolution in PET can be improved thanks to coded aperture collimators and statistical reconstruction algorithm; it also provides new tools to implement such improvements.
30

Étude perturbative de différents processus exclusifs en QCD aux énergies hautes et modérées / Perturbative study of selected exclusive QCD processes at high and moderate energies

Boussarie, Renaud 23 September 2016 (has links)
Aux énergies assez hautes, les processus de QCD peuvent être factorisés en une partie dure, qui peut être calculée en utilisant les méthodes perturbatives des diagrammes de Feynman grâce à la petite valeur de la constante de couplage de l'interaction forte, et une partie non-perturbative qui doit être extraite de données expérimentales, modélisées ou calculées avec d'autres méthodes comme par exemple la QCD sur réseau. Cependant la petite valeur de la constante de couplage dans la partie perturbative peut être compensée par des grands logarithmes émergeant de l'annulation de divergences molles ou colinéaires, ou de la présence d'échelles cinématiques multiples. De telles contributions doivent être resommées, ce qui mène à l'équation d'évolution DGLAP aux énergies modérées et aux équations BFKL et B-JIMWLK dans la limite des hautes énergies. Pour les énergies les plus grandes des effets de recombinaison de gluons amènent à la saturation, qui peut être décrite par le formalisme du CGC ou des ondes de choc. Dans cette thèse, nous nous proposons d'étudier certains processus exclusifs en QCD perturbative afin d'obtenir une meilleure description de la factorisation et des effets de resommation et de saturation. Dans un premier temps nous faisons le premier calcul d'une quantité exclusive au premier ordre sous-dominant (NLO) dans le contexte du formalisme des ondes de choc de QCD. Nous calculons l'amplitude NLO pour la production diffractive ouverte d'une paire quark-antiquark, puis nous parvenons à construire une section efficace finie à l'aide de cette amplitude en étudiant la production diffractive exclusive de deux jets vers l'avant. Des analyses précises phénoménologiques et expérimentales de ce processus devraient améliorer notre compréhension de la resommation à haute énergie grâce à la présence d'un Pomeron échangé en diffraction, ce qui est naturellement décrit par la resommation de logarithmes découlant de la divergence molle de la QCD à haute énergie. Notre résultat reste valable quand l'énergie au centre de masse devient proche de l'échelle de saturation ou lorsque la diffraction a lieu sur une cible dense donc il peut être utilisé pour l'étude des effets de saturation. Dans un deuxième temps, nous montrons que l'étude expérimentale de la photoproduction d'un méson léger et d'un photon à énergies modérées devrait constituer un bon moyen d'appréhender les Distributions de Parton Généralisées (GPDs), l'une des généralisations des blocs non perturbatifs en factorisation collinéaire. En principe une telle étude donnerait accès à la fois aux GPDs conservant l'hélicité ou la renversant. Nous donnons des prédictions numériques pour ce processus à JLAB@12GeV. / At high enough energies, QCD processes can be factorized into a hard part, which can be computed by using the smallness of the strong coupling to apply the perturbative Feynman diagram method, and a non-perturbative part which has to be fitted to experimental data, modeled or computed using other tools like for example lattice QCD. However the smallness of the strong coupling in the perturbative part can be compensated by large logarithms which arise from the cancellation of soft or collinear divergences, or by the presence of multiple kinematic scales. Such logarithmically-enhanced contributions must be resummed, leading to the DGLAP evolution at moderate energies and to the BFKL or B-JIMWLK equation in the high energy limit. For the largest energies gluon recombination effects lead to saturation, which can be described in the color glass condensate (CGC) or shockwave formalism. In this thesis, we propose to study several exclusive perturbative QCD processes in order to get a better understanding of factorization, resummation and saturation effects. In the first part we perform the first computation of an exclusive quantity at Next-to-Leading-Order (NLO) accuracy using the QCD shockwave formalism. We calculate the NLO amplitude for the diffractive production of an open quark-antiquark pair, then we manage to construct a finite cross section using this amplitude by studying the exclusive diffractive production of a dijet. Precise phenomenological and experimental analysis of this process should give a great insight on high energy resummation due to the exchange of a Pomeron in diffraction, which is naturally described by the resummation of logarithms emerging from the soft divergences of high energy QCD. Our result holds as the center of mass energy grows towards the saturation scale or for diffraction off a dense target so one could use it to study saturation effects. In the second part we show how the experimental study of the photoproduction of a light meson and a photon at moderate energy should be a good probe for Generalized Parton Distributions (GPDs), one of the generalizations of the non-perturbative building blocks in collinear factorization. In principle such a study would give access to both helicity-conserving and helicity-flip GPDs. We give numerical predictions for this process at JLAB@12GeV.

Page generated in 0.5136 seconds