• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 82
  • 70
  • 16
  • 3
  • 1
  • 1
  • Tagged with
  • 186
  • 74
  • 58
  • 44
  • 33
  • 31
  • 30
  • 30
  • 25
  • 25
  • 23
  • 23
  • 21
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Améliorations de la multiplication et de la factorisation d'entier / Speeding up integer multiplication and factorization

Kruppa, Alexander 28 January 2010 (has links)
Cette thèse propose des améliorations aux problèmes de la multiplication et de la factorisation d’entier.L’algorithme de Schönhage-Strassen pour la multiplication d’entier, publié en 1971, fut le premier à atteindre une complexité de O(n log(n) log(log(n))) pour multiplier deux entiers de n bits, et reste parmi les plus rapides en pratique. Il réduit la multiplication d’entier à celle de polynôme sur un anneau fini, en utilisant la transformée de Fourier rapide pour calculer le produit de convolution. Dans un travail commun avec Gaudry et Zimmermann, nous décrivons une implantation efficace de cet algorithme, basée sur la bibliothèque GNU MP; par rapport aux travaux antérieurs, nous améliorons l’utilisation de la mémoire cache, la sélection des parameters et la longueur de convolution, ce qui donne un gain d’un facteur 2 environ.Les algorithmes P–1 et P+1 trouvent un facteur p d’un entier composé rapidement si p-1, respectivement p+1, ne contient pas de grand facteur premier. Ces algorithmes comportent deux phases : la première phase calcule une grande puissance g1 d’un élément g0 d’un groupe fini défini sur Fp, respectivement Fp^2 , la seconde phase cherche une collision entre puissances de g1, qui est trouvée de manière efficace par évaluation-interpolation de polynômes. Dans un travail avec Peter Lawrence Montgomery, nous proposons une amélioration de la seconde phase de ces algorithmes, avec une construction plus rapide des polynômes requis, et une consommation mémoire optimale, ce qui permet d’augmenter la limite pratique pour le plus grand facteur premier de p-1, resp. p + 1, d’un facteur 100 environ par rapport aux implantations antérieures.Le crible algébrique (NFS) est le meilleur algorithme connu pour factoriser des entiers dont les facteurs n’ont aucune propriété permettant de les trouver rapidement. En particulier, le module du système RSA de chiffrement est choisi de telle sorte, et sa factorisation casse le système. De nombreux efforts ont ainsi été consentis pour améliorer NFS, de façon à établir précisément la sécurité de RSA. Nous donnons un bref aperçu de NFS et de son historique. Lors de la phase de crible de NFS, de nombreux petits entiers doivent être factorisés. Nous présentons en detail une implantation de P–1, P+1, et de la méthode ECM basée sur les courbes elliptiques, qui est optimisée pour de tels petits entiers. Finalement, nous montrons comment les paramètres de ces algorithmes peuvent être choisis finement, en tenant compte de la distribution des facteurs premiers dans les entiers produits par NFS, et de la probabilité de trouver des facteurs premiers d’une taille donnée / This thesis explores improvements to well-known algorithms for integer multiplication and factorization.The Schönhage-Strassen algorithm for integer multiplication, published in 1971, was the firstto achieve complexity O(n log(n) log(log(n))) for multiplication of n-bit numbers and is stillamong the fastest in practice. It reduces integer multiplication to multiplication of polynomials over finite rings which allow the use of the Fast Fourier Transform for computing the convolution product. In joint work with Gaudry and Zimmermann, we describe an efficient implementation of the algorithm based on the GNU Multiple Precision arithmetic library, improving cache utilization, parameter selection and convolution length for the polynomial multiplication over previous implementations, resulting in nearly 2-fold speedup.The P–1 and P+1 factoring algorithms find a prime factor p of a composite number quickly if p-1, respectively p+1, contains no large prime factors. They work in two stages: the first step computes a high power g1 of an element g0 of a finite group defined over Fp, respectively Fp^2 , the second stage looks for a collision of powers of g1 which can be performed efficiently via polynomial multi-point evaluation. In joint work with Peter Lawrence Montgomery, we present an improved stage 2 for these algorithms with faster construction of the required polynomial and very memory-efficient evaluation, increasing the practical search limit for the largest permissible prime in p-1, resp. p+1, approximately 100-fold over previous implementations.The Number Field Sieve (NFS) is the fastest known factoring algorithm for “hard” integers where the factors have no properties that would make them easy to find. In particular, the modulus of the RSA encryption system is chosen to be a hard composite integer, and its factorization breaks the encryption. Great efforts are therefore made to improve NFS in order to assess the security of RSA accurately. We give a brief overview of the NFS and its history. In the sieving phase of NFS, a great many smaller integers must be factored. We present in detail an implementation of the P–1, P+1, and Elliptic Curve methods of factorization optimized for high-throughput factorization of small integers. Finally, we show how parameters for these algorithms can be chosen accurately, taking into account the distribution of prime factors in integers produced by NFS to obtain an accurate estimate of finding a prime factor with given parameters
12

Novel learning and exploration-exploitation methods for effective recommender systems / Nouveaux algorithmes et méthodes d’exploration-exploitation pour des systèmes de recommandations efficaces

Warlop, Romain 19 October 2018 (has links)
Cette thèse, réalisée en entreprise en tant que thèse CIFRE dans l'entreprise fifty-five, étudie les algorithmes des systèmes de recommandation. Nous avons proposé trois nouveaux algorithmes améliorant l'état de l'art que ce soit en termes de performance ou de prise en compte des contraintes industrielles. Pour cela nous avons proposé un premier algorithme basé sur la factorisation de tenseur, généralisation de la factorisation de matrice couramment appliquée en filtrage collaboratif.Nous avons ensuite proposé un algorithme permettant d'améliorer l'état de l'art des solutions de complétion de paniers. L'objectif des algorithmes de complétion de paniers est de proposer à l'utilisateur un nouveau produit à ajouter au panier qu'il/elle est en train d'acheter permettant ainsi d'augmenter la valeur d'un utilisateur. Pour cela nous nous sommes appuyés sur les processus ponctuels déterminantal. Nous avons généralisé l'approche de la complétion de paniers par DPP en utilisant une approche tensorielle. Enfin nous avons proposé un algorithme d'apprentissage par renforcement permettant d'alterner entre différents algorithmes de recommandation. En effet, utiliser toujours le même algorithme peut avoir tendance à ennuyer l'utilisateur pendant un certain temps, ou à l'inverse lui donner de plus en plus confiance en l'algorithme. Ainsi la performance d'un algorithme donné n'est pas stationnaire et dépend de quand et à quelle fréquence celui-ci a été utilisé. Notre algorithme d'apprentissage par renforcement apprend en temps réel à alterner entre divers algorithmes de recommandations dans le but de maximiser les performances sur le long terme. / This thesis, written in a company as a CIFRE thesis in the company fifty-five, studies recommender systems algorithms. We propose three new algorithms that improved over state-of-the-art solutions in terms of performance or matching industrial constraints. To that end, we proposed a first algorithm based on tensor factorization, a generalization of matrix factorization, commonly used on collaborative filtering. We then proposed a new algorithm that improves basket completion state-of-the-art algorithms. The goal of basket completion algorithms is to recommend a new product to a given user based on the products she is about to purchase in order to increase the user value. To that end we leverage Determinantal Point Processes, i.e., probability measure where the probability to observe a given set is proportional to the determinant of a kernel matrix. We generalized DPP approaches for basket completion using a tensor point of view coupled with a logistic regression. Finally, we proposed a reinforcement learning algorithm that allows to alternate between several recommender systems algorithms. Indeed, using always the same algorithm may either bore the user for a while or reinforce her trust in the system. Thus, the algorithm performance is not stationary and depends on when and how much the algorithm has been used in the past. Our reinforcement learning algorithm learns in real time how to alternate between several recommender system algorithms in order to maximize long term performances, that is in order to keep the user interested in the system as long as possible.
13

Exploiting piano acoustics in automatic transcription

Cheng, Tian January 2016 (has links)
In this thesis we exploit piano acoustics to automatically transcribe piano recordings into a symbolic representation: the pitch and timing of each detected note. To do so we use approaches based on non-negative matrix factorisation (NMF). To motivate the main contributions of this thesis, we provide two preparatory studies: a study of using a deterministic annealing EM algorithm in a matrix factorisation-based system, and a study of decay patterns of partials in real-word piano tones. Based on these studies, we propose two generative NMF-based models which explicitly model different piano acoustical features. The first is an attack/decay model, that takes into account the time-varying timbre and decaying energy of piano sounds. The system divides a piano note into percussive attack and harmonic decay stages, and separately models the two parts using two sets of templates and amplitude envelopes. The two parts are coupled by the note activations. We simplify the decay envelope by an exponentially decaying function. The proposed method improves the performance of supervised piano transcription. The second model aims at using the spectral width of partials as an independent indicator of the duration of piano notes. Each partial is represented by a Gaussian function, with the spectral width indicated by the standard deviation. The spectral width is large in the attack part, but gradually decreases to a stable value and remains constant in the decay part. The model provides a new aspect to understand the time-varying timbre of piano notes, but furtherinvestigation is needed to use it effectively to improve piano transcription. We demonstrate the utility of the proposed systems in piano music transcription and analysis. Results show that explicitly modelling piano acoustical features, especially temporal features, can improve the transcription performance.
14

Methods for large volume image analysis : applied to early detection of Alzheimer's disease by analysis of FDG-PET scans / Méthode d'analyse de grands volumes de données : appliquées à la détection précoce de la maladie d'Alzheimer à partir d'images "FDG-PET scan"

Kodewitz, Andreas 18 March 2013 (has links)
Dans cette thèse, nous explorons de nouvelles méthodes d’analyse d’images pour la détection précoce des changements métaboliques cérébraux causés par la maladie d’Alzheimer. Nous introduisons deux apports méthodologiques que nous appliquons à un ensemble de données réelles. Le premier est basé sur l’apprentissage automatique afin de créer une carte des informations pertinentes pour la classification d'un ensemble d’images. Pour cela nous échantillonnons des blocs de Voxels selon un algorithme de Monte-Carlo. La mise en œuvre d’une classification basée sur ces patchs 3d a pour conséquence la réduction significative du volume de patchs à traiter et l’extraction de caractéristiques dont l’importance est statistiquement quantifiable. Cette méthode s’applique à différentes caractéristiques et est adaptée à des types d’images variés. La résolution des cartes produites par cette méthode peut être affinée à volonté et leur contenu informatif est cohérent avec des résultats antérieurs obtenus dans la littérature. Le second apport méthodologique porte sur la conception d’un nouvel algorithme de décomposition de tenseur d’ordre important, adapté à notre application. Cet algorithme permet de réduire considérablement la consommation de mémoire et donc en évite la surcharge. Il autorise la décomposition rapide de tenseurs, y compris ceux de dimensions très déséquilibrées. Nous appliquons cet algorithme en tant que méthode d’extraction de caractéristiques dans une situation où le clinicien doit diagnostiquer des stades précoces de la maladie d'Alzheimer en utilisant la TEP-FDG seule. Les taux de classification obtenus sont souvent au-dessus des niveaux de l’état de l’art. / In this thesis we want to explore novel image analysis methods for the early detection of metabolic changes in the human brain caused by Alzheimer's disease (AD). We will present two methodological contributions and present their application to a real life data set. We present a machine learning based method to create a map of local distribution of classification relevant information in an image set. The presented method can be applied using different image characteristics which makes it possible to adapt the method to many kinds of images. The maps generated by this method are very localized and fully consistent with prior findings based on Voxel wise statistics. Further we preset an algorithm to draw a sample of patches according to a distribution presented by means of a map. Implementing a patch based classification procedure using the presented algorithm for data reduction we were able to significantly reduce the amount of patches that has to be analyzed in order to obtain good classification results. We present a novel non-negative tensor factorization (NTF) algorithm for the decomposition of large higher order tensors. This algorithm considerably reduces memory consumption and avoids memory overhead. This allows the fast decomposition even of tensors with very unbalanced dimensions. We apply this algorithm as feature extraction method in a computer-aided diagnosis (CAD) scheme, designed to recognize early-stage ad and mild cognitive impairment (MCI) using fluorodeoxyglucose (FDG) positron emission tomography (PET) scans only. We achieve state of the art classification rates.
15

Rôle d'un logiciel de manipulation symbolique dans l'apprentissage de l'algèbre au secondaire

Damboise, Caroline January 2007 (has links) (PDF)
Dans la littérature, plusieurs recherches parlent du potentiel de l'utilisation de la technologie dans l'apprentissage de l'algèbre au secondaire. Cependant, peu de ces recherches portent sur la factorisation. Mon travail de recherche a été motivé par ces deux faits et avait pour objectif d'explorer si la calculatrice symbolique pouvait jouer un rôle significatif dans l'apprentissage de la factorisation. Dans ma recherche, je me suis inspirée de l'approche technique/théorique développée par Chevallard (1999), et adaptée ensuite par Artigue (2002a) et Lagrange (2000). Dans cette approche, les composantes technique et théorique sont étroitement liées et la dimension théorique ne peut progresser, dans les environnements technologiques, sans la présence de la dimension technique. Mon but a donc été d'explorer le rôle d'une approche technique/théorique, intégrée dans un environnement où l'on utilise la calculatrice symbolique, pour l'apprentissage de la notion de factorisation chez des élèves en 4ième secondaire. Pour atteindre ce but, j'ai fait une étude comparative entre deux groupes d'élèves de 4ième secondaire ayant des difficultés en algèbre: un groupe dont les élèves avaient chacun accès à une calculatrice symbolique (6 élèves) et un groupe où tel n'était pas le cas (10 élèves). Des feuilles d'activités avec des questions similaires pour les deux groupes ont été réalisées. Avant d'accomplir la séquence didactique composée des activités, les élèves avaient fait un pré-test pour que je puisse voir si les deux groupes avaient des connaissances semblables dans les composantes technique et théorique. La séquence didactique a été suivie par un post-test pour explorer les acquis des élèves et les différences entre les deux groupes. Des notes ont été consignées dans un journal de bord pour chacun des cours avec les deux groupes. De plus, j'ai été l'enseignante des deux groupes lors de cette étude. En comparant les résultats au pré-test des deux groupes, on s'est aperçu qu'ils étaient similaires pour la dimension technique, mais qu'iIs étaient légèrement plus forts pour la dimension théorique dans un groupe. Cependant, les résultats pour la dimension théorique étaient très bas dans les deux groupes. Les résultats au post-test nous ont indiqué que le groupe avec la calculatrice symbolique a accompli plus d'améliorations que le groupe sans calculatrice et ce, dans les deux dimensions (technique et théorique). À la suite de l'analyse des notes gardées dans le journal de bord et des réponses contenues dans les feuilles d'activités des élèves des deux groupes, on a pu dégager trois fonctions remplies par la calculatrice symbolique, qui expliqueraient les améliorations chez les élèves du groupe avec celle-ci. Les trois fonctions jouées par la calculatrice étaient les suivantes: la fonction génératrice de formes exactes, la fonction vérificatrice et la fonction instigatrice de discussions. Cette recherche m'a permis de réaliser que le fait d'avoir rendu accessible une calculatrice à des élèves ayant des difficultés en factorisation a eu un apport positif. En fait, ces jeunes ont plus appris avec cet outil, tant au niveau technique que théorique, que les autres élèves qui n'ont pas eu accès à cet outil. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Factorisation, Calculatrice symbolique, Système de calcul formel, Technique, Théorie, Théorique, Vérificatrice, Génératrice de formes exactes, Instigatrice de discussions.
16

Appropriation des représentations visuelles par une enseignante dans une séquence d'enseignement portant sur la factorisation en algèbre

Simon, Patricia 03 1900 (has links) (PDF)
Comme enseignante au secondaire, j'ai toujours attaché de l'importance à la compréhension des concepts abstraits et au sens que l'élève peut donner à ce qu'il apprend. J'ai voulu aller explorer la factorisation en algèbre, car elle cause souvent des difficultés chez les élèves. Une avenue intéressante pour l'enseignement de la factorisation est, selon moi, l'utilisation de représentations visuelles, comme la méthode du rectangle. Cette méthode permet de représenter l'expression à factoriser comme des aires de rectangles dont il faut trouver les mesures des côtés. En effet, dans l'Histoire, plusieurs mathématiciens ont utilisé des représentations visuelles pour factoriser des expressions algébriques. Les recherches sur le sujet m'ont amenée à distinguer cinq habiletés à développer autour de la factorisation : l'habileté à savoir reconnaître la forme de factorisation à utiliser selon l'expression algébrique, l'habileté à reconnaître des formes équivalentes, à reconnaître des formes qui ne se factorisent pas, à représenter visuellement une expression algébrique et à faire le lien entre la démarche algébrique et la représentation visuelle. De plus, ces recherches soulignent l'importance du rôle de l'enseignant. Je fais donc une étude de cas auprès d'une enseignante qui intègre des activités sur la factorisation construites par la chercheure et utilisant les représentations visuelles. Pour mieux comprendre comment l'enseignante s'approprie les représentations et les utilise pour développer des habiletés importantes chez ses élèves, je vais me concentrer pour l'analyse sur quelques composantes de l'intervention éducative : la composante épistémologique, didactique/cognitive et double dimension médiatrice/médiative. Les résultats principaux de cette étude montrent que l'enseignante s'approprie les représentations visuelles dès le premier cours. Elle les utilise à différents moments qui n'étaient pas prévus dans les discussions avec la chercheure, ce qui amène à distinguer trois rôles pour les représentations visuelles : donner du sens, contrer des erreurs et servir de réinvestissement à long terme. Un autre résultat important tourne autour des habiletés liées à la factorisation. L'expérimentation permet de mieux saisir ces habiletés. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Factorisation, représentation visuelle, pratique enseignante
17

Use and development of matrix factorisation techniques in the field of brain imaging

Pearce, Matthew Craig January 2018 (has links)
Matrix factorisation treats observations as linear combinations of basis vectors together with, possibly, additive noise. Notable techniques in this family are Principal Components Analysis and Independent Components Analysis. Applied to brain images, matrix factorisation provides insight into the spatial and temporal structure of data. We improve on current practice with methods that unify different stages of analysis simultaneously for all subjects in a dataset, including dimension estimation and reduction. This results in uncertainty information being carried coherently through the analysis. A computationally efficient approach to correlated multivariate normal distributions is set out. This enables spatial smoothing during the inference of basis vectors, to a level determined by the data. Applied to neuroimaging, this reduces the need for blurring of the data during preprocessing. Orthogonality constraints on the basis are relaxed, allowing for overlapping ‘networks’ of activity. We consider a nonparametric matrix factorisation model inferred using Markov Chain Monte Carlo (MCMC). This approach incorporates dimensionality estimation into the infer- ence process. Novel parallelisation strategies for MCMC on repeated graphs are provided to expedite inference. In simulations, modelling correlation structure is seen to improve source separation where latent basis vectors are not orthogonal. The Cambridge Centre for Ageing and Neuroscience (Cam-CAN) project obtained fMRI data while subjects watched a short film, on 30 of whose recordings we demonstrate the approach. To conduct inference on larger datasets, we provide a fixed dimension Structured Matrix Factorisation (SMF) model, inferred through Variational Bayes (VB). By modelling the components as a mixture, more general distributions can be expressed. The VB approach scaled to 600 subjects from Cam-CAN, enabling a comparison to, and validation of, the main findings of an earlier analysis; notably that subjects’ responses to movie watching became less synchronised with age. We discuss differences in results obtained under the MCMC and VB inferred models.
18

Factorisation des régions cubiques et application à la concurrence / Factorization of cubical area and application to concurrency

Ninin, Nicolas 11 December 2017 (has links)
Cette thèse se propose d'étudier des problèmes de factorisations des régions cubiques. Dans le cadre de l'analyse de programme concurrent via des méthodes issues de la topologie algébrique, les régions cubiques sont un modèle géométrique simple mais expressif de la concurrence. Tout programme concurrent (sans boucle ni branchement) est ainsi représenté comme sous partie de R^n auquel on enlève des cubes interdits représentant les états du programme interdit par les contraintes de la concurrence (mutex par exemple) où n est le nombre de processus. La première partie de cette thèse s’intéresse à la question d'indépendance des processus. Cette question est cruciale dans l'analyse de programme non concurrent car elle permet de simplifier l'analyse en séparant le programme en groupe de processus indépendants. Dans le modèle géométrique d'un programme, l'indépendance se traduit comme une factorisation modulo permutation des processus. Ainsi le but de cette section est de donner un algorithme effectif de factorisation des régions cubiques et de le démontrer. L'algorithme donné est relativement simple et généralise l'algorithme très intuitif suivant (dit algorithme syntaxique). A partir du programme, on met dans un même groupe les processus qui partagent une ressource, puis l’on prend la clôture transitive de cette relation. Le nouvel algorithme s'effectue de la même manière, cependant il supprime certaines de ces relations. En effet par des jeux d'inclusion entre cubes interdits, il est possible d'avoir deux processus qui partagent une ressource mais qui sont toutefois indépendant. Ainsi la nouvelle relation est obtenue en regardant l'ensemble des cubes maximaux de la région interdite. Lorsque deux coordonnées sont différentes de R dans un cube maximal on dira qu’elles sont reliées. Il suffit alors de faire la clôture transitive de cette relation pour obtenir la factorisation optimale. La seconde partie de ce manuscrit s'intéresse à un invariant catégorique que l'on peut définir sur une région cubique. Celui-ci découpe la région cubique en cubes appelés "dés" auxquels on associe une catégorie appelée catégorie émincée de la région cubique. On peut voir cette catégorie comme un intermédiaire fini entre la catégorie des composantes et la catégorie fondamentale. On peut ainsi montrer que lorsque la région cubique factorise alors la catégorie émincée associée va elle-même se factoriser. Cependant la réciproque est plus compliquée et de nombreux contre exemples empêchent une réciproque totale. La troisième et dernière partie de cette thèse s'intéresse à la structure de produit tensoriel que l'on peut mettre sur les régions cubiques. En remarquant comment les opérations booléennes sur une région cubique peuvent être obtenues à partir des opérations sur les régions cubiques de dimension inférieure, on tente de voir ces régions cubiques comme un produit tensoriel des régions de dimension inférieure. La structure de produit tensoriel est hautement dépendante de la catégorie dans laquelle on la considère. Dans ce cas, si l'on considère le produit dans les algèbres de Boole, le résultat n'est pas celui souhaité. Au final il se trouve que le produit tensoriel dans la catégorie des demi-treillis avec zéro donne le résultat voulu. / This thesis studies some problems of the factorization of cubical areas. In the setting of analysis of programs through methods coming from algebraic topology, cubical areas are geometric models used to understand concurrency. Any concurrent programs (without loops nor branchings) can be seen as a subset of R^n where we remove some cubes which contains the states forbidden by the concurrency (think of a mutex) and where n is the number of process in the program. The first part of this thesis is interested in the question the independence of process. This question is particularly important to analyse a program, indeed being able to separate groups of process into independent part will greatly reduce the complexity of the analysis. In the geometric model, the independency is seen as a factorization up to permutation of processes. Hence the goal is to give a new effective algorithm which factorizes cubical areas, and proves that it does. The given algorithm is quite straightforward and is a generalization of the following algorithm (that we called syntactic algorithm). From the written program, groups together process that shares a resource, then take the transitive closure of this relation. This algorithm is not always optimal in that it can groups together process that actually could be separated. Thus we create a new (more relax) relationship between process. From the maximal cubes of the forbidden area of the program, if two coordinate are not equal to R, then groups them together. We can then take the transitive closure of this and get the optimal factorization. Each cube is an object of the category and between two adjacent cubes is an arrow. We can see that this category is in between the fundamental category and the components category of the cubical area. We can then show that if the cubical area factorize then so does the minced category. The reciprocal is harder to get. Indeed there's a few counter example on which we cant go back. The third and last part of this thesis is interested in seeing cubical areas as some kind of product over lower dimension cubical areas. By looking at how the booleans operations of a cubical area arise from the same operation on lower dimensional cubical areas we understand that it can be expressed as a tensor product. A tensor product is highly dependent on the category on which it is built upon. We show that to take the category of Boolean algebra is too restrictive and gives trivial result, while the category of semi-lattice with zeros works well. are not equal to R, then groups them together. We can then take the transitive closure of this and get the optimal factorization. The second part of this thesis looks at some categorical invariant that we define over cubical areas. These categories (called the minced category) slice the space into cubes.
19

Réactions dures exclusives au twist sous-dominant

Besse, Adrien 02 July 2013 (has links) (PDF)
Le sujet de cette thèse sont les amplitudes d'hélicités de la leptoproduction exclusive et diffractive du méson rho dans la limite de Regge perturbative et au-delà du twist dominant. La compréhension de pareils processus exclusifs en termes des constituants élémentaires de QCD est un important défi pour comprendre la structure des hadrons. On présente ici deux nouveaux modèles phénoménologiques basés sur la kT-factorisation des amplitudes d'hélicités en un facteur d'impact γ*(λ) → ρ(λ'), où λ et λ' dénotent les polarisations du photon virtuel et du méson rho, et le facteur d'impact du nucléon cible. Les facteurs d'impacts γ*(λ) → ρ(λ') sont calculés en utilisant la factorisation colinéaire pour séparer la partie molle du méson rho. Le premier modèle est obtenu en combinant les résultats respectivement de twist 2 et twist 3 des facteurs d'impacts où les deux polarisations sont longitudinales ou transverses, avec un modèle pour le facteur d'impact du nucléon et un modèle pour les distributions d'amplitudes du méson rho. Dans la seconde approche présentée dans cette thèse, on calcule ces facteurs d'impacts dans l'espace des paramètres d'impacts et on montre que l'amplitude de diffusion d'un dipôle de couleur avec le nucléon se factorise, permettant de combiner nos résultats avec un modèle de section efficace de dipôle. On obtient en très bon accord avec les données de H1 et ZEUS pour des virtualités plus grandes que quelques GeV. Nous discutons les résultats obtenus et les comparons à d'autres modèles existants.
20

S³niffer : un système de recherche de service basé sur leur description / S3niffer : A text description-based service search system

Caicedo-Castro, Isaac 12 May 2015 (has links)
Dans cette recherche, nous abordons le problème de le recherche de services qui répondent à des besoins des utilisateurs exprimés sous forme de requête en texte libre. Notre objectif est de résoudre les problèmes qui affectent l'efficacité des modèles de recherche d'information existant lorsqu'ils sont appliqués à la recherche de services dans un corpus rassemblant des descriptions standard de ces services. Ces problèmes sont issus du fait que les descriptions des services sont brèves. En effet, les fournisseurs de services n'utilisent que quelques termes pour décrire les services souhaités. Ainsi, lorsque ces descriptions sont différentes des phrases dans les requêtes ce qui diminue l'efficacité des modèles classiques qui dépendent de traits observables au lieu de traits sémantiques latents du texte. Nous avons adapté une famille de modèles de recherche d'information (IR) dans le but de contribuer à accroître l'efficacité acquise avec les modèles existant concernant la découverte de services. En outre, nous avons mené des expériences systématiques afin de comparer notre famille de modèles IR avec ceux de l'état de l'art portant sur la découverte de service. Des résultats des expériences, nous concluons que notre modèle basé sur l'extension des requêtes via un thésaurus co-occurrence est plus efficace en terme des mesures classiques utilisées en IR que tous les modèles étudiés dans cette recherche. Par conséquent, nous avons mis en place ce modèle dans S3niffer, qui est un moteur de recherche de service basé sur leur description standard. / In this research, we address the problem of retrieving services which fulfil users' need expressed in query in free text. Our goal is to cope the term mismatch problems which affect the effectiveness of service retrieval models applied in prior re- search on text descriptions-based service retrieval models. These problems are caused due to service descriptions are brief. Service providers use few terms to describe desired services, thereby, when these descriptions are different to the sentences in queries, term mismatch problems decrease the effectiveness in classical models which depend on the observable text features instead of the latent semantic features of the text. We have applied a family of Information Retrieval (IR) models for the purpose of contributing to increase the effectiveness acquired with the models applied in prior research on service retrieval. Besides, we have conducted systematic experiments to compare our family of IR models with those used in the state-of-the-art in service discovery. From the outcomes of the experiments, we conclude that our model based on query expansion via a co-occurrence thesaurus outperforms the effectiveness of all the models studied in this research. Therefore, we have implemented this model in S3niffer, which is a text description-based service search engine.

Page generated in 0.4921 seconds