• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 5
  • 5
  • Tagged with
  • 62
  • 14
  • 12
  • 12
  • 12
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • 10
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Intégration de ressources lexicales riches dans un analyseur syntaxique probabiliste

Sigogne, Anthony 03 December 2012 (has links) (PDF)
Cette thèse porte sur l'intégration de ressources lexicales et syntaxiques du français dans deux tâches fondamentales du Traitement Automatique des Langues [TAL] que sont l'étiquetage morpho-syntaxique probabiliste et l'analyse syntaxique probabiliste. Dans ce mémoire, nous utilisons des données lexicales et syntaxiques créées par des processus automatiques ou par des linguistes afin de donner une réponse à deux problématiques que nous décrivons succinctement ci-dessous : la dispersion des données et la segmentation automatique des textes. Grâce à des algorithmes d'analyse syntaxique de plus en plus évolués, les performances actuelles des analyseurs sont de plus en plus élevées, et ce pour de nombreuses langues dont le français. Cependant, il existe plusieurs problèmes inhérents aux formalismes mathématiques permettant de modéliser statistiquement cette tâche (grammaire, modèles discriminants,...). La dispersion des données est l'un de ces problèmes, et est causée principalement par la faible taille des corpus annotés disponibles pour la langue. La dispersion représente la difficulté d'estimer la probabilité de phénomènes syntaxiques apparaissant dans les textes à analyser mais qui sont rares ou absents du corpus ayant servi à l'apprentissage des analyseurs. De plus, il est prouvé que la dispersion est en partie un problème lexical, car plus la flexion d'une langue est importante, moins les phénomènes lexicaux sont représentés dans les corpus annotés. Notre première problématique repose donc sur l'atténuation de l'effet négatif de la dispersion lexicale des données sur les performances des analyseurs. Dans cette optique, nous nous sommes intéressé à une méthode appelée regroupement lexical, et qui consiste à regrouper les mots du corpus et des textes en classes. Ces classes réduisent le nombre de mots inconnus et donc le nombre de phénomènes syntaxiques rares ou inconnus, liés au lexique, des textes à analyser. Notre objectif est donc de proposer des regroupements lexicaux à partir d'informations tirées des lexiques syntaxiques du français, et d'observer leur impact sur les performances d'analyseurs syntaxiques. Par ailleurs, la plupart des évaluations concernant l'étiquetage morpho-syntaxique probabiliste et l'analyse syntaxique probabiliste ont été réalisées avec une segmentation parfaite du texte, car identique à celle du corpus évalué. Or, dans les cas réels d'application, la segmentation d'un texte est très rarement disponible et les segmenteurs automatiques actuels sont loin de proposer une segmentation de bonne qualité, et ce, à cause de la présence de nombreuses unités multi-mots (mots composés, entités nommées,...). Dans ce mémoire, nous nous focalisons sur les unités multi-mots dites continues qui forment des unités lexicales auxquelles on peut associer une étiquette morpho-syntaxique, et que nous appelons mots composés. Par exemple, cordon bleu est un nom composé, et tout à fait un adverbe composé. Nous pouvons assimiler la tâche de repérage des mots composés à celle de la segmentation du texte. Notre deuxième problématique portera donc sur la segmentation automatique des textes français et son impact sur les performances des processus automatiques. Pour ce faire, nous nous sommes penché sur une approche consistant à coupler, dans un même modèle probabiliste, la reconnaissance des mots composés et une autre tâche automatique. Dans notre cas, il peut s'agir de l'analyse syntaxique ou de l'étiquetage morpho-syntaxique. La reconnaissance des mots composés est donc réalisée au sein du processus probabiliste et non plus dans une phase préalable. Notre objectif est donc de proposer des stratégies innovantes permettant d'intégrer des ressources de mots composés dans deux processus probabilistes combinant l'étiquetage ou l'analyse à la segmentation du texte
22

Recherche de gluinos dans la topologie à jets de quarks b et énergie transverse manquante avec le détecteur D0 au TeVatron

Millet, Thomas 11 May 2007 (has links) (PDF)
Le modèle standard est le modèle théorique de référence pour expliquer les phénomènes subatomiques. Jamais directement mis en défaut et couronné de succès depuis des dizaines d'années, il souffre néanmoins d'imperfections théoriques et peine à expliquer certains phénomènes physiques observés à hautes énergies. Pour ces raisons, plusieurs théories proposent des extensions de ce modèle. La supersymétrie, appréciée pour son élégance théorique, est l'une d'entre elles. Le travail présenté dans ce manuscrit concerne la recherche d'un signal supersymétrique, dont les caractéristiques principales sont la présence de plusieurs jets de quark b et une forte énergie transverse manquante. L'analyse de ce signal est effectuée sur les données du Run II collectées par le détecteur D0 d'avril 2003 à mars 2006 (~1 fb¬-1).<br />La signature d'une telle topologie implique une bonne résolution sur l'énergie des jets, ainsi qu'une mesure précise de l'énergie transverse manquante. Par conséquent, il faut au préalable bien comprendre les informations recueillies par le calorimètre, une des parties cruciale du détecteur pour cette analyse. La présence de plusieurs quarks de saveurs lourdes dans l'état final nécessite un étiquetage maîtrisé des jets de quark b. Cet étiquetage est une variable fortement discriminante entre le signal et le bruit de fond du modèle standard.<br />Les collisionneurs hadroniques comme le TeVatron ont une section efficace de QCD inclusive des ordres de grandeurs supérieurs à celle du signal recherché dans cette analyse. Il faut donc être en mesure de trouver des coupures rapides et efficaces dès le système de déclenchement du détecteur. L'essentiel de mon travail de préparation à l'analyse porte sur la mise au point et l'étude de conditions de déclenchement basées sur le calorimètre et permettant de sélectionner efficacement les signaux caractérisés par la présence de jets et d'énergie transverse manquante.
23

Apprentissage statistique pour l'étiquetage de musique et la recommandation

Bertin-Mahieux, Thierry January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
24

Etude de conception d'ASICs de lecture et d'étiquetage en temps associés à des photomultiplicateurs pour un hodoscope de faisceau en hadronthérapie

Deng, Shi-Ming 27 November 2012 (has links) (PDF)
Pour développer un hodoscope de faisceau en hadronthérapie, capable de localiser les ions dans le plan transverse et de les étiqueter en temps avec une précision de 1 nc et un taux de comptage de 100 000 000 HZ, nous avons mené des études de conception d'ASICs (Aplication Specific Integrated Circuits) de lecture à associer à des photomultiplicateurs multi-anode. Un front-end ASIC 16 voies en technologieAMS BiCMOS 0,35 µm a été conçu, fabriqué et testé. Il intégre, sur chaque voie, un convoyeur de courant avec deux sorties en étage d'entrée, et deux étages de sortie séparés qui sont respectivement un comparateur en courant et un préamplificateur de charge. Il réalise à la fois la détection d'évènements et la quantification de signal détecté. L'étude de conception a apporté des performances optimisées sur la dynamique d'entrée, la consommation d'énergie, la rapidité, le bruit. Le fonctionnement du circuit de lecture incorporé dans un système de test a aussi été vérifié par une expérimentation en faisceau. D'autre part, nous avons conçu un ASIC d'étiquetage en temps utilisant la technologie AMS CMOS 0,35 µm. Il est à base d'une boucle à verrouillage de délai analogique avec la mise en oeuvre de la méthode de mesure du "temps de vol", et dispose d'un mode d'entrée d'horloge LVDS (Low Voltage Differential Singaling) et d'une sortie de 5 bits en code Gray. Il fonctionne avec une résolution temporelle de 200 ps selon les résultats de tests. Ces études nous ont permis de lancer un nouveau projet de conception : intégrer sur une puce les fonctions électroniques que nous avons réalisées et validées.
25

Identités féminines "transgressives" au Sénégal : un rapport ambivalent à la glocalisation / “Transgressive” feminine identities in Senegal : an ambivalent relationship with glocalisation

Diop, Awa 15 October 2012 (has links)
A travers cette thèse, nous avons saisi des expériences féminines qui sont à l’oeuvre dans la société sénégalaise. De telles expériences qui sont souvent perçues comme « transgressives » par les figures de l’autorité masculine sénégalaise (acteurs religieux et entrepreneurs moraux par exemple) permettent de mettre à jour un Sénégal situédans les tensions d’une glocalisation. Nous avons analysé ce Sénégal comme le site d’une négociation entre ses principes visibles (vertu, morale, tolérance, tradition, etc) et des pratiques de femmes, qui n’ayant plus peur de sortir des canaux de socialisation, explorent de nouvelles subjectivités. Face à ces tensions, prime une culture del’ambivalence incarnée à la fois par les médias, les acteurs moraux et les figures étiquetées péjorativement. En d’autres termes, les médias sont souvent « créateurs » des visibilités « scandaleuses » et peuvent s’aligner derrière les acteurs moraux ou religieux pour défendre la vertu nationale ou l’image de la Sénégalaise. Pour les acteursmoraux, l’ambivalence se situe dans le fait qu’il existe un fossé entre leurs propres pratiques et les principes islamiques qu’ils incarnent et utilisent pour dénoncer des faits perçus comme « scandaleux ». Les figures « transgressives » mobilisent, quant à elles, une identification se référant aux identités religieuses et aux imaginaires sociaux pour ne pas trop s’écarter des cadres normatifs. Toutes ces ambivalences traduisent in fine l’ambivalence d’une société se définissant comme pieuse, vertueuse et « traditionnelle » mais qui est sans cesse débordée par les pratiques d’une jeunesse au diapason d’un monde globalisé. / This doctoral dissertation is an account of current female experiences I observed in Senegalese society. These experiences, often perceived as « transgressive» by Senegalese male authorities, namely religious and other moral guides, allow us to uncover a Senegalese society faced with the pressures of glocalization. Senegalese society is trying to negociate a balance between the preservation of fundamental principles (virtue, morality, tolerance, tradition, etc) and certain behaviours and life styles of women who are no longer afraid to free themselves from established socialization channels and explore new subjectivities. Faced with these tensions, a culture of contradictions is dominant as embodied through various networks namely the media, moral figures, and the female actors labelled negatively. In other words, the media is often the creator of scandalous characters and may support moral and religious figures in their defense of virtue, the country’s moral status, and the image of the Senegalese woman. For moral figures, the contradictions are marked by the fact that there is a big gap between their own practices and the Islamic principles they embody and use to speak against facts they perceive as scandalous. As for the « transgressive » actors, they find ways to relate to religious identities and social imaginaries so as not to distance themselves too much from social norms. All these tensions reflect the contradictions of a society that defines itself as « pious », « virtuous », and «traditional », but that is constantly overwhelmed by the practices of a younger generation in tune with a globalized world.
26

Mesure de la violation de CP dans les désintégrations Bs > J/psi phi, auprès du détecteur LHCb

Maurice, Emilie 18 July 2012 (has links)
La mesure de la phase phis violant la symétrie CP dans les désintégrations B_s -> J/psi phi est une des analyses phares de l'expérience LHCb. Le Modèle Standard prédit cette observable avec une faible incertitude théorique. La présence de Nouvelle Physique notamment dans les diagrammes en boucle de l'oscillation B_s - B_sbar peut significativement modifier la mesure de cette phase. Durant cette thèse, nous avons participé à différents aspects de l'analyse des désintégrations B_s -> J/psi phi. Nous avons proposé une sélection multi-variable, basée sur un algorithme d'arbres de décision boostés. Cette nouvelle sélection augmente le nombre de signal B_s -> J/psi phi de 19% mais nécessite une correction temporelle. Une étude portant sur l'origine des distorsions angulaires caractéristiques des désintégrations B_s -> J/psi phi a aussi été menée. Il s'avère que la principale source de distorsion est la géométrie du détecteur LHCb. Nous avons aussi contribué à un autre élément clef de cette analyse : l'étiquetage de la saveur. Afin de connaître la saveur initiale des mésons B, un algorithme d'étiquetage a été développé. Il exploite les traces chargées provenant du hadron B de côté opposé. Nous avons participé à son optimisation ainsi qu'à son étalonnage en étudiant les désintégrations B_d -> J/psi K*. En utilisant l'intégralité des données enregistrées en 2011, soit 1 fb^{-1}, après optimisation et calibration de cet algorithme, la puissance d'étiquetage dans le canal B_s -> J/psi phi est : (2.29 +- 0.07 +- 0.26) %. La valeur de phis mesurée est alors : phis = -0.001 +- 0.101 +- 0.027 rad dans les désintégrations B_s -> J/psi phi. / The measurement of the CP violating phis phase in the B_s -> J/psi phi decays is one of the main goals of the LHCb experiment. The predicted value of this observable by the Standard Model has a small theoretical uncertainty. New Physics could significantly modify this measurement, with the presence of new particles in the B_s-B_sbar oscillation's box diagrams. During this thesis, we participate to many aspects of B_s -> J/psi phi analysis. We proposed a multivariate selection, based on a boosted decision trees algorithm. This new selection adds 19% signal B_s -> J/psi phi but it needs a time correction. We studied the main sources of angular distorsions of B_s -> J/psi phi decays. We found that the detector's geometry has the most important impact on the angular distributions. We participated to another key element of the phis analysis : the flavour tagging. In order to determine the initial B flavour, a tagging algorithm has been developped. It exploits charged tracks originating from the b-hadron opposite to the signal B-meson. We participated to its optimization and calibration, by studing the B_d -> J/psi K* channel. With 1 fb^{-1} corresponding to the whole 2011 data, after the optimization and calibration of this algorithm, the tagging power is measured in the B_s -> J/psi phi channel : (2.29 +- 0.07 +- 0.26) %. The phis measurement in the B_s -> J/psi phi channel is : phis = -0.001 +- 0.101 +- 0.027 rad. The combined analysis of B_s -> J/psi phi and B_s -> J/psi pi^+ pi^- decays gives the most precise measurement of phis = -0.002 +- 0.083 +- 0.027 rad. This measurement is compatible with the Standard Model, but there is still room for New Physics.
27

Recherche de nouveaux quarks lourds avec l'expérience ATLAS au LHC. Mise en oeuvre d'algorithmes d'identification de jets issus de quarks b / Search for new heavy top-like quarks with the ATLAS experiment at the LHC. Commissionning of hight-performance b-tagging algorithms

Bousson, Nicolas 18 December 2012 (has links)
L'hypothèse d'une quatrième famille de fermions –les particules de matière décrites au sein du Modèle Standard (MS) de la physique des particules– est un des plus simples modèles de nouvelle physique encore non exclu et accessible au démarrage du LHC – le plus puissant collisionneur hadronique au monde depuis 2009. Cette thèse s'intéresse à la production d'une paire de quarks t' se désintégrant chacun via Wb. La recherche se focalise sur le domaine des très hautes masses, où la production peut être distinguée de la production de bruit de fond d'une paire de quark top en exploitant la cinématique des produits de désintégration des collisions p-p produites au centre du détecteur ATLAS. Nous présentons une stratégie originale exploitant la collimation des produits de la désintégration des bosons W de grande impulsion transverse, permettant leur reconstruction explicite. L'analyse s'appuie sur un travail de mise en oeuvre des algorithmes d'identification des jets résultants de la fragmentation des quarks de saveur b. L'étiquetage-b permet à l'expérience ATLAS d'améliorer la (re)découverte du MS, et la sensibilité à la nouvelle physique. Il sera ainsi d'une grande importance pour les futures années d'opération du LHC, raison pour laquelle nous présentons une étude de prospective de ses performances attendues avec l'extension du détecteur à pixels d'ATLAS dénommée IBL. Notre recherche de quark t' a permis d'établir une limite inférieure à la masse du quark t' de 656 GeV à partir des 4.7 fb^−1 de données 7 TeV collectées en 2011, ce qui est la meilleure limite à ce jour en recherche directe, avec également une interprétation dans le cadre du modèle de quarks dits vecteurs. / The hypothesis of a fourth generation of fermions – the matter particles described in the Standard Model (SM) of particle physics – is one of the simplest model of new physics still not excluded and accessible at the start of the Large Hadron Collider (LHC) – the world most powerful hadron collider since 2009. We search for the pair production of up-type t' quarks decaying to a W boson and a b-quark. The search is optimized for the high quark mass regime, for which the production can be distinguished from the top background by exploiting kinematic features of the decay products arising from the proton-proton collisions occurring at the center of the ATLAS detector. We present a novel search strategy reconstructing explicitly very high-pT W bosons from their collimated decay products. The analysis benefits from the commissioning of algorithms intended to identify jets stemming from the fragmentation of b-quarks. These algorithms are based on the precise reconstruction of the trajectory of charged particles, vertices of primary interaction and secondary vertices in jets. The b-tagging ability allows for ATLAS to improve the (re)discovery of the SM, and the sensibility to new physics. It will hence play an important role in the future of the LHC, the reason why we study the expected performance with an upgrade of the ATLAS pixel detector, called IBL and currently under construction. Our search of t' quark, using 4.7 fb^−1 of the 7 TeV data collected in 2011, has resulted in the world most stringent limit, excluding t' masses below 656 GeV, with also an interpretation in the framework of vector-like quarks.
28

Modélisation et mesure des facteurs de modification nucléaire des jets issus de quarks beaux dans les collisions p-Pb à 5.02 TeV avec l'expérience ALICE auprès du LHC / Modeling and measurement of the b-jet nuclear modification factor in p-Pb collisions at 5.02 Tev with ALICE at the LHC

Hassan, Hadi 19 February 2019 (has links)
Dans les collisions Pb-Pb au LHC, un milieu chaud et dense formé de quarks et de gluons déconfinés est formé, communément appelé Plasma de Quarks et de Gluons (PQG). Le PQG est l’état hypothétique de l’univers primordial quelques microsecondes après le Big Bang et constituerait encore à ce jour le cœur des étoiles à neutrons. Une des signatures les plus frappantes de l’occurrence du PQG lors de collisions d’ions lourds est la suppression des jets. Ce phénomène appelé étouffement des jets est attribué au mécanisme de perte d’énergie du parton à l’origine du jet lors de son trajet au travers du milieu formé par le PQG.Les deux dernières décennies ont vu l’émergence d’une formulation théorique du phénomène d’étouffement des jets dans le cadre de la Chromo Dynamique Quantique. La perte d’énergie étant le plus fréquemment attribuée dans la littérature à des processus radiatifs et collisionnels. Un nouveau mécanisme de perte d’énergie à été étudié dans ce travail de thèse qui outre la description des effets de diffusions multiples, met en œuvre une perte d’énergie radiative induite par un champ chromomagnétique, de sorte qu’un parton rapide se propageant au travers du milieu ressentira l’effet des champs magnétique et de couleur tout en subissant des diffusions multiples avec les particules du milieu.De plus, les modèles théoriques prédisent une dépendance de la perte d’énergie avec la charge de couleur et la masse du parton issu d’une diffusion à grand transfert d’impulsion lors de sa traversée du milieu.Une telle dépendance en masse peut être étudiée en mesurant la production de hadrons et de jets contenant des quarks lourds dans les collisions pp, p-Pb et Pb-Pb au LHC. Dans cette thèse, un modèle original du milieu est présenté, décrit comme un ensemble de centres de diffusion statiques colorés en présence d’un champ chromomagnétique, de même qu’une description du mécanisme de perte d’énergie associé. Enfin, la mesure de la production de jets issus de quarks beaux avec le détecteur ALICE dans les colllsions pp et p-Pb à l’énergie de 5.02 TeV au LHC à l’aide d’une méthode d’étiquetage utilisant le paramètre d’impact des traces est présenté dans cette thèse. / In Pb-Pb collisions at the LHC, a hot and dense medium of deconfined quarks and gluons is formed, the so-called Quark-Gluon Plasma (QGP).The QGP is conjectured to be the state of matter of the early Universe up to few microseconds after the Big Bang and may still exist in the core of neutron stars. One of the most striking signatures of the QGP formation in heavy-ion collisions is the suppression of jet production. This phenomenon, called jet quenching, is ascribed to the energy lost by the initial parton while traveling through the QGP medium.In the last two decades, many theoretical developments of the theory of jet quenching have been formulated within pQCD.The main energy loss mechanisms proposed in the literature are attributed to radiative and collisional processes. Another kind of energy loss is developed in this work comprises a background field induced radiative energy loss which besides that besides scattering effects. Under the suggested model, a fast parton propagating through the medium will feel the effect of the color magnetic and the color electric fields while undergoing multiple scatterings with the particles in the medium.Besides, theoretical models predict that energy loss depends on the color charge and mass of the hard-scattered parton traversing the medium. Such mass dependence can be studied by measuring the production of hadrons and jets containing heavy-quarks in pp, p-Pb and Pb-Pb collisions at the LHC.In this thesis report, a new model for the medium is presented, which is described as a collection of static colored scattering centers in the presence of a chromomagnetic field, together with the description of the related energy loss mechanism. The ALICE measurement of b-jet production in pp and p-Pb collisions at $sqrt{s_{mathrm{NN}}}=5.02$ TeV using an impact parameter based tagger is also presented.
29

A new identity for a new beginning : desistance from crime by the process of informing

Davidson, Emmanuelle 12 1900 (has links)
No description available.
30

Production électrofaible du quark top au Run II de l'éxpérience D0

Clément, Benoît 28 April 2006 (has links) (PDF)
Cette thèse porte sur l'étude de la production électrofaible du quark top (voies $s$ et $t$) dans les <br />collisions ppbar au <br />Tevatron dans l'expérience D0 pour une luminosité intégrée de 370~pb$^{-1}$. Ce processus reste <br />inobservé.<br />L'identification du jet de quark beau issu de la désintégration du top joue un rôle central dans l'analyse.<br />Les paramètres d'impact des traces associées à un jet sont convertis en une probabilité que ce jet <br />provienne du vertex primaire. Cet algorithme atteint une efficacité de 45% pour environ 0.5% de bruit <br />de fond.<br />La signature recherchée consiste en 2 à 4 jets, dont un jet de quark beau, un lepton chargé et de <br />l'énergie manquante. Une analyse multivariable est développée pour séparer le signal des fonds <br />dominants. La sensibilité de l'analyse ne permet pas encore la mise en évidence du signal et des <br />limites supérieures à 95% de niveau de confiance sur les sections efficaces de production de <br />5~pb (voie $s$) et 4.3~pb (voie $t$) sont obtenues.

Page generated in 0.0291 seconds