• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 709
  • 337
  • 58
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 1090
  • 309
  • 295
  • 259
  • 237
  • 203
  • 114
  • 112
  • 110
  • 91
  • 79
  • 71
  • 69
  • 67
  • 66
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Étude de la faisabilité d'une recherche de nouvelle physique dans l'expérience ATLAS à l'aide d'un auto-encodeur variationnel

Pilette, Jacinthe 04 1900 (has links)
Depuis la découverte du boson de Higgs en 2012, les physiciens et physiciennes des particules tentent de trouver des signes de nouvelle physique. Bien que le modèle standard décrivant les forces et particules aient été confirmé par les expériences telles que ATLAS au Grand collisionneur de hadrons (LHC), ce modèle décrit seulement 5% de la matière de notre Univers. Face à l’absence d’excès dans les recherches concentrées sur des modèles de nouvelle physique, l’intelligence artificielle pourrait être la solution. Ce mémoire s’inscrit dans une perspective novatrice de recherche générale de nouvelle physique indépendante des modèles théoriques dans les données du détecteur ATLAS, par l’utilisation de l’apprentissage machine. Ici, nous nous intéressons à l’application de réseaux de neurones dans les données de simulation de collision proton-proton à \sqrt{s} = 13 TeV du détecteur ATLAS. Nous étudierons la performance d’auto-encodeurs variationnels dans les jets boostés, ces jets qui pourraient cacher des signes de nouvelle physique. Pour analyser la performance de notre réseau, nous entraînons celui-ci sur les quadri-vecteurs de jets issus de gluons et de quarks légers. Nous tentons de retrouver un signal test, les jets issus de quarks top boostés, dans les données de simulation en effectuant des sélections sur les scores d’anomalie retournés par le réseau. Nos modèles d’auto-encodeurs variationnels atteignent une bonne discrimination entre le bruit de fond et le signal du quark top. Nous devrons toutefois améliorer le rejet du bruit de fond pour purifier notre signal en fonction de nos sélections. / Since the discovery of the Higgs boson in 2012, particle physicists are searching for signs of new physics. Although the standard model describing forces and particles has been confirmed by experiments like ATLAS at the Large Hadron Collider (LHC), it only describes 5% of the matter of the universe. Facing the absence of excess in searches for new physics model, artificial intelligence could be the solution. This master thesis is part of a novel general model-independent search for new physics in the ATLAS detector data using machine learning. Here, we are interested in the application of neural networks in \sqrt{s} = 13 TeV proton-proton collision ATLAS simulation data. We study the performance of variational auto-encoders in boosted jets, who might be hiding signs of new physics. To analyze our network performance, we train the network on jets four-vectors coming from gluons and light quarks. We try to find a test signal, boosted top quark jets, in our simulation data by applying selections on the anomaly scores returned by our network. Our variational auto-encoder reach a good discrimination between the background and the top quark signal. However, we need to improve background rejection to purify our signal as a function of our selections.
142

Identification des électrons dans l'expérience ATLAS à l'aide de réseaux de neurones convolutifs entraînés dans les données expérimentales

Denis, Olivier 11 1900 (has links)
Ce mémoire s’inscrit dans une optique d’innovation dans le domaine de l’identification des électrons dans l’expérience ATLAS. ATLAS est l’un des quatre détecteurs principaux installés sur le plus puissant accélérateur de particules au monde, le LHC. Cette recherche pousse encore plus loin un projet s’intéressant à l’identification des électrons, qui sont presque omniprésents dans les analyses de la collaboration ATLAS, à l’aide de réseaux de neurones convolutifs. Le réseau entraîné avec des données de simulation de collision proton-proton à √s = 13 TeV dans ATLAS montrant déjà des résultats probants, ce mémoire investigue la possibilité d’entraîner le réseau avec des données expérimentales. D’abord, une étude des ensembles de données expérimentales et de simulation montre des différences entre les distributions des variables de haut niveau données en entrée au réseau de neurones. Ensuite, nous avons entraîné deux réseaux de neurones : un premier sur un échantillon où le bruit de fond principal, les saveurs légères, a été remplacé par des données expérimentales et un second, sur la simulation. Ces deux réseaux ont alors été validés sur l’échantillon contenant des données expérimentales. Les résultats préliminaires montrent que l’utilisation des données expérimentales améliore le rejet du bruit de fond de type saveur légère jusqu’à 1,4 fois par rapport au réseau de neurones entraîné sur la simulation et améliore jusqu’à 3,6 fois le rejet du bruit de fond combiné par rapport à l’algorithme de vraisemblance présentement utilisé dans ATLAS. / This memoir follows a perspective of innovation in the field of electron identification in the ATLAS experiment. ATLAS is one of the four major detectors installed on the LHC ring, the most powerful particle accelerator in the world. This research pushes the boundaries of an earlier project about identifying electrons, a particle which is almost ubiquitous in ATLAS analysis, using convolutional neural networks. Since the network trained with simulated data of proton-proton collisions at √s = 13 TeV in the ATLAS detector has already shown good results, this memoir investigates the possibility to train a convolutional network with real data. We first study the data samples and show that there are significant differences in the distribution of high level variables given as input to the neural network. We then train two neural networks : one of which the most prominent background, light flavour faking electrons, is replaced by real data in the training sample, and a second where the training sample is left untouched. These two networks are then validated on the sample containing real data light flavours. The preliminary results show that using real data to train our classifier improves the background rejection with respect to the light flavour background by a factor up to 1.4 in comparison with the Monte Carlo trained network. We also have an improvement with respect to the combined background by a factor up to 3.6 when comparing both networks to the Likelihood algorithm currently used in ATLAS.
143

Conception d'un récupérateur de chaleur visant l'augmentation de l'efficacité énergétique d'un procédé de gazéification des résidus solides urbains

Drolet, Guillaume January 2008 (has links)
La gazéification des résidus solides urbains (RSU) est une technologie qui permet de produire de l'électricité, de la chaleur, du gaz de synthèse ou des biocarburants à partir de déchets qui seraient autrement enfouis. Elle aborde donc simultanément les problématiques environnementales de la gestion des matières résiduelles et de la production d'énergie renouvelable. Enerkem est une entreprise sherbrookoise qui se spécialise dans la gazéification de résidus de toutes sortes, dont les RSU. L'efficacité énergétique de son procédé pourrait augmentée de 5,6 à 11,2% par l'ajout d'un récupérateur de chaleur. Pour qu'il fonctionne correctement, celui-ci doit être installé avant le système de lavage, à une étape où le syngaz contient encore plusieurs contaminants. Ces contaminants sont déterminants dans la conception du récupérateur de chaleur puisqu'il est nécessaire de minimiser l'entartrage des surfaces d'échange pour en assurer la fiabilité à long terme. Ce projet de maîtrise vise à concevoir un récupérateur de chaleur pour augmenter l'efficacité énergétique du procédé d'Enerkem lors de la gazéification des RSU. Pour y arriver, les contaminants dans le syngaz issu de la gazéification des RSU ont été échantillonnés à l'usine pilote d'Enerkem. La caractérisation de ces contaminants a permis de trouver la concentration et la composition des goudrons ainsi que la concentration et la taille des particules contenus dans le syngaz. L'élaboration d'un modèle de calcul du point de rosée a ensuite permis de déterminer la température minimale du syngaz pour éviter la condensation des goudrons. Des gammes de vitesses de syngaz sont également identifiées en fonction des caractéristiques des particules. Une géométrie souhaitable pour le récupérateur de chaleur est ensuite identifiée à l'aide de références bibliographiques. À partir de cette configuration, des calculs de transfert de chaleur ont permis d'étudier le dimensionnement ainsi que les risques d'entartrage du récupérateur de chaleur en fonction de la variation de plusieurs conditions d'opération. Les paramètres variés sont les températures d'entrée et de sortie du syngaz, la vitesse d'écoulement ainsi que la pression du syngaz et du fluide d'échange, et finalement le diamètre des tubes dans le récupérateur. Ces calculs sont effectués pour quatre fluides d'échange différents, soit l'eau, l'air, la vapeur et l'huile thermique. Les fluides d'échange appropriés pour le récupérateur de chaleur sont identifiés. La dernière partie du projet consiste au dimensionnement d'un récupérateur de chaleur adapté à l'usine pilote d'Enerkem. Un fluide d'échange est choisi, de même qu'un matériau de fabrication résistant bien à la corrosion en milieu réducteur. Les dimensions du récupérateur sont calculées en fonction du débit nominal de syngaz de l'usine pilote ainsi qu'en considérant les limites d'espace du bâtiment. L'effet de l'entartrage du récupérateur est quantifié.
144

Résolution de conflits et séquençage d'avions par algorithmes évolutionnaires multiobjectifs

Lachance, Étienne January 2014 (has links)
L'augmentation grandissante du trafic aérien rend le travail des contrôleurs aériens de plus en plus ardu, spécialement en ce qui a trait aux tâches de résolution de conflits et de séquençage d'avions en arrivée. L'automatisation de la résolution de conflits et du séquençage reste toujours un problème ouvert aujourd'hui. L'automatisation de ces deux problèmes permettrait d'une part de mieux modéliser le comportement des contrôleurs aériens dans un simulateur de vol, ou d'améliorer les outils de gestion du trafic aérien. Les caractéristiques combinatoires de ces problèmes conduisent à l'utilisation de techniques numériques stochastiques, plus spécifiquement des algorithmes évolutionnaires. De plus, les nombreux paramètres intervenant dans une situation de gestion de trafic aérien incitent à l'utilisation d'algorithmes multiobjectif. Dans un premier temps, un algorithme génétique multiobjectif (SPEA-MOD) et un algorithme de colonies de particules (PSO-MO) également multiobjectif ont été développés. Ces deux algorithmes ont été comparés à des problèmes multiobjectif contraints et non-contraints. Les résultats ont montré que SPEA-MOD et PSO-MO sont en général supérieurs à ce que l'on rapporte dans la littérature. Dans un deuxième temps, les deux algorithmes ont résolu plusieurs situations conflictuelles de la phase de vol en route (régime de croisière). Les instructions fournies par les algorithmes peuvent être en deux ou en trois dimensions. Les objectifs et les contraintes représentent des paramètres tels que la minimisation d'instructions fournies aux avions et une séparation minimale entre les avions. De ces solutions numériques réalisées, l'algorithme SPEA-MOD s'est avéré particulièrement efficace à des problèmes fortement contraints. Une modélisation novatrice de trajectoires complexes a permis de résoudre des problèmes de séquençage d'avions dans la phase d'arrivée. Le séquençage d'avions en arrivée par un algorithme évolutionnaire fut réalisé pour la première fois dans le cadre de cette recherche. Cette modélisation a également rendu possible la résolution de conflits de deux flux d'avions se croisant.
145

Agglomération de particules par voie humide en lit fluidisé

Jimenez-Munguia, Maria-Teresa 11 January 2007 (has links) (PDF)
L'agglomération de particules solides modifie leurs propriétés physiques (taille, forme, densité, porosité) et celles de la poudre constituée d'agglomérats (coulabilité, instantanéité), importantes pour les produits alimentaires. La pulvérisation de liquide (solvant, solution de liant) à la surface des particules fluidisées (air chaud) permet la création de ponts liquides, consolidés par séchage par l'air chaud. Dans cette étude, le jet de gouttes pulvérisées est caractérisé (angle et forme ; taille des gouttes) pour différentes conditions de pulvérisation. La région de mouillage " basse température " où l'agglomération se produit, est identifiée par la mesure des températures d'air dans un lit fluidisé de billes de verre pulvérisées par de l'eau. La taille et la forme de cette région dépendent des conditions opératoires (température d'entrée d'air, charge en particules, débit liquide pulvérisé, pression de pulvérisation). Des essais d'agglomération ont été réalisés avec des billes de verre non solubles (sphériques, environ 160 micromètres) en pulvérisant des solutions de gomme d'acacia (20-30% w/w) ; puis des particules de maltodextrine solubles (environ 180 micromètres) en pulvérisant de l'eau ou des solutions de maltodextrine/ou de gomme (20% w/w). Une agglomération contrôlée est obtenue pour un volume de la zone de mouillage compris entre 18 et 30 % du lit fluidisé. Les particules non solubles nécessitent une pré-couche alors que les particules solubles s'agglomérent dès le mouillage. Dans les deux cas, la taille atteint un maximum, plus élevé pour des particules solubles ou pou un débit de liquide élevé. L'analyse des propriétés des poudres agglomérées montre une résistance mécanique et une taille plus faibles pour les agglomérats formés à partir des gouttes pulvérisées les plus petites. Les agglomérats les plus gros sont irréguliers, plus résistants. A partir de bilans de population, un modèle décrivant la croissance de taille dans la zone de mouillage est proposé et validé.
146

Emission de particules chargées légères induite par neutrons rapides (En = 25 - 65 MeV) sur noyaux lourds (209 Bi et nat U)

Raeymackers, Erwin 01 April 2004 (has links)
Les spectres énergétiques (sections efficaces doublement différentielles) de production de protons, deutons, tritons et particules alpha induite par des neutrons rapides sur 209Bi et natU sont présentées pour plusieurs énergies de neutrons incidents comprises entre 25 et 65 MeV. Les spectres ont été obtenus à 9 angles laboratoire entre 20° et 160° et extrapolés et interpolés à 10 autres angles afin de couvrir le domaine angulaire de 0 à 180°. Le dispositif expérimental et les procédures d'analyse des données incluant les corrections et la normalisation sont présentées et discutées. Sur base des sections efficaces doublement différentielles obtenues, les sections efficaces différentielles en énergie et en angle ainsi que les sections efficaces totales de production et les coefficients KERMA partiels associés sont également déduits. La thèse présente également des comparaisons aux rares mesures existantes dans la littérature ainsi qu'aux calculs théoriques basés sur les codes de réactions nucléaires INCL3, GNASH et TALYS. Tandis que l'INCL3 se base sur la cascade intranucléaire, les deux autres codes intègrent le modèle optique et les modèles de réactions directes, de prééquilibre, de fission et de noyaux composés dans un unique schéma de calcul. Finalement, sur base de l'ensemble des résultats obtenus depuis une dizaine d'années par le groupe, une vue nouvelle des sections efficaces totales de production et des coefficients KERMA partiels en fonction de la masse de la cible est proposée.
147

Diffusion de la lumière par des agrégats irréguliers : simulations numériques et expérimentales, applications aux petits corps dans le système solaire

Lasue, Jérémie A. F. 29 September 2006 (has links)
Les particules cométaires sont des témoins de l’évolution du système solaire, dont les caractéristiques peuvent être estimées à partir de la lumière qu’elles diffusent et émettent. Je montre qu’un modèle de diffusion lumineuse par un nuage d’agrégats fractals et de sphéroïdes permet d’interpréter, en fonction de la distribution en taille et des matériaux constitutifs, des observations polarimétriques en angle de phase et longueur d'onde. Le modèle est en particulier appliqué à la comète Hale-Bopp, et au milieu interplanétaire en modélisant aussi les observations thermiques. Je développe des outils de diffusion lumineuse (numériques et expérimentaux) pour analyser des agrégats analogues aux particules protoplanétaires qui seront formés avec ICAPS à bord de l’ISS. De façon complémentaire, une simulation expérimentale en vol parabolique avec PROGRA2 me permet de déterminer les propriétés physiques de microparticules d’intérêt astrophysique par des mesures polarimétriques.
148

Etude expérimentale du comportement des aérosols et de leurs dépôts dans un élévateur à godets : impact sur la contamination croisée en alimentation animale

Leloup, Marine 25 May 2012 (has links) (PDF)
La problématique des contaminations croisées (transfert inter-lots de micro-ingrédients : additifs et/ou produits médicamenteux) dans le secteur de l'alimentation animale est entrée, depuis quelques décennies, au cœur des préoccupations de la profession. Ce phénomène se décompose en 2 phases : le dépôt de particules par un lot de fabrication et sa récupération par le/les lot(s) suivant(s). Plusieurs études expérimentales, ont incriminé l'élévateur à godets post-mélangeur dans l'augmentation du niveau de contamination d'une ligne de fabrication. Cet appareil de manutention achemine verticalement des mélanges pulvérulents de diverses matières premières, pouvant contenir, en particulier, des additifs ou des produits médicamenteux. L'objectif de ces travaux est de comprendre dans quelles mesures cet appareil est source de transfert inter-lots, et quels paramètres liés au procédé entrent en jeu. Plusieurs outils ont été mis en place et la réalisation d'un plan d'expériences a permis de mettre en lumière l'impact de certains facteurs sur la contamination croisée :d'une part, le mode de vidange (lié à la vitesse de la sangle) en tête de l'élévateur et l'angle de la bavette de jetée agissent sur la quantité de micro-ingrédient déposée lors du passage d'un lot, et d'autre part, l'espace autour des godets, modifie la capacité du lot suivant à collecter les reliquats.Ces informations définissent une position optimale des paramètres de l'élévateur qui, sur pilote, réduit le niveau de contaminations croisées de 9 à 7 %. Enfin, des observations des champs de vitesses pendant la jetée du produit ont apporté de éléments de compréhension sur mouvements d'air et d'aérosols à l'origine des contaminations.
149

Développement d'une méthode hybride eulérienne-lagrangienne pour la modélisation numérique de la phase particulaire dans les écoulements turbulents gaz-particules

Pialat, Xavier 03 July 2007 (has links) (PDF)
Les écoulements turbulents gaz-particules sont présents dans une large gamme d'applications, des procédés naturels (dispersion de polluants, sédimentation...) aux procédés industriels (turbomachines, lits fluidisés...).<br />La modélisation numérique de tels écoulements offre en conséquence un large panel de modèles. La prédiction de la phase dispersée est ainsi effectuée dans le formalisme lagrangien ou dans le formalisme eulérien.<br /><br />Il n'existe pourtant pas actuellement d'outil numérique permettant d'obtenir une résolution à moindre coût de l'écoulement (de l'ordre du coût d'une résolution eulérienne) tout en conservant une prédiction précise<br />dans toutes les zones de l'écoulement (comme le font les approches lagrangiennes suffisamment résolues).<br />Une méthode élégante pour résoudre ce type de problèmes réside dans l'utilisation d'une méthode hybride<br />couplant des approches issues de formalismes différents.<br /><br />Ce travail vise donc à développer une méthode hybride eulérienne-lagrangienne pour la modélisation numérique de la phase dispersée dans les écoulements turbulents gaz-particules. A cette fin, le domaine spatial de l'écoulement est décomposé en sous-domaines dans lesquels une seule des deux approches est utilisée. Les deux approches couplées ont en commun la description en termes statistiques de la phase dispersée, effectuée à l'aide d'une fonction densité de probabilité (pdf) jointe fluide-particule. La première repose sur une discrétisation directe de l'équation d'évolution de la pdf à l'aide d'une méthode particulaire stochastique. La deuxième est basée sur la résolution des équations eulériennes des moments déduites de l'équation de la pdf (densité, vitesse moyenne et contraintes cinétiques particulaires . . . ), fermées à l'aide d'hypothèses supplémentaires, et discrétisées par volumes-finis.<br /><br />Le couplage des deux approches est basé sur la description cinétique des flux de moments au travers des interfaces entre sous-domaines, permettant la mise en place de conditions aux limites bien posées. La condition à la limite de couplage concernant le lagrangien est spécifiée par la distribution des vitesses (ou pdf) des particules entrantes dans le domaine lagrangien. Cette pdf est déduite d'informations provenant à la fois des calculs lagrangien et eulérien de l'itération de couplage précédente. Cette pdf est alors simulée par une méthode statistique dite de réjection, permettant ainsi d'imposer les caractéristiques entrantes au domaine lagrangien. Les conditions aux limites imposées au domaine eulérien peuvent être de type Dirichlet (calcul lagrangien des moments à imposer) ou de type flux (décomposition des flux en une partie donnée par les particules sortantes du domaine lagrangien, l'autre par le calcul eulérien précédent). <br /><br />Les deux approches, ainsi que les méthodes de couplage, sont codées en FORTRAN90, permettant une validation dans des configurations d'écoulements homogènes (écoulements cisaillés homogènes) et inhomogènes (écoulement de canal plan ascendant) par comparaison avec des résultats d'expériences numériques. La méthode hybride est ainsi appliquée dans des situations fortement déséquilibrée (canal plan) pour lesquelles l'approche eulérienne ne permet une prédiction adéquate de l'écoulement. L'utilisation de la méthode hybride améliore sensiblement cette prédiction et démontre ainsi la faisabilité et l'intérêt d'une telle méthode.
150

Cristaux photoniques colloïdaux d'architecture contrôlée

Massé, Pascal 15 June 2007 (has links) (PDF)
Ce manuscrit décrit l'élaboration de cristaux photoniques d'architecture contrôlée par l'assemblage de particules colloïdales. Nous avons présenté tout d'abord les voies de synthèse des particules colloïdales monodisperses minérales et organiques ainsi que les méthodes d'élaboration de cristaux photoniques colloïdaux d'épaisseur homogène. La qualité cristalline des édifices a été caractérisée par microscopie électronique à balayage et leurs propriétés optiques enregistrées par spectroscopie proche infrarouge. Dans le but de moduler l'architecture des matériaux, nous avons aussi fabriqué des hétérostructures en superposant deux cristaux colloïdaux de particules de diamètres différents, ou inséré de façon parfaitement contrôlée au sein des édifices des défauts planaires, matérialisés par des monocouches de particules de diamètres ou de natures différentes. Une étude de la relation structure - réponses optiques des différents matériaux a été systématiquement menée et met en évidence la diversité des propriétés optiques qui peuvent être obtenues en modulant précisément l'architecture des cristaux photoniques élaborés.

Page generated in 0.0536 seconds