• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 709
  • 337
  • 59
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 1091
  • 310
  • 295
  • 260
  • 238
  • 203
  • 114
  • 113
  • 111
  • 91
  • 80
  • 71
  • 69
  • 68
  • 66
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
651

Analyse de la désintégration rare B0 ->K*0 e+e- dans l'expérience LHCb

Nicol, M. 05 December 2012 (has links) (PDF)
Grâce a la grande section efficace de production de paires b \bar b, LHC offre une excellente occasion de faire des études de courants neutre changeant la saveur. Ces transitions sont sensibles aux effets de nouvelle physique. Cette these porte sur l'analyse des événements B0 → K∗ 0 e+e− qui permettent de mesurer la fraction de photon avec une polarisation droite et donc de rechercher des signaux de nouvelle physique émis dans la transition b → sγ . En effet, dans le Modele Standard, la polarisation des photons est gauche. La paire e+e−, lors que la masse invariante de la paire de leptons est basse, provient d'un photon virtuel et permet donc de sonder la polarisation de celui-ci. Cette mesure se fait grâce a l'étude des distribution angulaires de cette désintégration a quatre corps. Une première étape est la mesure du rapport d'embranchement dans le domaine de masse 30-1000 MeV/c2 . En effet, cette désintégration n'a jamais été observée dans cette région, y compris auprès des usines a B a cause du très faible rapport d'embranchement. Cette analyse comportant des électrons de basse impulsion transverse est expérimentalement complexe dans un environnement tel que celui du LHC. La mesure est faite relativement au rapport d'embranchement de la désintégration B0 → J/ψ (e + e−)K∗0 . En effet, cela permet de s'affranchir de nombreux effets expérimentaux ainsi que de la détermination absolue des efficacites. Le résultat, repose sur les donnees collectees par LHCb en 2011 et correspondant a une luminosité intégrée de 1 fb−1 : B(B 0 → K∗ 0 e+e−)30−1000 MeV/c = (3.19+0.75 −0.68 (stat) ± 0.22(syst) ± 0.15(PDG)) × 10− 7 en utilisant la valeur PDG pour le rapport d'embranchement de la désintégration B0 → J/ψ (e + e−)K∗0 . La dernière partie de la thèse porte sur des études Monte Carlo qui montrent que la précision sur la fraction de photon avec une polarisation droite que l'on peut espérer obtenir avec l'inclusion des données de 2012 est d'environ 0.1, comparable a la moyenne mondiale obtenue avec des méthodes differentes.
652

Analyse de la désintégration rare B->K*ee dans l'expérience LHCb

Nicol, Michelle 05 December 2012 (has links) (PDF)
Grâce à la grande section efficace de production de paires bb, LHC offre une excellente occasion de faire des études de courants neutres changeant la saveur. Ces transitions sont sensibles aux effets de nouvelle physique. Cette thèse porte sur l'analyse des événements B->K*ee qui permettent de mesurer la fraction de photon avec une polarisation droite et donc de rechercher des signaux de nouvelle physique émis dans la transition b ->s. En effet, dans le Modèle Standard, la polarisation des photons est gauche. La paire e+e-, lors que la masse invariante de la paire de leptons est basse, provient d'un photon virtuel et permet donc de sonder la polarisation de celui-ci. Cette mesure se fait grâce à l'étude des distribution angulaires de cette désintégration à quatre corps. Une première étape est la mesure du rapport d'embranchement dans le domaine de masse 30-1000MeV=c2. En effet, cette désintégration n'a jamais été observée dans cette région, y compris auprès des usines a B a cause du très faible rapport d'embranchement. Cette analyse comportant des électrons de basse impulsion transverse est expérimentalement complexe dans un environnement tel que celui du LHC. La mesure est faite relativement au rapport d'embranchement de la désintégration B->J/Psi(ee)K*. En effet, cela permet de s'affranchir de nombreux effets expérimentaux ainsi que de la détermination absolue des efficacités. Le résultat, repose sur les données collectées par LHCb en 2011 et correspondant a une luminosité intégrée de 1 fb-1: B(B->K*ee)30-1000MeV = (3:19+0:75-0:68(stat) +/- 0:21(syst) =/-0.15(PDG)) x10-7 en utilisant la valeur PDG pour le rapport d'embranchement de la désintégration B->J/Psi(ee)K*. La dernière partie de la thèse porte sur des études Monte Carlo qui montrent que la précision sur la fraction de photon avec une polarisation droite que l'on peut espérer obtenir avec l'inclusion des données de 2012 est d'environ 0.1, comparable à la moyenne mondiale obtenue avec des méthodes différentes.
653

Contribution à l'étude de l'induction de nano ou micro cristallisations dans des verres à base de silice à l'aide du laser femtoseconde

Fan, Chaxing 14 September 2012 (has links) (PDF)
Le traitement par laser femtoseconde dans des matériaux transparents est prometteur du fait de la possibilité de contrôler le dépôt d'énergie dans le temps et dans l'espace. Il ouvre ainsi des possibilités fantastiques pour la fabrication de nouveaux matériaux composites multifonctionnels en manipulant la taille, la forme et l'orientation des cristaux non linéaires dans les verres. Cette thèse contribue principalement à la maîtrise de la nano ou micro cristallisation dans des verres à base de silice pour le développement de nouveaux matériaux électro-optiques multi-fonctionnels par l'irradiation au laser femtoseconde. On démontre la faisabilité du traitement des matériaux par le laser femtoseconde pour remodeler les propriétés optiques linéaires et non linéaires ou de la fabrication de micro / nano agrégats, ainsi que les formes et les orientations (en particulier agrégats asymétriques), les tailles et les distributions (à l'échelle sub-micrométrique). Le mémoire débute par un chapitre introductif sur l'investigation de l'écriture par laser impulsionnel ultra-bref dans la silice pure, ainsi que dans le verre à base de silice, afin de bien maîtriser l'inscription avec ce nouveau type de laser. Nous discutons les effets des paramètres du laser sur l'écriture, telle que la vitesse de déplacement du faisceau et la polarisation du laser, sur les propriétés optiques et les structures atomiques, par exemple, la biréfringence, les champs de contraintes et le changement d'arrangement atomique. Il est mis en évidence des effets orientationnels et directionnels spécifiques de l'interaction de ce type de laser avec les verres. Le mécanisme associé fait probablement intervenir l'inclinaison du front de la phase du champ de l'impulsion par rapport au déplacement du faisceau dans le solide. La précipitation des cristaux LiNbO3 orientés dans le verre avec l'irradiation laser femtoseconde est réalisée dans le cas d'une fréquence de répétition élevée (typ. 300 kHz) permettant l'accumulation de chaleur. Des cristaux orientés avec leur axe polaire aligné dans la direction d'inscription du laser ont été fabriqués en manipulant le gradient de température par le réglage des paramètres du laser. L'imagerie microscopique de génération de seconde harmonique (GSH) montre le caractère cristallin asymétrique et fournit des informations sur les orientations dominantes favorisées lors des processus de cristallisation. Les résultats de diffraction d'électrons rétrodiffusés (EBSD) fournissent des informations détaillées sur l'orientation des cristaux et révèlent la structure des lignes écrites notamment tailles et dispersion des orientations. En outre, des débuts de modélisation ont été réalisés pour se diriger vers une maîtrise de l'écriture de structures linéaires cristallines. Une autre section du mémoire rapporte l'étude de reformation par l'irradiation avec le laser femtoseconde de nanoparticules d'or quasi-sphériques ou quasi-tige dans le verre à base de silice. Les nanoparticules d'or de la taille de 3-4 nm ont été précipitées par traitement thermique. Après l'irradiation par le laser, des mesures optiques d'absorption, de biréfringence et de dichroïsme ont été effectuées pour étudier la modification de la forme de nanoparticules d'or dans le verre. Les simulations théoriques ont été menées pour interpréter les résultats expérimentaux basés sur la théorie de Gans et le modèle de Drude avec les constantes diélectriques connus de l'or. Enfin, des stratégies de conception efficaces sont aussi suggérées pour le futur pour des applications possibles utilisant la précipitation, la forme et l'orientation des micro/nanoparticules en 3D.
654

Systemes de particules multicolores

Lanchier, Nicolas 22 September 2005 (has links) (PDF)
La plupart des modèles mathématiques introduits dans la littérature biologique décrivant des phénomènes spatiaux de populations en interaction consistent en des systèmes d'équations différentielles ordinaires obtenues sous des hypothèses de dispersion globale, excluant par conséquent toute structure spatiale. Les systèmes de particules, au contraire, sont des processus de Markov d'espace d'états $F^S$ où $F$ est un ensemble fini de couleurs et $S$ est une structure spatiale, typiquement $\Z^d$. Ils sont en ce sens parfaitement adaptés à l'étude des conséquences de l'inclusion d'une structure spatiale sous forme d'interactions locales. Nous étudions les propriétés mathématiques (mesures stationnaires, géométrie des configurations, transitions de phases) de différents systèmes de particules multicolores définis sur $\Z^d$. Chacun de ces systèmes est déstiné à modéliser les interactions locales au sein d'une communauté de populations structurée spatialement. Plus précisément, les processus biologiques étudiés sont la succession écologique, l'allélopathie ou compétition entre une espèce inhibitrice et une espèce sensible, les interactions multispécifiques hôtes-symbiontes, et les migrations continues de gènes des cultures transgéniques par pollinisation en milieu hétérogène. Les techniques mathématiques sont purement probabilistes, incluant le couplage, la dualité, les arguments multi-échelle, la percolation orientée, les propriétés asymptôtiques des marches aléatoires, ou encore les estimations de grandes déviations.
655

Reliability of the beam loss monitors system for the Large Hadron Collider at CERN

Guaglio, G. 16 December 2005 (has links) (PDF)
L'énergie stockée dans le Large Hadron Collider est sans précédent. La perte des particules du faisceau peut endommager gravement les aimants supraconducteurs, ayant pour résultat des temps significatifs d'arrêt pour la réparation. Le système des moniteurs de pertes du faisceau (en anglais: BLMS) détecte les gerbes de particules secondaires créées par les pertes faisceau et provoque l'extraction du faisceau avant que des dommages sérieux de l'équipement ne puissent se produire. Cette thèse définit les caractéristiques du BLMS en termes de la fiabilité. Le but principal est la conception d'un système réduisant au minimum soit la probabilité de ne pas détecter une perte dangereuse, soit le nombre de fausses alarmes produites. La théorie et les techniques de fiabilité utilisées sont décrites. La Prédiction de fiabilité, Analyse des Modes de Défaillance de leurs Effets et de leur Criticité (en anglais: FMECA), et l'Analyse par Arbre de Défaillance ont été employées pour fournir une évaluation de la probabilité d'endommager un aimant, du nombre de fausses alarmes et du nombre d'avertissements produits. Les composants les plus faibles dans le BLMS ont été précisés. Les chiffres de fiabilité du BLMS ont été calculés en utilisant un logiciel commercial (IsographTM). L'effet de la variation des paramètres sur les résultats obtenus a été évalué avec une Analyse de Sensibilité. Le modèle de fiabilité a été complété par les résultats des tests d'irradiation. Des améliorations de la conception du système, comme la transmission optique redondante, ont été mises en application grâce à un processus itératif. Le système proposé est conforme aux requêtes de fiabilité. Les incertitudes du modèle proviennent de la connaissance limitée des niveaux de seuils des aimants supraconducteurs et de la localisation des pertes autour de l'anneau. Le modèle mis en œuvre permet des modifications du système, suivant la mesure des taux de risque pendant la durée de vie du LHC. Il peut également fournir des valeurs de référence à d'autres accélérateurs qui mettront en application des technologies semblables.
656

Contribution à l'étude des liaisons optiques atmosphériques : propagation, disponibilité et fiabilité.

Al Naboulsi, Maher 13 December 2005 (has links) (PDF)
Le plus grand défi pour le déploiement des systèmes de télécommunications basés sur les Liaisons Optiques Atmosphériques (LOA) reste sans doute la limite de leurs performances dans différentes conditions météorologiques et plus particulièrement en présence de brouillard. L'intérêt porté actuellement à ce type de liaisons nous a amené à étudier et à comprendre les effets des différentes conditions météorologiques (pluie, neige, brouillard, etc.) sur la propagation du rayonnement laser dans l'atmosphère. Les performances des LOA dépendent fortement de la longueur d'onde utilisée. En fonction de cette dernière, on cherchera à déterminer, à comprendre et à optimiser les effets de l'atmosphère sur la transmission en espace libre.<br />Pour les ondes optiques visibles et infrarouges, gamme dans laquelle opèrent les LOA, le brouillard joue un rôle prépondérant dans la dégradation de la transmission. L'objet de ce travail porte plus particulièrement sur l'étude de l'effet du brouillard sur les performances des LOA.<br />Nous rappelons, dans un premier temps, l'intérêt des LOA ainsi que leurs implications dans le monde des télécommunications d'aujourd'hui. Nous étudions ensuite la problématique, les défis et les facteurs environnementaux rencontrés par ce type de liaisons et nous exposons les différents modèles empiriques et théoriques existant dans la littérature permettant d'évaluer l'atténuation des ondes optiques en présence de brouillard. <br />Dans un second temps, nous décrivons les propriétés optiques du brouillard à partir de la théorie de diffusion de Mie en fonction de la distribution de la taille de particules. Nous investiguons sous FASCODE les performances des systèmes laser en présence de deux types de brouillard (advection et convection) ainsi qu'à partir d'autres distributions de taille de particules disponibles dans la littérature. Les coefficients d'extinction en fonction de la longueur d'onde (0.4 à 15 µm), pour différentes distributions de taille de particules, sont comparés afin de vérifier la capacité des modèles de brouillard de FASCODE à représenter la variété des types de brouillards existant dans la nature. Nous portons plus particulièrement notre attention sur quelques raies laser utilisées dans les liaisons optiques atmosphériques.<br />A partir de ces résultats, nous avons établi des formules de transmission rapides pour ces longueurs d'onde qui nous permettent de prédire l'atténuation atmosphérique en fonction de la visibilité sans avoir recours aux codes de calcul usuels. Ainsi, un modèle d'atténuation pour le rayonnement laser dans la bande spectrale 0.69 à 1.55 µm sera proposé. Ce modèle est valide pour deux types de brouillard (advection et convection) et pour des visibilités qui varient entre 50 et 1000 m. En effet, le paramètre "visibilité" est mesuré facilement et archivé à partir des stations météorologiques ou des aéroports, ce qui permet une évaluation géolocale des performances de ces systèmes de télécommunication.<br />Dans un troisième temps, nous présentons le logiciel développé à FT R&D, basé sur le modèle d'atténuation que nous avons établi, qui permet de prédire la qualité de service d'une liaison LOA. Une comparaison de la disponibilité réelle d'une liaison (Graz en Autriche) et de la disponibilité prédite à partir de ce logiciel, a permis sa validation.<br />Finalement, la dernière partie de ce travail concerne une série d'expériences en milieu naturel sur plusieurs liaisons optiques. Nous avons comparé le comportement de deux systèmes laser opérant à 3 longueurs d'onde différentes (650, 850 et 950 nm) dans un même canal de propagation et dans les mêmes conditions météorologiques. Nous avons pu valider notre modèle théorique et montrer qu'il apportait une amélioration dans la prévision des mesures de transmission par rapport aux modèles existant dans la littérature et couramment employés.
657

Étude des écoulements d'air et de particules au voisinage de pièces en mouvement :<br />application à la conception des captages sur machines tournantes réalisant des opérations d'usinage

Belut, Emmanuel 30 October 2006 (has links) (PDF)
L'objectif de recherche développé dans cette thèse est d'initier une méthode de conception des dispositifs de captage des polluants d'usinage basée sur la prédiction par simulation numérique des écoulements d'air et de particules induits par les machines tournantes.<br />La recherche des modèles numériques les mieux adaptés aux écoulements rencontrés s'est conduite en deux étapes. Sur la base de recherches bibliographiques et d'expérimentations numériques, la première étape démontre l'intérêt et la faisabilité de la simulation des grandes échelles sous-résolue en paroi (ou VLES pour Very Large Eddy Simulation), couplée au suivi lagrangien de particules, pour modéliser les écoulements diphasiques d'usinage, et rendre compte finement de l'interaction particules-turbulence.<br />Dans la seconde étape, une importante campagne expérimentale, menée sur un banc d'essai original représentatif d'une opération d'usinage, sert de base pour valider définitivement les modèles retenus. Dans le dispositif réalisé, un jet de particules stable et de débit contrôlé est créé en poussant dans une buse des microbilles de verres sphériques contre un cylindre en rotation. L'écoulement de la phase particulaire dans le banc d'essai est caractérisé par analyseur de particules phase Doppler (PDPA), et le champ de vitesse de la phase gazeuse par vélocimétrie par image de particules (PIV), cette dernière technique nécessitant le développement d'un code spécifique pour discriminer les phases en présence.<br />La comparaison des mesures et des résultats de simulation ouvre des perspectives nouvelles concernant l'applicabilité industrielle de la simulation des grandes échelles aux écoulements multiphasiques.
658

Mécanismes d'enlèvement de particules par laser impulsionnel : application au nettoyage pour la microélectronique

Grojo, David 27 November 2006 (has links) (PDF)
Le développement des nanotechnologies nécessite, entre autre, d'utiliser de nouvelles techniques de nettoyage permettant l'enlèvement sans contact de particules de tailles nanométriques. Le procédé laser consistant à irradier les matériaux avec des impulsions nanosecondes se révèle une approche prometteuse. Cette étude participe à l'amélioration des connaissances des processus d'interaction "laser-particule-surface". Les expériences démontrent que l'enlèvement résulte d'une compétition entre différents mécanismes. L'évaporation explosive de l'humidité résiduelle piégée au voisinage des polluants est identifiée comme le mécanisme non-destructif principal. Parmi les mécanismes d'endommagement observés, l'ablation locale du substrat résultant des phénomènes d'exaltation de champ proche optique limite la fenêtre de travail du procédé de nettoyage. Cependant, ce processus présente un intérêt pour d'autres applications telles que la nanostructuration de surfaces.
659

Une méthode de prolongement régulier pour la simulation d'écoulements fluide/particules

Fabrèges, Benoit 06 December 2012 (has links) (PDF)
Nous étudions dans ce travail une méthode de type éléments finis dans le but de simuler le mouvement de particules rigides immergées. La méthode développée ici est une méthode de type domaine fictif. L'idée est de chercher un prolongement régulier de la solution exacte à tout le domaine fictif afin d'obtenir une solution régulière sur tout le domaine et retrouver l'ordre optimal de l'erreur avec des éléments d'ordre 1. Le prolongement régulier est cherché en minimisant une fonctionnelle dont le gradient est donné par la solution d'un nouveau problème fluide faisant intervenir une distribution simple couche dans le second membre. Nous faisons une analyse numérique, dans le cas scalaire, de l'approximation de cette distribution par une combinaison de masse de Dirac. Un des avantages de cette méthode est de pouvoir utiliser des solveurs rapides sur maillages cartésiens tout en conservant l'ordre optimal de l'erreur. Un autre avantage de la méthode vient du fait que les opérateurs ne sont pas modifiés, seul les seconds membres dépendent de la géométrie du domaine initial. Nous avons de plus écrit un code C++ parallèle en deux et trois dimensions, permettant de simuler des écoulements fluide/particules rigides avec cette méthode. Nous présentons ainsi une description des principales composantes de ce code.
660

Etude de la déformation de gouttes à interface et rhéologie complexes

Boufarguine, Majdi 07 June 2011 (has links) (PDF)
Ce travail de thèse est une contribution à l'étude des émulsions de Pickering qui ont vu unregain d'intérêt ces dernières années. Bien que l'effet Pickering ait été décrit depuis plus d'un siècle,des études plus systématiques pour comprendre l'activité des particules solides aux interfacesliquide/liquide n'est que partiellement entrepris, surtout en cours de déformation. Plusieurs questionsrestent d'actualité et, en premier, la localisation même des particules à l'interface et le mécanismed'adsorption associé.L'approche proposée dans ce travail de thèse s'inscrit dans cette optique avec en particulier laconsidération d'un événement élémentaire d'une émulsion : une goutte isolée dans une matrice etexaminée suite à un saut de déformation en cisaillement dans un dispositif de cisaillement contrarotatifdéveloppé à PCI. De manière générique, le but est de comprendre la relation entre le comportement dela goutte et la rhéologie complexe (en volume ou en surface) apportée par la dynamique de particulessolides aux interfaces liquide/liquide mobiles. Plusieurs paramètres ont été étudiés en commençant parl'affinité chimique des particules solides avec les phases liquides, la rhéologie des phases liquides, laconcentration et la taille des particules solides ; et pour finir, une attention particulière a été portée àl'effet de la déformation macroscopique et l'âge de la goutte.Plus particulièrement, la mise en évidence de la synergie entre la déformation macroscopiqueet l'âge de la goutte, sur la dynamique d'adsorption des particules à l'interface liquide/liquide et lastructuration de l'interface composée, a permis de proposer une méthodologie pour la modulation de" l'effet mémoire induite par la déformation " lors de la relaxation de la goutte en modifiant lasurface des particules par adsorption de tensioactifs choisis. Ainsi, il a été possible de figer les gouttesliquides dans des formes anisotropes contrôlées. Ce phénomène a été corrélé à une transition liquidesolidede l'interface composée mise en évidence par des mesures des modules rhéologiquesinterfaciaux. Ces derniers ont été, par ailleurs, reliés quantitativement à l'anisotropie des gouttesfigées.

Page generated in 0.0318 seconds