• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1005
  • 632
  • 603
  • 13
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2271
  • 1597
  • 1370
  • 1287
  • 1188
  • 1180
  • 827
  • 797
  • 792
  • 436
  • 300
  • 199
  • 178
  • 172
  • 140
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

La loi sur l'équité en matière d'emploi en milieu organisationnel aspects communicationnels

Demory, Sonia January 2008 (has links) (PDF)
Des recherches récentes mettent en avant que l'application de la Loi sur l'équité en matière d'emploi connaît différents blocages communicationnels en milieu organisationnel. Ce mémoire a pour objectif d'en cerner les motifs afin d'émettre des pistes de solution. Notre but est de comprendre le fonctionnement précis des phénomènes communicationnels relatifs à l'application de la Loi entre l'employeur, le représentant des employéEs et les employéEs. Pour atteindre notre objectif, nous avons effectué une étude de cas dans une organisation représentative du Québec qui entre dans les critères d'application de la Loi. Notre fondement théorique a été l'analyse systémique. Nous avons constaté que certains des concepts centraux de la Loi avaient une connotation péjorative pour les acteurs internes-employéEs. Cet élément a une incidence sur les phénomènes communicationnels liés à l'application de la Loi. De plus, nous avons repéré des boucles de causalité circulaire entre le peu de phénomènes communicationnels portant sur l'équité/diversité et le peu de phénomènes communicationnels d'évaluation réalisés au niveau du suivi. Le suivi porte en effet principalement sur les chiffres de représentation des minorités visibles et quasiment pas sur les actions menées pour l'équité des employéEs. En outre, les phénomènes communicationnels de consultations sont inexistants dans la mesure où les employéEs n'ont pas de représentant et l'employeur ne participe aux consultations que pour approuver les actions relatives à l'application de la Loi. Ainsi, avons-nous mis en lumière d'autres blocages que ceux déjà constatés, qui nous ont amenée à des recommandations. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Loi sur l’équité en matière d’emploi, Minorités visibles, Différences culturelles, Système, Communication.
22

Approches effectives dans le MSSM et au-delà : applications à la physique du Higgs et aux observables de matière sombre

Drieu la rochelle, Guillaume 12 July 2012 (has links) (PDF)
Malgré le succès incontestable du Modèle Standard de la physique des particules, il est vraisemblable qu'il ne soit qu'une partie de la théorie complète de physique des particules -- comme c'est le cas des hypothèses de théories unifiées -- et ainsi de nombreux efforts ont été dédiés au développement de théorie de Nouvelle Physique. La Supersymmétrie est l'une des extensions les plus populaires puisque qu'elle permet non seulement de résoudre le problème de Naturalité mais présente aussi une candidat viable de matière sombre. Ce dernier point a été particulièrement mis en avant avec les récentes mesures expérimentales qui ont permis d'affiner significativement notre connaissance des propriétés de cette matière sombre. En particulier, la détermination de la densité relique de matière sombre dans l'univers est à présent réalisée avec une précision de l'ordre du pourcent. Dans le cadre du Modèle Standard Supersymmétrique Minimal (le MSSM), cette contrainte permet ainsi de tester la structure à une boucle de la théorie. Cependant c'est aussi un modèle présentant un très grand nombre de paramètres, comparé au Modèle Standard, et le calcul complet des observables à une boucle reste trop long pour être effectué sur l'ensemble de l'espace des paramètres. Dans cette thèse, je me suis ainsi intéressé à la possibilité de reproduire ces corrections à la boucle par un ensemble de couplages effectifs. L'approche effective présentant l'avantage de garder la simplicité d'un calcul effectué à l'arbre tout en conservant une trace des effets caractéristiques de boucles comme le non-découplage de certaines particules lourdes. Le LHC (Large Hadron Collider), dont les opérations ont démarrées juste après le début de ma thèse, soit à l'automne 2009, a fourni des données complémentaires aux observables de matière sombre. En effet le secteur du Higgs du MSSM est très peu flexible, ce qui a pour effet d'introduire ce que l'on appelle le problème du ''fine-tuning'', c'est à dire la nécessité d'avoir des valeurs très précises pour les paramètres. Afin d'y remédier, de nombreux modèles ont été créés au delà du MSSM, comme le NMSSM (en anglais Next-to-MSSM). Dans le but de suivre une approche plus générale, j'ai décidé au cours de cette thèse d'utiliser à nouveau l'approche effective, mais dans un but différent : alors que les couplages effectifs utilisés dans le cas de la matière sombre sont choisi pour reproduire le plus fidèlement possible les corrections à la boucle des particules du MSSM, les opérateurs effectifs que nous ajoutons au secteur du Higgs sont les effets à basse énergie (c'est à dire l'énergie de production du Higgs) d'une nouvelle physique à haute énergie. Bien que dédiées à deux buts différents, ces deux implémentations d'une même technique montrent bien ses différents atouts. Dans un des cas (celui du Higgs) les opérateurs effectifs permettent de paramétrer l'effet d'une physique ultraviolette inconnue, alors que dans l'autre cas cette physique ultraviolette se réduit au simple MSSM.
23

Couplage exciton-photon dans les nanostructures semiconductrices à grand gap

GUILLET, Thierry 10 December 2012 (has links) (PDF)
Les interactions entre les électrons et les photons sont au cœur des recherches liées à l'information quantique, nées en particulier d'échanges croissants entre deux domaines de la physique : l'opto-électronique, qui s'intéresse aux dispositifs d'émission, de détection et de conversion de lumière à base de matériaux semiconducteurs, et l'optique quantique, historiquement centrée sur l'étude des interactions entre atome et rayonnement électromagnétique. Dans ce mémoire, nous explorons les configurations originales de couplage entre les excitations électroniques (les excitons) et les modes photoniques façonnés au sein de nanostructures semiconductrices. Ces travaux ont été développés sur les matériaux semiconducteurs " à grand gap ", GaN et ZnO, dont les excitons sont robustes jusqu'à température ambiante et les propriétés quantiques d'interaction avec la lumière sont les plus fortes parmi les matériaux semiconducteurs. Le premier chapitre est consacrée à l'étude de l'exciton confiné dans une boîte quantique unique GaN. Dans le second chapitre, nous discuterons l'insertion de telles boîtes quantiques dans des cavités photoniques destinées à réaliser des nanolasers à boîtes quantiques. Enfin, dans le troisième chapitre consacré aux microcavités planaires à base de ZnO, nous montrons comment les polaritons, particules hybrides exciton-photon, forment à forte densité des condensats de Bose (des états macroscopiques cohérents) appelés lasers à polaritons, jusqu'à température ambiante. Les perspectives de développement d'optique quantique en cavité dans ces nouveaux systèmes sont enfin présentées.
24

Interaction d'un rayonnement X-XUV intense avec la matière : cinétique atomique associée / Interaction of an intense X/XUV-ray with matter : associated atomic physics

Deschaud, Basil 21 December 2015 (has links)
Ce travail de thèse suit l'apparition récente de ces nouvelles sources intenses et courtes de rayonnement dans la gamme X/XUV que sont les lasers X/XUV à électrons libres (XFEL). Contrairement aux sources optiques qui déposent principalement leur énergie via les électrons libres, les photons X/XUV déposent leur énergie dans la matière par la photoionisation de couches internes avec éjection de photo-électrons, suivie par l'éjection d'électrons Auger et d'électrons de recombinaison à trois corps dans la distribution d'électrons libres. Le chauffage se fait donc par l'intermédiaire de la structure atomique. La forte intensité des XFELs permet de faire jusqu'à un trou par atome dans un solide produisant ainsi, sur une échelle femtoseconde, un état exotique fortement hors-équilibre appelé solide creux. Cet état exotique instable se désexcite via un ensemble de processus atomiques élémentaires. Nous nous sommes intéressés dans cette thèse au développement d'outils permettant de calculer la cinétique des populations atomiques, couplée à la cinétique des électrons libres, pendant la transition à densité ionique constante, de solide à plasma dense en passant par l'état de solide creux, induit par le rayonnement XFEL irradiant une cible solide. Tout le défi ici a été de calculer cette cinétique couplée hors-équilibre entre ces états de la matière de nature très différente. Pour répondre a ce défi nous avons développé deux modèles cinétiques d'interaction XFELsolide, pour lesquels la description d'un solide comme un plasma froid dégénéré nous a permis d'utiliser une même approche plasma pendant l'ensemble de la transition du solide au plasma. L'ensemble de la physique atomique HETL d'intérêt ayant lieu à densité du solide, bien avant la détente de la matière, nous avons développé deux codes associés à ces modèles pour une utilisation à densité ionique constante. Pour aborder l'étude nous nous sommes d'abord concentrés sur la cinétique des électrons liés en supposant une distribution d'électrons libres à l'équilibre (ce qui suppose une thermalisation instantanée des électrons libres). Dans le cadre de l'approche de plasma dense étendue jusqu'au solide, nous avons développé un modèle collisionnel-radiatif généralisé. Cette généralisation passe par l'identification d'un lien entre état solide et plasma au niveau des processus atomiques élémentaires. Le code développé à partir de ce modèle nous a permis d'étudier des résultats expérimentaux et ainsi d'améliorer notre description des effets de densités dans les plasmas denses. Dans une seconde partie nous avons ajouté à l'étude la cinétique des électrons libres en considérant une distribution d'électrons libres hors-équilibre. Le code associé, basé sur la discrétisation de cette distribution et son couplage avec les états liés, nous a permis d'étudier le rôle des processus atomiques élémentaires dans la thermalisation de la distribution d'électrons libres. / This work follows the recent development of the free electron lasers in the X-ray and XUV-ray range (XFEL). Unlike optical sources that deposit their energy via the free electrons, the X/XUV photons deposit their energy directly via photoionization of inner shell electrons with the ejection of photo-electrons, followed by the ejection of Auger electrons and three body recombination electrons in the free electron distribution. The matter is thus heated via the atomic structure. The high XFEL intensity allows one to make up to one hole per atom in a solid, thus producing, on a femtosecond time scale, an exotic state, highly out of equilibrium, called hollow cristal. This unstable exotic state deexcite via a set of elementary atomic processes. In this work we were interested in the development of tools to calculate the atomic population kinetics, coupled to the free electron kinetics, during the transition at constant ionic density, from solid to dense plasma, induced by an XFEL irradiating a solid target. The goal here was to calculate this out of equilibrium coupled kinetics between states of matter having a very different nature. To address this problem we have developed two kinetics models of XFEL interaction with solids. In both these models the description of the solid as a cold degenerated plasma allowed us to use the same plasma approach during all the solid-plasma transition. Considering the fact that all the atomic physics takes place at solid density, way before the matter relaxation, we have developed two codes, associated with these two models, for a use at constant ionic density. To approach this study, we first focused on the bound electron kinetics assuming a free electron distribution at equilibrium (i.e. hypothesis of instantaneous thermalization of the free electrons). In the framework of the dense plasma approach extended up to the solid state, we have developed a generalized collisional radiative model. This generalization goes through the identification of a link between the solid state and the plasma state for the elementary atomic processes. The code associated with this model allowed us to study experimental results and to improve our description of the density effects in dense plasmas. In a second part the free electron kinetics is included in the model with a free electron distribution out of thermodynamic equilibrium. The associated code, based on the discretization of this distribution and its coupling with bound atomic states allowed us to study the role of the atomic elementary processes in the free electron distribution thermalization.
25

Gestion intégrée des matières résiduelles aux Îles-de-la-Madeleine : analyse technico-économique préliminaire visant l'implantation d'un système de biométhanisation

Lopez Martelo, Donaldo January 2013 (has links)
La biométhanisation est une biotechnologie qui exploite la capacité des consortiums bactériens anaérobie afin de solubiliser, dégrader et produire une grande quantité de biogaz à partir d’une grande variété de matière organique. Ce biogaz contient une concentration en méthane, laquelle confère un très grand pouvoir calorifique au biogaz pouvant être utilisé dans différents [i.e. différentes] applications (biocarburants, cogénération, trigénération etc.). La biométhanisation en milieu contrôlé assure l’hygiénisation de la matière organique tout en profitant du biogaz produit afin de réduire les émissions de gaz à effet de serre, et d’éviter les émissions d’odeurs nauséabondes pouvant affecter la population entourant le site d’exploitation. En Europe, la méthanisation est répandue, dû aux politiques européennes qui ont introduit certaines réglementations en faveur de la méthanisation comme une technologie valable pour la production de l’énergie électrique à un prix compétitif. Ceci s’avère possible car, en Europe à la différence du Québec, l’électricité s’avère plus coûteuse. Au Québec, il existe différents projets de biométhanisation en cours. Le gouvernement a disposé de 650M$ dollars pour le développement de la méthanisation et du compostage afin de stimuler et chercher des alternatives de gestion des déchets moins nuisibles à l’environnement. Ce mémoire couvre les aspects techno-économiques et énergétiques de la gestion des substrats organiques putrescibles traités par un procédé de digestion anaerobie (biométhanisation) dans le contexte des Iles-de-la-Madeleine (ÎdM) en considérant un système de valorisation énergétique par cogénération (production d’énergie électrique et thermique). Cette étude est élaborée afin de traiter ~7 900 tonnes de matières organiques putrescibles (résidus de la collecte municipale, résidus de l’industrie de transformation de la mer et la boue de fosses septiques) provenant de la municipalité des ÎdM. Pour ce faire, ont été considérés 100%, 50% et 0% de l’apport actuel en matière [i.e. matières] putrescibles de l’industrie des pêches divisées en différents scénarios. Ces scénarios sont comparés d’un point vu [i.e. de vue] technicoéconomique et énergétique à l’aide du logiciel MATTEUS développé par Hydro-Québec afin de suggérer le meilleur procédé intégré de gestion des MR. dans le contexte des ÎdM. La technologie de méthanisation choisie dépendra de la biodégradabilité des déchets, ainsi que la composition et l’homogénéité de ces derniers. La technologie choisie repose sur un procédé de méthanisation à voie humide opéré en continu dans un digesteur infiniment mélangé en condition mésophile. Ce système fonctionne à une siccité du mélange des substrats admise au digesteur inférieure à 15%, ce qui justifie l’approche. À titre indicatif, le scénario traitant 100% d’apports de matières résiduelles (~7 900 tonnes de matières organiques/an) génère une production de méthane d’environ ~176 0 0 0 Nm³/an. Les résultats obtenus à partir des modélisations faites démontrent que le biogaz produit par la biométhanisation de ces déchets pourrait alimenter un groupe électrogène d’une puissance se situant entre 59 et 90 kWe dont le surplus de l’électricité pourrait être vendu. L’estimation de l’investissement nécessaire pour l’implantation d’un procédé de biométhanisation aux ÎdM varie entre 1.3 et 1.9 million de dollars selon le scénario considéré. Selon l’hypothèse d’une subvention du 67% du coût total de l’installation et d’un financement de 33% du coût total, à 4,58% d’intérêt amorti sur une période de quinze ans, le sommaire des dépenses annuelles incluant la main d’oeuvre, la maintenance et le remboursement du capital s’élève entre 124 000 et 144 000 $/an. Le scénario 100% qui gère les trois types d’intrants issus de la municipalité pour faire de la valorisation sous forme de cogénération de chaleur et d’électricité obtient le meilleur résultat économique avec un bilan annuel positif de 103 786 $/an (ce qui correspond à 8,29$/habitant.an). Afin de diminuer le coût de gestion de MR, la municipalité pourrait évaluer la possibilité d’utiliser le biogaz produit plus la matière résultante du compostage par un couplage de technologie (gazéification ou une autre) pour partager les coûts avec leurs partenaires et profiter du biogaz produit. En plus, dans ce projet, l’énergie thermique n’a pas été valorisée, ce qui représente une ressource possédant un potentiel économique éventuel pouvant être utilisé si des entreprises viennent se construire près de la source.
26

La prescription de cannabinoïdes pour le traitement de la douleur chronique non cancéreuse : tendances de prescription, degré de confort, barrières et besoins en matière de formation des médecins de la région de l’Abitibi-Témiscamingue

St-Amant, Huguette January 2014 (has links)
La douleur chronique touche environ un adulte sur cinq et a des impacts importants sur toutes les sphères de la vie des personnes qui en souffrent. À ce jour, on constate cependant que la prise en charge de la douleur chronique est sous-optimale au Canada. Parmi les modalités thérapeutiques disponibles, il a été démontré que les cannabinoïdes sont efficaces et sécuritaires pour certains syndromes de douleur chronique. Ces produits pharmacologiques comprennent la nabilone (comprimé), le nabiximols (vaporisateur) et la marihuana à des fins médicales (cannabis séché). À ce jour, la prévalence d’utilisation de ces produits demeure faible et il semble exister plusieurs barrières à cette utilisation. La présente étude transversale s'est donc penchée sur les pratiques et attitudes des médecins de la région administrative de l’Abitibi-Témiscamingue, Québec, et ce, tout particulièrement dans le contexte du traitement de la douleur chronique non cancéreuse (DCNC). Les objectifs spécifiques de cette étude étaient de : 1) Mesurer la prévalence de prescription de cannabinoïdes pour le traitement de la DCNC, 2) Décrire le degré de confort, les barrières et les besoins en matière de formation quant à la prescription de cannabinoïdes pour le traitement de la DCNC, et 3) Identifier les prédicteurs de la prescription de cannabinoïdes pour le traitement de la DCNC. Pour répondre à ces objectifs, un questionnaire postal a été envoyé aux 318 médecins pratiquant dans la région de l’Abitibi-Témiscamingue (taux de participation = 52 %). La prévalence de prescription de cannabinoïdes (tous types confondus) pour le traitement de la DCNC au cours de la dernière année était de 23 %, mais soulignons que ces produits ont été prescrits à peu de patients. Les données suggèrent qu’un meilleur degré de confort à prescrire des cannabinoïdes pour le traitement de la DCNC est le seul prédicteur de cette prescription. Plusieurs barrières telles que le manque de formation des professionnels de la santé et le manque de lignes directrices pour la prescription de cette classe médicamenteuse ont été exprimées. Les participants ont souligné un besoin de formation continue, notamment à propos des risques de l’utilisation des cannabinoïdes à long terme, de la DCNC et son traitement et de la synergie d’action entre les cannabinoïdes et les opioïdes. En somme, les résultats de cette étude permettront de mieux orienter les activités de formation continue des médecins de la région.
27

SUPERNOVAE THEORY: STUDY OF ELECTRO-WEAK PROCESSES DURING GRAVITATIONAL COLLAPSE OF MASSIVE STARS

Fantina, A. F. 18 October 2010 (has links) (PDF)
La physique des supernovae requiert la connaissance soit des phénomènes complexes hydrodynamiques dans la matière dense (comme le transport d'énergie et des neutrinos, le traitement du choc) soit de la microphysique liée à la physique des noyaux et de la matière nucléaire dans la matière dense et chaude. Dans le cadre de la théorie des supernovae de type II, la plus part des simulations numériques qui simulent l'effondrement du coeur de supernova jusqu'à la formation et la propagation de l'onde du choc n'arrive pas à reproduire l'explosion des couches extérieures des étoiles massives. La raison pour cela pourrait être due soit aux phénomènes hydrodynamiques comme la rotation, la convection, ou bien la relativité générale, soit aux processus microphysiques qui ne sont pas très bien connus dans ce domaine de densités, températures et asymétries. Le but de ce travail de thèse est d'étudier l'effet de certaines processus microphysiques, en particulier les processus électro-faibles, qui jouent un rôle fondamental pendant l'effondrement gravitationnel, et d'analyser leur impact avec une simulation hydrodynamique. Parmi les processus microphysiques qui interviennent lors d'un effondrement de supernova, le plus important processus électro-faible est la capture électronique sur les protons libres et sur les noyaux. La capture est essentielle pour déterminer l'évolution de la fraction leptonique dans le coeur pendant la phase de neutronisation. Elle a un impact sur l'efficacité du rebond et, par conséquent, sur l'énergie de l'onde du choc. De plus, l'équation d'état de la matière et les taux de capture électronique sur les noyaux sont modifiés par la masse effective des nucléons dans les noyaux, due aux correlations à multi-corps dans le milieu dense, et à sa dépendence de la température. Après une introduction générale qui contient une revue de la phénoménologie des supernovae en appuyant sur la nécessité de la connaissance des données nucléaires pour les simulations numériques, dans la première partie de la thèse les aspects nucléaires abordés dans ce travail sont présentés. Le Chapitre 2 est constitué par une courte introduction sur les concepts importantes qui sont développés dans la Partie I et utilisés dans la Partie II de la thèse; en particulier: la théorie du champ moyen, de l'appariement en approximation BCS, la définition de masse effective en connexion avec la densité des niveaux et l'énergie de symétrie. Dans le Chapitre 3, un modèle nucléaire dont le but est d'améliorer la densité d'états autours du niveau de Fermi dans les noyaux est présenté. On a inclu dans l'approche de la fonctionnelle de la densité une masse effective piquée en surface qui simule certains effets au delà de Hartree-Fock. Cela a été possible en ajoutant un terme à la fonctionnelle de Skyrme qui puisse reproduire l'augmentation de la masse effective et de la densité d'états à la surface de Fermi, comme attendu par les données expérimentales. On a étudié l'impact de ce nouveau terme sur les propriétés de champ moyen dans les noyaux 40Ca et 208Pb, et sur les propriétés d'appariement à température nulle et à température finie dans le noyau 120Sn. On a aussi commencé des nouveaux calculs pour évaluer la dépendance en température de la masse effective dans l'approche microphysique de la RPA, dont les résultats préliminaires sont montrés dans l'Appendice D. Cette partie nucléaire est complétée par une appendice (Appendice B), qui donne les détails des paramétrisations de Skyrme utilisées dans le texte, et par l'Appendice C qui analyse la dépendence de la température de la masse effective en connection avec le paramètre de densité des niveaux qui peut être extrait par les expériences de physique nucléaire. La deuxième partie de la thèse est dediée aux modèles de supernova sur lequels j'ai travaillé. On présente les résultats obtenus avec un approche à une zone, et deux modèles monodimensionnels en symétrie sphérique: newtonien et en relativité générale. Bien que un modèle en symétrie sphérique n'est pas capable de saisir tous les aspects complexes du phénomène de supernova, et les observations des vitesses des étoiles à neutrons ou des inhomogéneitées des éjecta requièrent l'inclusion dans les simulations des effets multidimensionnels, un modèle monodimensionnel permet un premier étude détaillé de l'impact des différentes données microphysiques en focalisant l'analyse sur l'incertitude des données de physique nucléaire. Après une introduction générale faite dans le Chapitre 4 qui décrit les principals ingrédients des différentes simulations numériques (comme le traitement du choc et le transport de neutrinos), les codes sur lequels j'ai travaillé sont illustrés en détail. Le Chapitre 5 présente un modèle à une zone, où le coeur de supernova a été approximé par une sphère de densité homogène. Bien que ceci est un modèle simple, il est capable de reproduire de façon qualitative (et quantitative dans ses ordres de grandeur) la "trajectoire" d'effondrement (i.e. l'évolution des grandeurs thérmodynamiques le long de l'effondrement). Dans ce cadre, on a évalué l'impact de la dépendance en température de l'énergie de symétrie (via la dépendance en température de la masse effective) dans la dymanique du collapse, et on a montré que, en incluant cette dépendance en température, la deleptonisation dans le coeur est systématiquement réduite et l'effet sur l'énergie du choc est non-négligeable. Ces résultats nous ont conduit à effectuer des simulations plus réalistes, en employant un code monodimensionnel newtonien en symétrie sphérique, avec transport des neutrinos. La description de ce code, développé par P. Blottiau et Ph. Mellor au CEA,DAM,DIF, est l'object du Chapitre 6. On a inclu dans l'équation d'état dérivée par Bethe et al.(BBAL), aussi utilisée dans le code à une zone, la même paramétrisation de la masse effective, qui agit à la fois sur les Q-valeurs des taux de capture et sur l'équation d'état du système. Les résultats de ces simulations ont confirmés ceux qui avaient été obtenus avec le code one-zone, c'est à dire la reduction systématique de la deleptonisation dans le coeur si on inclue la dépendance en température de l'énergie de symétrie. De plus, on en a estimé l'impact sur la position de la formation de l'onde du choc, qui est déplacée vers l'extérieur d'une quantité non-négligeable. On a aussi travaillé pour inclure dans le code l'équation d'état plus récente de Lattimer et Swesty. Enfin, le Chapitre 7 décrit un code, à l'origine développé par le groupe de Valence, écrit en rélativité générale et qui utilise un approche moderne pour le traitment du choc (la "capture du choc"). Bien que ce modèle ne contient pas le transport des neutrinos, l'équation de l'évolution de la fraction neutrinique est déjà écrite avec un schema multi-groupe qui permet une première analyse spectrale des neutrinos. On étudie l'effet de l'équation d'état dans la dynamique d'effondrement ainsi que l'impact de la capture électronique. Une versione newtonienne a été aussi implémentée et les résultats obtenus sont en accord avec la littérature. Cette partie est complétée par plusieurs appendices. Dans l'Appendice A, les différentes unités de mesure employées dans les codes sont listées. Les Appendices E et F sont dédiées à deux équations d'état: la prémière est celle d'un gas de neutrons, protons et électrons; la deuxième décrit l'équations d'état de Lattimer et Swesty et les modifications qu'on a apportés pour corriger une erreur dans la définition de l'énergie de liaison des particules alpha et pour étendre l'équation d'état à des densités plus basses. Enfin, l'Appendice G détaille les processus des neutrinos implémentés dans les simulations. Le développement des codes numériques pour simuler l'effondrement gravitationnel de supernova effectué dans ce travail de thèse est apte pour tester les propriétés de la matière et peux constituer un outil pour des projets de recherche futurs.
28

Matter asymmetry and gauge unification

Cosme, Nicolas 28 September 2004 (has links)
Pourquoi reste-t-il de la matière dans l’univers ? Depuis la découverte de l’anti-matière, miroir de la matière dont nous sommes constitués et s’annihilant de prime abord parfaitement avec cette dernière, ce mystère stimule l’étude des propriétés communes et distinctes entre particules et anti-particules. Dans ce cadre, il a été établi au vu des interactions dites de jauge (en particulier les interactions électrofaibles) que la symétrie intrinsèque entre particules et anti-particules est la combinaison subtile du conjugué de charge (C) et de la parité d’espace (P) : la symétrie CP. Ainsi, un comportement distinct entre matière et anti-matière est caractérisé au niveau fondamental par une violation de CP. D’une part, une telle violation a été mise en évidence expérimentalement dans la désintégration de mesons K et B, où la production de particules dans certains canaux est favorisée. D’autre part, la violation de CP est l’une des conditions requises à la création d’un excès de matière durant l’évolution de l’univers. Dans la présente thèse, nous étudions deux aspects de cette asymétrie entre matière et anti-matière. Tout d’abord, un scénario de création d’un excès de matière dans l’évolution de l’univers basé sur la désintégration de neutrinos lourds est étudié. Les récents résultats expérimentaux sur l’existence d’une masse pour les neutrinos rendent très attractif ce scénario. Bien que le schéma général repose uniquement sur les interactions liées à la masse des particules (secteur scalaire), nous le prolongeons ici dans la perspective plus naturelle de l’unification des interactions de jauge, seule motivation complète à l’inclusion de neutrinos lourds dans le spectre des particules. L’inclusion d’interactions de jauge liées aux neutrinos lourds complète ainsi la description. Les résultats tirés sur les paramètres de masse des neutrinos, grandes inconnues de la physique des particules, s’en voient modifiés de manière importante. Ensuite, la question de l’origine de la violation de CP est posée. En effet, dans la description standard des interactions faibles, la violation de CP est explicite et résulte uniquement de la liberté pour les couplages de masse (couplages de Yukawa) d’être des nombres complexes. Ainsi, aucune compréhension fondamentale sur la différence de comportement entre particules et anti-particules n’est apportée. Nous proposons dans ce sens une source de violation de CP par la compactification d’une théorie de jauge dans un espace de dimensions étendues. A partir de couplages réels, une valeur classique de la composante supplémentaire des bosons de jauge fournit une masse effective complexe aux fermions. Les conditions de l’obtention d’une violation de CP physique sont alors étudiées. Nous identifions la structure minimale pour rendre compte des interactions électrofaibles tout en incluant une source de violation de CP dans ce contexte. L’unification avec les interactions fortes est alors établie dans une structure qui apporte une lumière différente sur les schémas d’unification usuels.
29

Fonctions de réponse des semi-conducteurs et des isolants : de l'équation de Bethe-Salpeter à la théorie de la fonctionnelle de la densité dépendante du temps

Sottile, Francesco 29 September 2003 (has links) (PDF)
Non disponible
30

Influence des fractions hydrophobique et hydrophilique de la matière organique dissoute sur la sorption de Cd, Cu et Pb dans l'horizon B de Podzol

Lafrenière, François January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.0366 seconds