• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 15
  • 12
  • Tagged with
  • 75
  • 62
  • 27
  • 21
  • 21
  • 19
  • 16
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Réalisation d'un spectromètre de masse opérant dans le faisceau externe d'un accélérateur. Application à l'étude d'isotopes à très courtes périodes produits par fission de l'uranium

Amarel, Itzhak 26 October 1967 (has links) (PDF)
La réalisation et l'utilisation d'un spectromètre de masse opérant directement dans le faisceau externe d'un accélérateur de protons s'est avéré être un moyen d'étude très fécond de nuclides à vie courte dans les deux domaines abordés : mesure des sections efficaces de production et spectroscopie nucléaire. Les résultats obtenus au cours de ce travail ne constituent qu'une première étape et pourront être développés dans les différentes directions dont l'étude a été abordée et une extension à des éléments autres que les alcalins peut être envisagée.
42

Étude de la structure des noyaux riches en neutrons autour de la fermeture de couches N=28 par spectroscopie gamma en ligne.

Bastin, B. 05 October 2007 (has links) (PDF)
Depuis quelques années, une perte du caractère magique des noyaux riches en neutrons à l'abord de la drip-line a été suggérée et observée pour N=28 neutrons. On note la présence de déformation pour ces noyaux, notamment dans le noyau de $^{44}$S, qui peut s'expliquer par une réduction modérée du gap N=28 et la quasi-dégénérescence des orbitales protons d$_{3/2}$ et s$_{1/2}$. Il demeure cependant difficile de distinguer la contribution relative des excitations neutron et proton dans la déformation. Dans le cas des isotopes du silicium, on s'attend à une stabilité de la configuration proton liée au gap en énergie de la sous-couche Z=14. C'est ainsi que le $^{42}$Si peut être considéré comme un noyau clé pour pouvoir distinguer les différents effets responsables des changements structurels observés à N=28. Pour mener à bien l'étude de ce noyau, le facteur limitant étant le taux de production accessible extrêmement faible, une expérience de spectroscopie en ligne avec double fragmentation du faisceau faisant intervenir des processus d'arrachage - dits de "knockout" - de plusieurs nucléons fut réalisée au GANIL. La mesure de l'énergie du premier état excité du $^{42}$Si, combinée à celles des noyaux de $^{38,40}$Si et la spectroscopie de noyaux $^{41,43}$P, a permis de confirmer la perte de magicité pour N=28 loin de la stabilité. Une modification de l'interaction effective utilisée dans le cadre des calculs de type modèle en couches modernes a pu être apportée, accentuant ainsi son caractère prédictif. Cette étude confirme le rôle de la force tenseur et de la dépendance en densité de l'interaction spin-orbite dans l'affaiblissement de la fermeture de couches N=28.
43

Fragmentation de la molécule C60 par impact d'ions légers étudiée en multicorrélation.Sections efficaces, spectroscopie d'électrons

Rentenier, Arnaud 23 April 2004 (has links) (PDF)
Cette thèse présente une étude quantitative des modes de fragmentation du fullerène C60 en collision avec des ions légers (Hn=1,2,3+ , Heq=1,2+) dans le domaine de vitesse 0,1 - 2,3 u.a.. La technique de multicorrélation (ions, électrons, énergie des électrons) employée a permis de dégager certaines dépendances et propriétés des mécanismes de fragmentation (sections efficaces, spectroscopie d'électrons, distributions de taille, énergies cinétiques des fragments, tracé de Campi, énergies d'activation). L'énergie déposée s'est ainsi révélée comme un paramètre important. Les sections efficaces ont été mesurées pour la première fois sur l'ensemble des processus collisionnels. L'ionisation et la capture ne dépendent que de la vitesse de collision. Une loi d'échelle avec l'énergie déposée a été observée pour les sections efficaces de multifragmentation. L'énergie déposée est aussi apparue comme le paramètre principal dans l'évolution des distributions de taille des fragments chargés émis. La spectroscopie des électrons (inédite sur un agrégat), réalisée à un angle d'émission de 35°, a montré des spectres piqués à des énergies d'électron importantes (de 5 à 20 eV). La forme de ces spectres dépend de la vitesse de collision. Un début d'analyse théorique semble montrer que cette structure particulière est liée à la présence d'une barrière de potentiel centrifuge. Enfin, les corrélations ions produits et énergie des électrons mettent en évidence que l'énergie des électrons augmente avec l'énergie interne.
44

Mesure de la production W+W− dans les collisions proton-proton à $\sqrt{s} = 7 TeV avec le détecteur ATLAS au LHC

Li, Shu 02 November 2012 (has links) (PDF)
Le détecteur ATLAS, auprès du Grand collisionneur de hadrons (LHC), est un détecteur polyvalent destiné à la découverte de nouvelle physique et de phénomènes nouveaux, tout en fournissant également une bonne occasion de comprendre le comportement à haute 'énergie du Modèle Standard (MS), cadre théorique bien établi qui d'écrit les particules élémentaires et leurs interactions sauf la gravité. Le LHC est le plus grand accélérateur de particule au monde conçu pour fournir des collisions frontales proton-proton 'a l'énergie encore jamais obtenue de 14 TeV dans le centre de masse pour une luminosité crée de 1034 cm−2s−1. Le LHC fonctionne aussi en mode ion lourd avec des collisions de noyaux de plomb d'une énergie de 574 TeV (92.0 J) par nucléon (2.76 TeV par paire de nucléon) et une luminosité de 1027 cm−2s−1. Le LHC et ATLAS fonctionnent superbement bien depuis 2008. En 2011, l'expérience ATLAS a recueillie 4.7 fb−1 de données de collision pp 'a 7 TeV et prévois d'enregistrer encore 25 fb−1 de donn'ees 'a 8 TeV d'ici la fin de l'année 2012. Cette thèse présente le mesure des sections efficaces de production W+W− MS et la détermination des couplages triples (TGCs) correspondants en utilisant ces 4.7 fb−1 de données 2011 de collision pp. Ces mesures permettent un test contraignant du secteur électrofaible non abélien SU(2) × U(1) du Modèle Standard; donnent l'opportunité de sonder la nouvelle physique 'a travers les couplages triples anormaux de bosons de jauge (aTGCs) qui seront observés dans la distribution des variables cinématiques des W+W− produits ou de leurs produits de d'désintégration finaux dans le secteur de haute énergie; et permettent d'avoir une bonne compréhension du bruit de fond irréductible dans la recherche du boson de Higgs dans le canal de d'désintégration H ! W+W−. Ces mesures de la production W+W− sont basées sur l'analyse des canaux de désintégration purement leptoniques avec les états finals e e , e μ and μ μ . Les principaux bruits de fond au signal W+W− sont Z+jets, W+jets, top et les autres productions dibosoniques que sont, WZ, ZZ et W/Z+ . Les bruits de fond Z+jets, W+jets et top sont estimés en utilisant des techniques dédiées et orientées données tandis que les bruits des autres canaux di-bosoniques sont estimés à partir de simulation Montevi Carlo. Un total de 1325 candidats sont sélectionnés avec un bruit de fond total estimé à 368.5 ± 60.9. La section efficace correspondante mesurée est 51.9 ±2.0 (stat) ±3.9 (syst) ±0.9 (lumi) pb. Ce résultat est compatible avec la prédiction Next-to-Leading Order (NLO) du Modèle Standard de 44.7+2.1 −1.9 pb et surpasse la précision des résultats des expériences auprès de l'accélérateur Tevatron. Les sections efficaces fiducies de chaque canal sont également mesurées et une première distribution différentielle en impulsion transverse du lepton dominant est extraite. Finalement, les TGCs des vertex WWZ etWW sont explorés en comparant le spectre en impulsion transverse observé dans le signal W+W− pour le lepton dominant aux prédictions théoriques incluant les couplages triples anormaux. Pour une coupure = 6 TeV, une limite de confiance à 95% est donnée sur kZ et Z dans les intervalles [−0.061, 0.093] et [−0.062, 0.065], respectivement (Equal Coupling Scenario). Ces limites sont plus strictes que celles données par les expériences auprès de l'accélérateur Tevatron et compétitives avec celles données par les expériences auprès de l'accélérateur LEP. Ce travail de thèse donne un base solide pour les mesures à venir de la production W+W− avec les 25 fb−1 de luminosité intégrée de données 'a 8 TeV prévue pour la fin 2012, qui conduiront vers une amélioration de la pr'ecision et des limites plus strictes sur les aTGCs.
45

Spectroscopie ultraviolet-visible et infrarouge de molécules clés atmosphériques

Gratien, Aline 06 November 2008 (has links) (PDF)
Les mesures des constituants mineurs de l'atmosphère sont souvent réalisées à partir du sol, d'avions, de ballons ou encore par les satellites. Celles-ci sont effectuées régulièrement par des spectromètres fonctionnant dans des régions spectrales différentes, en particulier dans les domaines UV-visible et infrarouge. Or, l'analyse et l'interprétation des spectres atmosphériques requièrent une bonne connaissance des paramètres spectroscopiques. Cependant, les mesures de ces paramètres sont généralement effectuées dans un domaine spectral donné (IR ou UV) et peu d'études de laboratoire ont vérifié la cohérence entre les sections efficaces UV et IR. Il est alors difficile de comparer des profils atmosphériques déduits de mesures effectuées dans différents domaines. Le but de cette étude est donc d'intercalibrer les spectres UV et IR de composés atmosphériques en déterminant et/ou e vérifiant la cohérence des sections efficaces publiées dans la littérature. Ces expériences ont été effectuées dans la chambre de simulation du LISA, en acquérant simultanément des spectres UV et IR à température ambiante et à pression atmosphérique au sein d'une cellule optique commune. Ce travail a porté sur trois molécules clés atmosphériques : le formaldéhyde (et ses isotopes), l'ozone et l'acide nitreux. Ces composés jouent un rôle fondamental dans la physico-chimie atmosphérique puisqu'ils constituent les sources du principal oxydant de l'atmosphère : le radical hydroxyle. Ce travail de laboratoire a permis ainsi d'obtenir des spectres précis et cohérents de l'ozone, du formaldéhyde et de l'acide nitreux dans le moyen infrarouge et l'UV-visible afin d'améliorer la précision de leurs mesures.
46

Etude des processus bi-électroniques induits par impact d'ions sur des cibles atomiques / Study of the bi-electronic processes induced by impact of ions on atomic targets

Ibaaz, Aicha 28 September 2017 (has links)
La compréhension des processus électroniques engendrés au cours des collisions atomiques ou moléculaires est essentielle au niveau fondamental mais aussi en raison des besoins d’informations quantitatives sur ces processus de plusieurs domaines d’application, notamment la physique médicale et la physique des plasmas. Notre objectif est de fournir une meilleure description de ces processus. Dans le cadre de la thèse, nous avons modélisé les processus électroniques ayant lieu au cours des collisions entre des ions nus et l’atome d’hélium, Aq+-He (2≤q≤10). Cette étude est effectuée dans la gamme des énergies intermédiaires (0.25-625 keV/u) en adoptant le modèle semi-classique non perturbatif de close coupling. Un intérêt particulier est porté sur l’étude des processus de simple et de double capture vu leur grande importance dans cette gamme des vitesses. Plus précisément, nous avons analysé la double capture en détail, en séparant celle peuplant les états liés à celle qui concerne les états auto-ionisants. Cette dernière est particulièrement complexe à modéliser car elle nécessite une bonne description des états doublement excités (au-delà des deux premiers seuils d’ionisation dans notre cas), difficile à implémenter dans une approche dépendante du temps non perturbative comme la nôtre. En analysant les sections efficaces de ces deux processus pour l’ensemble des systèmes étudiés, et en les comparant systématiquement aux données expérimentales et théoriques existantes, nous avons pu extraire un comportement général reliant les processus électroniques les plus favorables à la charge et à la vitesse du projectile considérée. / The understanding of the electronic processes occurring during atomic and molecular collisions concerns the fundamental level but also the needs for quantitative information on these processes, requested by several fields of application, in particular medical physics and plasma physics. Our goal is to provide a better description of these processes. In the framework of the thesis, we have modelled the electronic processes taking place during the collisions between bare ions and the helium atom, Aq +-He (2≤q≤10). This study is carried out in the range of intermediate energies (0.25-625 keV/u), adopting the semi-classical non-perturbative close coupling approach. A particular interest is paid to the single and double capture processes because of their great importance in this energy range. More precisely, we have analysed the double capture processes, splitting the contributions of double capture to bound states and to auto-ionizing states. This latter is particularly complex to describe since it requires a good description of doubly-excited states (beyond the two first thresholds in our study), difficult to implement in time-dependent coupled-channel approaches as ours. By analysing the cross sections of these two processes for all the systems studied and comparing them to available experimental and theoretical data, we were able to extract a general behaviour linking the most favourable electronic processes to the projectile charge and velocity.
47

Étude et amélioration du suivi tridimensionnel des flux d’air dans une pièce de bâtiment / Study and enhancement of the 3d tracking of airflow in buildings

Rezig, Sawsen 13 July 2017 (has links)
Les travaux réalisés dans le cadre de cette thèse visent à décrire une approche Lagrangienne de caractérisation de flux d’air par suivi de particules, nous avons implémenté un système de caméras synchronisées pour l’acquisition des images de bulles de savon remplies à l’hélium. L’approche développée pour le calcul des trajectoires des particules est basée sur une méthode multi-échelle de détection de points intérêt et de reconstruction 3D. Le système permet ainsi de réaliser un suivi tridimensionnel et fournir une description des flux d’air présents dans une pièce à grande échelle. / In this thesis, we describe an approach for Lagrangian characterizing of airflows using particle tracking velocimetry, a camera system was implemented here and Helium filled bubbles images were acquired in a synchronized way. We developed a new system for particle trajectories calculation based on a multi-scale image processing technique and well-known 3D reconstruction methods. Our system allows tracking particles in 3D space and providing yet a global description of airflows in large-scale environment.The application is supposed to improve the optimization of ventilation in building rooms in order to reduce energy consumption by optimal positioning and shaping of air diffusers. A major constraint here is to preserve human comfort
48

Étude des relations entre les formes de documents, les stratégies de lecture et la compréhension chez des élèves de 3e secondaire

Carignan, Isabelle January 2007 (has links)
No description available.
49

Étude formelle d'algorithmes efficaces en algèbre linéaire / Formal study of efficient algorithms in linear algebra

Dénès, Maxime 20 November 2013 (has links)
Les méthodes formelles ont atteint un degré de maturité conduisant à la conception de systèmes de preuves généralistes, permettant à la fois de vérifier la correction de systèmes logiciels complexes ou de formaliser des mathématiques avancées. Mais souvent, l'accent est mis davantage sur la facilité du raisonnement sur les programmes plutôt que sur leur exécution efficace. L'antagonisme entre ces deux aspects est particulièrement sensible pour les algorithmes de calcul formel, dont la correction repose habituellement sur des concepts mathématiques élaborés, mais dont l'efficacité pratique est une préoccupation importante. Cette thèse développe des approches à l'étude formelle et l'exécution efficace de programmes en théorie des types, et plus précisément dans l'assistant à la preuve \coq{}. Dans un premier temps, nous présentons un environnement d'exécution permettant de compiler en code natif de tels programmes tout en conservant la généralité et l'expressivité du formalisme. Puis, nous nous intéressons aux représentations de données et plus particulièrement au lien formellement vérifié et automatisé entre représentations adaptées aux preuves ou au calcul. Ensuite, nous mettons à profit ces techniques pour l'étude d'algorithmes en algèbre linéaire, comme le produit matriciel de Strassen, le procédé d'élimination de Gauss ou la mise en forme canonique de matrices, dont notamment la forme de Smith pour les matrices sur un anneau euclidien. Enfin, nous ouvrons le champ des applications à la formalisation et au calcul certifié des groupes d'homologie de complexes simpliciaux issus d'images numériques. / Formal methods have reached a degree of maturity leading to the design of general-purpose proof systems, enabling both to verify the correctness of complex software systems and to formalize advanced mathematics. However, the ease of reasoning on programs is often emphasized more than their efficient execution. The antagonism between these two aspects is particularly significant for computer algebra algorithms, whose correctness usually relies on elaborate mathematical concepts, but whose practical efficiency is an important matter of concern. This thesis develops approaches to the formal study and the efficient execution of programs in type theory, and more precisely in the proof assistant \coq{}. In a first part, we introduce a runtime environment enabling the native code compilation of such programs while retaining the generality and expressiveness of the formalism. Then, we focus on data representations and in particular on the formally verified and automatized link between proof-oriented and computation-oriented representations. Then, we take advantage of these techniques to study linear algebra algorithms, like Strassen's matrix product, Gaussian elimination or matrix canonical forms, including the Smith normal form for matrices over a Euclidean ring. Finally, we open the field of applications to the formalization and certified computation of homology groups of simplicial complexes arising from digital images.
50

Amélioration du modèle de sections efficaces dans le code de cœur COCAGNE de la chaîne de calculs d'EDF / Improvement of cross section model in COCAGNE code of the calculation chain of EDF

Luu, Thi Hieu 17 February 2017 (has links)
Afin d'exploiter au mieux son parc nucléaire, la R&D d'EDF est en train de développer une nouvelle chaîne de calcul pour simuler le cœur des réacteurs nucléaires avec des outils à l'état de l'art. Ces calculs nécessitent une grande quantité de données physiques, en particulier les sections efficaces. Dans la simulation d'un cœur complet, le nombre de valeurs des sections efficaces est de l'ordre de plusieurs milliards. Ces sections efficaces peuvent être représentées comme des fonctions multivariées dépendant de plusieurs paramètres physiques. La détermination des sections efficaces étant un calcul complexe et long, nous pouvons donc les précalculer en certaines valeurs des paramètres (caluls hors ligne) puis les évaluer en tous points par une interpolation (calculs en ligne). Ce processus demande un modèle de reconstruction des sections efficaces entre les deux étapes. Pour réaliser une simulation plus fidèle du cœur dans la nouvelle chaîne d'EDF, les sections efficaces nécessitent d'être mieux représentées en prenant en compte de nouveaux paramètres. Par ailleurs, la nouvelle chaîne se doit d'être en mesure de calculer le réacteur dans des situations plus larges qu'actuellement. Le modèle d'interpolation multilinéaire pour reconstruire les sections efficaces est celui actuellement utilisé pour répondre à ces objectifs. Néanmoins, avec ce modèle, le nombre de points de discrétisation augmente exponentiellement en fonction du nombre de paramètres ou de manière considérable quand on ajoute des points sur un des axes. Par conséquence, le nombre et le temps des calculs hors ligne ainsi que la taille du stockage des données deviennent problématique. L'objectif de cette thèse est donc de trouver un nouveau modèle pour répondre aux demandes suivantes : (i)-(hors ligne) réduire le nombre de précalculs, (ii)-(hors ligne) réduire le stockage de données pour la reconstruction et (iii)-(en ligne) tout en conservant (ou améliorant) la précision obtenue par l'interpolation multilinéaire. D'un point de vue mathématique, ce problème consiste à approcher des fonctions multivariées à partir de leurs valeurs précalculées. Nous nous sommes basés sur le format de Tucker - une approximation de tenseurs de faible rang afin de proposer un nouveau modèle appelé la décomposition de Tucker . Avec ce modèle, une fonction multivariée est approchée par une combinaison linéaire de produits tensoriels de fonctions d'une variable. Ces fonctions d'une variable sont construites grâce à une technique dite de décomposition en valeurs singulières d'ordre supérieur (une « matricization » combinée à une extension de la décomposition de Karhunen-Loève). L'algorithme dit glouton est utilisé pour constituer les points liés à la résolution des coefficients dans la combinaison de la décomposition de Tucker. Les résultats obtenus montrent que notre modèle satisfait les critères exigés sur la réduction de données ainsi que sur la précision. Avec ce modèle, nous pouvons aussi éliminer a posteriori et à priori les coefficients dans la décomposition de Tucker. Cela nous permet de réduire encore le stockage de données dans les étapes hors ligne sans réduire significativement la précision. / In order to optimize the operation of its nuclear power plants, the EDF's R&D department iscurrently developing a new calculation chain to simulate the nuclear reactors core with state of the art tools. These calculations require a large amount of physical data, especially the cross-sections. In the full core simulation, the number of cross-section values is of the order of several billions. These cross-sections can be represented as multivariate functions depending on several physical parameters. The determination of cross-sections is a long and complex calculation, we can therefore pre-compute them in some values of parameters (online calculations), then evaluate them at all desired points by an interpolation (online calculations). This process requires a model of cross-section reconstruction between the two steps. In order to perform a more faithful core simulation in the new EDF's chain, the cross-sections need to be better represented by taking into account new parameters. Moreover, the new chain must be able to calculate the reactor in more extensive situations than the current one. The multilinear interpolation is currently used to reconstruct cross-sections and to meet these goals. However, with this model, the number of points in its discretization increases exponentially as a function of the number of parameters, or significantly when adding points to one of the axes. Consequently, the number and time of online calculations as well as the storage size for this data become problematic. The goal of this thesis is therefore to find a new model in order to respond to the following requirements: (i)-(online) reduce the number of pre-calculations, (ii)-(online) reduce stored data size for the reconstruction and (iii)-(online) maintain (or improve) the accuracy obtained by multilinear interpolation. From a mathematical point of view, this problem involves approaching multivariate functions from their pre-calculated values. We based our research on the Tucker format - a low-rank tensor approximation in order to propose a new model called the Tucker decomposition . With this model, a multivariate function is approximated by a linear combination of tensor products of one-variate functions. These one-variate functions are constructed by a technique called higher-order singular values decomposition (a « matricization » combined with an extension of the Karhunen-Loeve decomposition). The so-called greedy algorithm is used to constitute the points related to the resolution of the coefficients in the combination of the Tucker decomposition. The results obtained show that our model satisfies the criteria required for the reduction of the data as well as the accuracy. With this model, we can eliminate a posteriori and a priori the coefficients in the Tucker decomposition in order to further reduce the data storage in online steps but without reducing significantly the accuracy.

Page generated in 0.0388 seconds