• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 127
  • 57
  • 18
  • Tagged with
  • 202
  • 131
  • 68
  • 62
  • 36
  • 31
  • 31
  • 30
  • 29
  • 26
  • 25
  • 25
  • 24
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Études de l'absorption à deux photons dans des matériaux organiques à l'aide de la technique dite de la lentille thermique

Taouri, Abdelillah 21 December 2009 (has links) (PDF)
Ce travail concerne la mise en oeuvre de la technique de la « lentille thermique » pour l'étude des phénomènes d'absorptions multiphotoniques dans les matériaux organiques. La technique de la lentille thermique utilisée ici, est dans son principe une technique pompe-sonde où le faisceau pompe provient d'un laser pulsé (25ps, 532nm ou 1064nm) tandis que le faisceau sonde est issu d'un laser continu (He-Ne : 632nm). Cette technique s'apparente aussi à la technique de z-scan dans la mesure où l'échantillon est déplacé de part et d'autre du point focal d'une lentille convergente disposée sur le trajet du faisceau pompe. Selon le rapport des diamètres des faisceaux pompe et sonde, on distingue deux variantes principales de la technique de la lentille thermique en régime pulsé : la variante dite en « modes accordés » (les diamètres des deux faisceaux sont identiques) et la variante en « modes désaccordés » (les diamètres des deux faisceaux sont différents). Pour des raisons de simplicité de mise en oeuvre et de sensibilité, nous avons choisi la variante en modes désaccordés. Cette variante de la technique de la lentille thermique, ayant été peu utilisée jusque là, a été utilisée pour mesurer le coefficient et la section efficace de l'absorption à deux photons dans différents matériaux organiques. Ces résultats sont comparés à d'autres mesures provenant de technique de mesure plus connue comme « transmission non linéaire » ou la technique de z-scan.
32

Ionisation et dissociation des ions moléculaires par impact d'électrons

Cherkani-Hassani, Hind 10 December 2004 (has links)
La demande énergétique mondiale toujours en croissance, combinée aux préoccupations environnementales, constitue le moteur qui anime la recherche de nouvelles énergies. La fusion thermonucléaire est une des technologies qui offrent la possibilité d'une production d'énergie abondante, sûre et non polluante ; cependant son apprivoisement n'est pas encore au point ! La présence d'impuretés dans les plasmas est un des obstacles majeurs à vaincre pour atteindre les conditions nécessaires pour que la fusion thermonucléaire devienne suffisamment efficace. Leur densité dans le plasma dépend des matériaux de revêtement des parois et du contrôle des conditions aux limites, conditions qui définissent leur processus de génération et leur diffusion dans la région centrale. Les pertes énergétiques ont été considérablement réduites par l'utilisation de revêtements à basse charge nucléaire (Z), principalement ceux à base de carbone (comme le graphite). Ainsi, les chercheurs se sont intéressés aux effets des impuretés hydrocarbonées se dégageant des parois des réacteurs, à savoir leur structure et les voies de leur fragmentation, en particulier, les caractéristiques de leurs processus collisionnels avec les autres constituants du plasma. L'ion moléculaire est un composant essentiel de nombreux plasmas astrophysiques où l'ionisation et la dissociation se font principalement avec des électrons ; sa concentration est élevée dans l'ionosphère, région de l'atmosphère située à une altitude comprise entre 90 et 250 Km. Le rôle important joué par cet ion dans la modélisation ionosphérique nous a mené à réaliser une série de mesures des sections efficaces de ses différents processus collisionnels par impact d'électrons. La majorité des travaux expérimentaux antérieurs ne concernait que la molécule neutre . Ce travail de thèse a porté sur l'étude expérimentale de l'ionisation simple, de l'excitation dissociative et de l'ionisation dissociative par impact d'électrons des ions hydrocarbonés polyatomiques et et de l'ion diatomique . Nous avons utilisé la technique des faisceaux croisés et animés pour mesurer les sections efficaces absolues de ces processus. Nous avons d'abord mesuré les distributions d'énergie cinétique des produits de ces processus dans le référentiel du laboratoire, en fonction du champ magnétique d'analyse, pour différentes valeurs d'énergie d'électrons. Ensuite, nous avons mesuré les sections efficaces apparentes pour les mêmes processus en fonction de l'énergie des électrons. Concernant les processus dissociatifs, la mesure des distributions d'énergie cinétique des fragments dans le référentiel du laboratoire a montré que ces fragments sont, généralement, distribués dans des gammes angulaires et énergétiques larges et que leurs divergences angulaires, dans la plupart des cas, excèdent l'ouverture de la fente d'analyse et en conséquence, leur transmission n'est que partielle. Nous avons alors calculé leurs coefficients de transmission en fonction de l'énergie des électrons, et nous avons corrigé les sections efficaces apparentes, pour chacun des processus dissociatifs. Nous avons ainsi pu obtenir les sections efficaces absolues de plusieurs voies dissociatives. Nous avons identifié leur seuil d'apparition en tenant compte des structures de l'ion moléculaire primaire et des ions produits. Nous avons déterminé aussi les distributions d'énergie cinétique des fragments produits dans le référentiel du centre de masse à partir des distributions énergétiques observées dans le référentiel du laboratoire, nous avons ainsi pu estimer l'énergie maximale libérée lors de chacun des processus dissociatifs. Les résultats ont montré que la section efficace de l'ionisation simple est faible en comparaison avec les sections efficaces d'excitation et d'ionisation dissociative. Celle-ci dépend du nombre, généralement réduit, des états liés stables de l'ion doublement chargé. Ils ont montré aussi que les courbes des sections efficaces des processus d'excitation dissociative et d'ionisation ont une allure très différente. Dans le premier cas, elle augmente abruptement au voisinage du seuil alors que dans le second cas, elle augmente progressivement avec l'énergie des électrons. Pour les processus de dissociation, nous avons besoin d'une analyse angulaire et d'une détection en coïncidence des fragments produits, permettant ainsi de déterminer la nature exacte du mécanisme et d'identifier avec plus de précision l'état ou les états moléculaires impliqués dans chacune des réactions. Les résultats obtenus sont concluants et ont permis d'améliorer l'étude théorique semi-classique menée par Probst et Märk (2004) concernant l'ionisation de . Ils ont montré aussi que les prédictions empiriques de Janev et Reiter (2002) relatives aux familles d'hydrocarbures ne sont pas encore au point. Elles sont en désaccord avec nos résultats, montrant ainsi qu'il y a grand besoin d'autres études expérimentales des processus collisionnels des hydrocarbures et d'autres ions moléculaires avant de pouvoir formuler une quelconque loi d'échelle ou une théorie capable de prédire le comportement de tels ions moléculaires.
33

Production de radioisotopes : de la mesure de la section efficace à la production

Garrido, Eric 10 November 2011 (has links) (PDF)
De nouveaux radio-isotopes pour la médecine nucléaire peuvent être produits par des accélérateurs de particules. C'est l'un des buts d'Arronax, un cyclotron de hautes énergies - 70 MeV - et hautes intensités - 2*350 µA - installé à Nantes. Une liste d'émetteurs b- - 47Sc, 67Cu - b+ - 44Sc, 64Cu, 82Sr/82Rb, 68Ge/68Ga - et a - 211At - à étudier en priorité a été établie. Parmi ceux là, le 47Sc et le 67Cu présentent un intérêt en thérapie ciblée. L'optimisation de leurs productions nécessite la bonne connaissance de leurs sections efficaces, mais aussi de celles de tous les contaminants créés. Nous avons lancé sur Arronax un programme de mesures de sections efficaces utilisant la technique des Stacked-foils. Elle consiste en l'irradiation simultanée d'un groupe de feuilles - cibles, moniteurs et dégradeurs - et la mesure par spectro-gamma de la production d'isotopes. Les moniteurs permettent un contrôle des pertes de faisceau tandis que les dégradeurs en diminuent l'énergie. Nous avons étudié les réactions natTi(p,X)47Sc et 68Zn(p,2p)67Cu. Les cibles étant respectivement des feuilles de natTi - achetées chez Goodfellow - ou des électrodépositions sur Ag de 68Zn enrichi. Nous les réalisons nous même ainsi que la séparation chimique des isotopes de Cuivre et de Gallium indispensable avant de procéder au comptage gamma. Les sections efficaces de plus de 40 réactions ont ainsi été obtenues sur l'intervalle de 18 MeV à 70 MeV. Une comparaison avec le code Talys est systématiquement faite, et plusieurs paramètres des modèles théoriques étudiés. Nous montrons qu'il est impossible de reproduire avec exactitude toutes les sections efficaces à partir d'un seul jeu de ces paramètres.
34

Problèmes Statistiques pour les EDS et les EDS Rétrogrades

Zhou, Li 28 March 2013 (has links) (PDF)
Nous considérons deux problèmes. Le premier est la construction des tests d'ajustement (goodness-of-fit) pour les modèles de processus de diffusion ergodique. Nous considérons d'abord le cas où le processus sous l'hypothèse nulle appartient à une famille paramétrique. Nous étudions les tests de type Cramer-von Mises et Kolmogorov- Smirnov. Le paramètre inconnu est estimé par l'estimateur de maximum de vraisemblance ou l'estimateur de distance minimale. Nous construisons alors les tests basés sur l'estimateur du temps local de la densité invariante, et sur la fonction de répartition empirique. Nous montrons alors que les statistiques de ces deux types de test convergent tous vers des limites qui ne dépendent pas du paramètre inconnu. Par conséquent, ces tests sont appelés asymptotically parameter free. Ensuite, nous considérons l'hypothèse simple. Nous étudions donc le test du khi-deux. Nous montrons que la limite de la statistique ne dépend pas de la dérive, ainsi on dit que le test est asymptotically distribution free. Par ailleurs, nous étudions également la puissance du test du khi-deux. En outre, ces tests sont consistants. Nous traitons ensuite le deuxième problème : l'approximation des équations différentielles stochastiques rétrogrades. Supposons que l'on observe un processus de diffusion satisfaisant à une équation différentielle stochastique, où la dérive dépend du paramètre inconnu. Nous estimons premièrement le paramètre inconnu et après nous construisons un couple de processus tel que la valeur finale de l'un est une fonction de la valeur finale du processus de diffusion donné. Par la suite, nous montrons que, lorsque le coefficient de diffusion est petit, le couple de processus se rapproche de la solution d'une équations différentielles stochastiques rétrograde. A la fin, nous prouvons que cette approximation est asymptotiquement efficace.
35

Performance des jets et mesure de la section efficace de production de paires t tbar dans le canal tout hadronique auprès du détecteur ATLAS.

Ghodbane, N. 22 November 2012 (has links) (PDF)
Dans ce mémoire, nous présentons nos travaux de recherche que nous avons menés au sein de la collaboration ATLAS au LHC dans la période 2005-2012. Ces travaux inclus la préparation de deux des sous-détecteurs composant le système de détecteurs internes, l'étude et l'optimisation des algorithmes de reconstruction des jets afin d'en améliorer les performances et enfin l'utilisation des données collectées à partir des collisions proton-proton pour une énergie de collision de 7 TeV dans le centre de masse pour en extraire la mesure de la section efficace de production du quark top dans le mode de désintégration tout-hadronique.
36

Caractérisation optique et géométrique des agrégats submicroniques multi-échelles de particules sphériques très diffusantes

Lagarrigue, Marthe 18 April 2011 (has links) (PDF)
Les agrégats multi-échelles (sulfure de zinc: ZnS, ...) ont des propriétés physiques et physicochimiques présentant un grand intérêt industriel (industrie pharmaceutique, matériau, environnement...). L'objectif général de cette thèse est de caractériser ces agrégats multi-échelles par une méthode optique d'une part, et par une étude géométrique d'autre part. Le but est de trouver des relations simples entre propriétés optiques et géométriques. Les résultats présentés sont valables pour tout matériau à haut indice de réfraction.Ce travail comporte une première étape de modélisation en étudiant tout d'abord des modèles simples d'agrégats multi-échelles (agencement ordonné de particules élémentaires sphériques). Différents agrégats sont alors géométriquement modélisés suivant des paramètres de construction prédéfinis (volume global des agrégats, rayon des particules primaires...). Une analyse préliminaire optique puis une analyse géométrique sont alors effectuées afin de déterminer les paramètres respectifs à étudier: la section efficace moyenne de diffusion (...), calculée au moyen d'une extension de la théorie de Mie (GMM pour Generalized Multiparticle Mie) d'Y-L Xu, et des caractéristiques géométriques spécifiques (volume de matière, compacité...).Une seconde étape consiste à étudier les variations de la valeur de ... en fonction de celles des paramètres géométriques des agrégats. Des relations caractérisant ces variations sont établies. Enfin, une expression approchées pour la valeur de ... est recherchée sous la forme d'une loi de puissance, reposant sur des méthodes optiques approchées existantes et sur la sélection de caractéristiques géométriques pertinentes. Le modèle mis en place est robuste et présente un compromis entre précision et complexité. Le travail réalisé ouvre diverses perspectives comme la confrontation du modèle mathématique théorique obtenu, avec l'expérience.
37

Computation naturelle, beaucoup de bruit pour rien

Baudot, Pierre 29 September 2006 (has links) (PDF)
Le codage de l'information environnementale par le cerveau est sujet à d'intenses débats tant au niveau de son implémentation biologique (propriété fonctionnelles) qu'au niveau de sa variabilité et de sa précision. Cette étude se base sur des enregistrements intracellulaires in-vivo des réponses des neurones du cortex visuel primaire à des stimuli de complexité variable incluant des images naturelles animées par des mouvements oculaires. Nous montrons que les propriétés fonctionnelles sont générées par la récurrence corticale, notamment par la balance excitation/inhibition exprimée au travers d'une grande diversité de combinatoire de sélectivité fonctionnelle des entrées synaptiques. En condition naturelle avec mouvement des yeux, nous montrons que le code est reproductible, binaire/temporel et que l'analyse corticale se traduit par une réduction des redondances présentes dans les entrées. Les interactions ou contrôles de gain corticaux, dont le profile temporel biphasique sculpte temporellement les réponses corticales, augmentent la précision temporelle et la reproductibilité du code. Nous proposons (en discussion) une ébauche de modèle statistique général d'adaptation et d'auto-organisation consistant en la maximisation de l'information mutuelle entre le système et son environnement. Ce modèle, basé sur une décomposition microscopique de l'entropie en ordre de redondance, est suffisant pour rendre compte des propriétés singulières de l'organisation du vivant (incluant la cognition) tel que sa reproductibilité, sa diversité, et son optimalité (en terme de codage).
38

Inférence statistique des modèles conditionnellement hétéroscédastiques avec innovations stables, contraste non gaussien et volatilité mal spécifiée

Lepage, Guillaume 13 December 2012 (has links) (PDF)
Dans cette thèse, nous nous intéressons à l'estimation de modèles conditionnellement hétéroscédastiques (CH) sous différentes hypothèses. Dans une première partie, en modifiant l'hypothèse d'identification usuelle du modèle, nous définissions un estimateur de quasi-maximum de vraisemblance (QMV) non gaussien et nous montrons que, sous certaines conditions, cet estimateur est plus efficace que l'estimateur du quasi maximum de vraisemblance gaussien. Nous étudions dans une deuxième partie l'inférence d'un modèle CH dans le cas où le processus des innovations est distribué selon une loi alpha stable. Nous établissons la consistance et la normalité asymptotique de l'estimateur du maximum de vraisemblance. La loi alpha stable n'apparaissant que comme loi limite, nous étudions ensuite le comportement de ce même estimateur dans le cas où la loi du processus des innovations n'est plus une loi alpha stable mais est dans le domaine d'attraction d'une telle loi. Dans la dernière partie, nous étudions l'estimation d'un modèle GARCH lorsque le processus générateur de données est un modèle CH dont les coefficients sont sujets à des changements de régimes markoviens. Nous montrons que cet estimateur, dans un cadre mal spécifié, converge vers une pseudo vraie valeur et nous établissons sa loi asymptotique. Nous étudions cet estimateur lorsque le processus observé est stationnaire mais nous détaillons également ses propriétés asymptotiques lorsque ce processus est non stationnaire et explosif. Par des simulations, nous étudions les capacités prédictives du modèle GARCH mal spécifié. Nous déterminons ainsi la robustesse de ce modèle et de l'estimateur du QMV à une erreur de spécification de la volatilité.
39

Physique du quark top dans l'expérience CMS au démarrage du LHC

Le Grand, Thomas 28 September 2010 (has links) (PDF)
La première partie de cette thèse porte sur l'amélioration de l'algorithme de l'étape d'initiation de reconstruction des traces de hadrons et de muons au sein du trajectographe au silicium de l'expérience CMS. Les différentes étapes de mise au point et de tests, qui ont permis d'aboutir à la qualification de ce nouvel algorithme en tant que méthode standard d'initiation de la reconstruction des traces, sont présentées dans ce document.La deuxième partie concerne la mise en place d'une méthode alternative de mesure de la section efficace de production des paires top-antitop dans l'expérience CMS lors du démarrage du LHC. Cette analyse est effectuée à partir du canal de désintégration semi-muonique avec au moins un muon supplémentaire provenant d'un des quarks bottom et a été réalisée en simulation complète démontrant ainsi la possibilité d'une "redécouverte" possible du quark top avec 5 pb-1. Les 2.4 pb-1 de données réelles obtenues à la fin du mois d'Août m'ont permis d'observer les premières paires top-antitop et d'effectuer une première mesure de section efficace : 171±77(stat.) ±27(syst.) pb
40

Le téléapprentissage en milieu franco-ontarien : étude de cas du transfert d'un modèle d'ingénierie pédagogique issu des recherches en efficatité de l'enseignement /

Richard, Mario. January 2007 (has links) (PDF)
Thèse (Ph. D.)--Université Laval, 2007. / Bibliogr.: f. [231]-242. Publié aussi en version électronique dans la Collection Mémoires et thèses électroniques.

Page generated in 0.0348 seconds