• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 566
  • 317
  • 264
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1181
  • 1177
  • 1171
  • 1170
  • 1163
  • 1159
  • 791
  • 789
  • 789
  • 198
  • 126
  • 126
  • 123
  • 123
  • 119
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
521

Etude expérimentale de la convection naturelle en canal vertical à flux de chaleur imposé : application au rafraîchissement passif de composants actifs de l'enveloppe des bâtiments

Daverat, Christophe 15 October 2012 (has links) (PDF)
La réduction de la consommation des bâtiments passe par : l'économie d'énergie, l'efficacité énergétique et l'utilisation des énergies renouvelables. Sur ce dernier point, l'intégration à grande échelle de composants photovoltaïques (PV) est une solution. Le rendement et la durée de vie des cellules PV en silicium cristalin diminuant avec l'augmentation de leur température de fonctionnement, il est essentiel de mettre au point des configurations d'intégration limitant leur échauffement. L'intégration en configuration de double-peau - la surface PV est séparée du bâtiment par une lame d'air - est une solution prometteuse. Sous l'effet de la chaleur, un écoulement de convection naturelle se met en place entre les deux parois, refroidissant ainsi les panneaux PV. Cet écoulement peut également servir de moteur pour la ventilation en été, et de préchauffage de l'air en hiver. Cette étude, expérimentale, fait partie d'un projet visant à comprendre le fonctionnement des double-peaux PV en analysant séparément les différents phénomènes physiques avant de prendre en compte l'ensemble des couplages. Elle porte plus particulièrement sur la convection naturelle au sein des double-façades verticales. Ici, la double-peau est modélisée par un canal vertical dont les deux parois principales sont chauffées sous des conditions de flux imposé. Un banc d'essais a été développé pour étudier la convection naturelle dans un canal vertical en eau. L'eau a été choisie pour se placer dans le cas d'un écoulement de convection pure (pas de rayonnement entre les parois). C'est un canal vertical de 65 cm de haut avec un écartement réglable placé dans une cuve de 1,5 m de haut contenant 160 L d'eau. Les parois sont chauffées à l'aide de 24 chaufferettes indépendantes délivrant un flux de chaleur uniforme, ce qui permet d'appliquer différentes configurations de chauffage. Des mesures de flux et de température sont réalisées au niveau des parois, et un système couplant de la velocimétrie laser Doppler deux composantes à un micro-thermocouple (25 μm) a été développé pour avoir accès aux vitesses verticale et horizontale et à la température dans le canal. Ce banc et son instrumentation sont décrits et les incertitudes de mesure associées ont été caractérisées. La configuration de chauffage uniforme symétrique a été étudiée ici pour différentes puissances injectées. Les profils de vitesse et de température moyennes mettent en évidence la présence d'un changement de régime d'écoulement dans le canal pour un nombre de Rayleigh indéntifié. L'étude approfondie des profils des fluctuations de vitesse et de température a permis de mettre au point une modélisation comportementale de ce changement de régime. De plus, une première approche est développée pour évaluer la pression dans le canal à partir de l'analyse et de l'estimation des différents termes de l'équation de conservation de la quantité de mouvement.
522

Nanocomposites industriels simplifiés: analyse structurale et propriétés mécaniques

Baeza, Guilhem 12 November 2013 (has links) (PDF)
Cette thèse propose l'étude de matériaux composites industriels simplifiés constitués de caoutchouc non réticulé (copolymère styrène-butadiène " SBR ") renforcés par des charges nanométriques de silice hautement dispersible. Afin d'identifier les mécanismes physico-chimiques responsables de ce renforcement et être capable de l'optimiser, nous devons comprendre les corrélations existantes entre les propriétés macroscopiques du matériau et la structure des charges à différentes échelles. Pour cela, une large campagne d'expériences de diffusion des rayons-X aux petits angles (DXPA) ainsi que de nombreux clichés de microscopie électronique ont été réalisés. En couplant ces données avec des simulations Monte-Carlo, il a été notamment possible de mettre en avant la présence d'une organisation à trois niveaux en partant de billes élémentaires d'une dizaine de nanomètres formant des agrégats eux-mêmes arrangés selon un réseau tridimensionnel branché existant à travers tout l'échantillon. L'analyse du renforcement dans les nanocomposites a été effectuée par rhéométrie et analyse dynamique mécanique. D'autres techniques telles que la spectroscopie diélectrique, la résonnance magnétique nucléaire, l'analyse thermogravimétrique ou la spectrométrie infrarouge ont également contribué à une caractérisation complète de ces matériaux, en particulier pour sonder la dynamique des chaînes de SBR à l'interface avec la charge. Afin de déceler les corrélations existantes entre structure et propriétés, nous nous sommes attachés à décrire systématiquement l'influence de paramètres-clés tels que la fraction volumique en silice, le type de polymère employé (greffable sur la silice ou pas) ou leur masse molaire sur la morphologie des charges (par exemple la taille des agrégats) ainsi que sur le comportement mécanique (par exemple leur module d'élasticité) des composites. Ce travail a permis d'identifier la densité de greffage des chaines comme le paramètre définissant la structure des composites et impactant significativement le renforcement. Cette thèse, résolument tournée vers la compréhension fondamentale, est aussi une contribution à la recherche d'une loi de comportement décrivant l'effet de la structure des charges sur les performances des pneumatiques. Cette dernière doit permettre de répondre à des problématiques rencontrées en ingénierie telles que la résistance à l'usure, l'adhérence, ou la résistance au roulement. De plus, dans le but d'atteindre des informations supplémentaires quant aux interactions entre caoutchouc et silice, nous avons mis au point un protocole expérimental permettant de formuler des échantillons dits " modèles " renforcés avec une silice colloïdale. Cette dernière étant beaucoup mieux définie d'un point de vue géométrique, son analyse structurale est grandement facilitée rendant possible l'étude des potentiels mis en jeu pendant la production des nanocomposites.
523

Polarization stereoscopic imaging prototype

Iqbal, Mohammad 02 November 2011 (has links) (PDF)
The polarization of light was introduced last ten years ago in the field of imaging system is a physical phenomenon that can be controlled for the purposes of the vision system. As that found in the human eyes, in general the imaging sensors are not under construction which is sensitive to the polarization of light. These properties can be measured by adding optical components on a conventional camera. The purpose of this thesis is to develop an imaging system that is sensitive both to the stereoscopic and to the state of polarization. As well as the visual system on a various of insects in nature such as bees, that are have capability to move in space by extracted relevant information from the polarization. The developed prototype should be possible to reconstruct threedimensional of points of interest with the issues associated with a set of parameters of the state of polarization. The proposed system consists of two cameras, each camera equipped with liquid crystal components to obtain two images with different directions of polarization. For each acquisition, four images are acquired: two for each camera. Raised by the key of main capability to return polarization information from two different cameras. After an initial calibration step; geometric and photometric, the mapping of points of interest process is made difficult because of the optical components placed in front of different lenses. A detailed study of different methods of mapping was used to select sensitivity to the polarization effects. Once points are mapped, the polarization parameters of each point are calculated from the four values from four images acquired. The results on real scenes show the feasibility and desirability of this imaging system for robotic applications.
524

Etude des J/psi dans le canal dimuon du spectromètre de l'expérience ALICE auprès du LHC dans les collisions proton+proton à sqrt(s) = 7 TeV

Boyer, Bruno 21 October 2011 (has links) (PDF)
La densité epsilon0 de la matière nucléaire ordinaire est de l'ordre de 0,17 GeV/fm^3 . Lorsqu' elle atteint une densité comprise entre 5 à 10 epsilon0 ou une température comprise entre 150 à 200 MeV, une transition de phase, prédite par la ChromoDynamique Quantique sur réseau, vers un nouvel état de la matière se produit. Cet état dans lequel les quarks et les gluons sont déconfinés et peuvent se mouvoir librement est appelé Plasma de Quarks et de Gluons (PQG). Les collisions d'ions lourds ultra-relativistes au Large Hadron Collider (LHC) permettront de recréer les conditions de formation d'un tel état. L'étude du PQG au LHC se fera essentiellement avec l'expérience ALICE (A Large Ion Collider Experiment) dont le spectromètre à muons est conçu pour observer dans le canal muonique, sur un domaine de pseudo-rapidité -4 < eta < -2.5, la suppression des résonances lourdes (J/psi,Upsilon) par écrantage de couleur à travers leurs décroissance en muons.La première partie de ce travail porte sur les corrections d'acceptance et d'efficacité qui sont indispensables pour les analyses de physique. Cette étude a montré que le processus de correction est indépendant des distributions choisies.La seconde partie de cette thèse porte sur l'analyse du J/psi dans les collisions proton+proton à sqrt(s) = 7 TeV.
525

Tests phénoménologiques de la chromodynamique quantique perturbative à haute énergie au LHC

Ducloué, Bertrand 08 July 2014 (has links) (PDF)
Dans la limite des hautes énergies, la petite valeur de la constante de couplage de l'interaction forte peut être compensée par l'apparition de grands logarithmes de l'énergie dans le centre de masse. Toutes ces contributions peuvent être du même ordre de grandeur et sont resommées par l'équation de Balitsky-Fadin-Kuraev-Lipatov (BFKL). De nombreux processus ont été proposés pour étudier cette dynamique. L'un des plus prometteurs, proposé par Mueller et Navelet, est l'étude de la production de deux jets vers l'avant séparés par un grand intervalle en rapidité dans les collisions de hadrons. Un calcul BFKL ne prenant en compte que les termes dominants (approximation des logarithmes dominants ou LL) prédit une augmentation rapide de la section efficace avec l'augmentation de l'intervalle en rapidité entre les jets ainsi qu'une faible corrélation angulaire. Cependant, des calculs basés sur cette approximation ne purent pas décrire correctement les mesures expérimentales de ces observables au Tevatron. Dans cette thèse, nous étudions ce processus à l'ordre des logarithmes sous-dominants, ou NLL, en prenant en compte les corrections NLL aux facteurs d'impact, qui décrivent la transition d'un hadron initial vers un jet, et à la fonction de Green, qui décrit le couplage entre les facteurs d'impact. Nous étudions l'importance de ces corrections NLL et trouvons qu'elles sont très importantes, ce qui conduit à des résultats très différents de ceux obtenus à l'ordre des logarithmes dominants. De plus, ces résultats dépendent fortement du choix des échelles présentes dans ce processus. Nous comparons nos résultats avec des données récentes de la collaboration CMS sur les corrélations angulaires des jets Mueller-Navelet au LHC et ne trouvons pas un bon accord. Nous montrons que cela peut être corrigé en utilisant la procédure de Brodsky-Lepage-Mackenzie pour fixer le choix de l'échelle de renormalisation. Cela conduit à des résultats plus stables et une très bonne description des données de CMS. Finalement, nous montrons que, à l'ordre des logarithmes sous-dominants, l'absence de conservation stricte de l'énergie-impulsion (qui est un effet négligé dans un calcul BFKL) devrait être un problème beaucoup moins important qu'à l'ordre des logarithmes dominants.
526

Modélisation et simulation numérique d'écoulements diphasiques pour la microfluidique

Prigent, Guillaume 24 January 2013 (has links) (PDF)
Ce travail de thèse est consacré à la modélisation et simulation numérique d'écoulements diphasiques liquide-gaz mettant en jeu des transferts de chaleur. La simulation de configurations où la prise en compte des effets de compressibilité de la phase gazeuse est indispensable (micropompes, microactionneurs, etc...) a nécessité l'utilisation d'un modèle original, considérant le liquide incompressible et le gaz compressible sous l'hypothèse faible Mach. Lors de cette thèse, ce modèle a été implémenté dans un code diphasique prenant en compte l'interface à l'aide d'une méthode de front-tracking. Des cas tests ont été développés spécifiquement afin de vérifier la conservation de l'énergie pour des configurations de complexité croissante. Les résultats des cas tests ont permis de mettre en évidence la difficulté à assurer la conservation de l'énergie lorsque l'interface n'est pas discontinue mais lissée, comme c'est le cas dans la méthode de front-tracking standard. Une méthode de traitement d'interface hybride a été proposée, rétablissant le caractère discontinu de l'interface avec la reconstruction d'une fonction indicatrice de phase échelon, tandis que le déplacement de l'interface est assuré d'un pas de temps à l'autre à l'aide du front-tracking. Les résultats obtenus avec cette nouvelle méthode hybride sont très satisfaisants, la méthode hybride permettant d'assurer la conservation de l'énergie et de la masse avec précision dans les simulations.
527

Etude théorique de nouveaux concepts de nano-transistors en graphène

Berrada, Salim 16 May 2014 (has links) (PDF)
Cette thèse porte sur l'étude théorique de nouveaux concepts de transistors en graphène par le formalisme des fonctions de Green dans l'hypothèse du transport balistique. Le graphène est un matériau bidimensionnel composé d'atomes de carbone organisés en nid d'abeille. Cette structure confère des propriétés uniques aux porteurs de charge dans le graphène, comme une masse effective nulle et un comportement ultra-relativiste (fermions de Dirac), ce qui conduit à des mobilités extraordinairement élevées. C'est pourquoi des efforts très importants ont été mis en œuvre dans la communauté scientifique pour la réalisation de transistors en graphène. Cependant, en vue de nombreuses applications, le graphène souffre de l'absence d'une bande d'énergie interdite. De plus, dans le cas des transistors conventionnels à base de graphène (GFET), cette absence de bande interdite, combinée avec l'apparition de l'effet tunnel de Klein, a pour effet de dégrader considérablement le rapport I_ON/I_OFF des GFET. L'absence de gap empêche également toute saturation du courant dans la branche N - là où se trouve le maximum de transconductance pour des sources et drain dopés N - et ne permet donc pas de tirer profit des très bonnes performances fréquentielles que le graphène est susceptible d'offrir grâce aux très hautes mobilités de ses porteurs. Cependant, de précédents travaux théorique et expérimentaux ont montré que la réalisation d'un super-réseau d'anti-dots dans la feuille de graphène - appelée Graphene NanoMesh (GNM) - permettait d'ouvrir une bande interdite dans le graphène. On s'est donc d'abord proposé d'étudier l'apport de l'introduction de ce type de structure pour former canal des transistors - appelés GNMFET - par rapport aux GFET " conventionnels ". La comparaison des résultats obtenus pour un GNM-FET avec un GFET de mêmes dimensions permettent d'affirmer que l'on peut améliorer le rapport I_ON/I_OFF de 3 ordres de grandeurs pour une taille et une périodicité adéquate des trous. Bien que l'introduction d'un réseau de trous réduise légèrement la fréquence de coupure intrinsèque f_T, il est remarquable de constater que la bonne saturation du courant dans la branche N, qui résulte de la présence de la bande interdite dans le GNM, conduit à une fréquence maximale d'oscillation f_max bien supérieure dans le GNM-FET. Le gain en tension dans ce dernier est aussi amélioré d'un ordre de grandeur de grandeur par rapport au GFET conventionnel. Bien que les résultats sur le GNM-FET soient très encourageants, l'introduction d'une bande interdite dans la feuille de graphène induit inévitablement une masse effective non nulle pour les porteurs, et donc une vitesse de groupe plus faible que dans le graphène intrinsèque. C'est pourquoi, en complément de ce travail, nous avons exploré la possibilité de moduler le courant dans un GFET sans ouvrir de bande interdite dans le graphène. La solution que nous avons proposée consiste à utiliser une grille triangulaire à la place d'une grille rectangulaire. Cette solution exploite les propriétés du type "optique géométrique" des fermions de Dirac dans le graphène, qui sont inhérentes à leur nature " Chirale ", pour moduler l'effet tunnel de Klein dans le transistor et bloquer plus efficacement le passage des porteurs dans la branche P quand le dopage des sources et drains sont de type N. C'est pourquoi nous avons choisi d'appeler ce transistor le " Klein Tunneling FET " (KTFET). Nous avons pu montrer que cette géométrie permettrait d'obtenir un courant I_off plus faible que ce qui est obtenu d'habitude, pour la même surface de grille, pour les GFET conventionnels. Cela offre la perspective d'une nouvelle approche de conception de dispositifs permettant d'exploiter pleinement le caractère de fermions de Dirac des porteurs de charges dans le graphène.
528

Mesure de la section efficace de l'électroproduction de photons à JLAB dans le but d'effectuer une Séparation Rosenbluth de la contribution DVCS

Martí Jiménez-Argüello, Alejandro Miguel 11 July 2014 (has links) (PDF)
L'étude de la structure interne des hadrons nous permet de comprendre la nature des interactions entre les partons, les quarks et les gluons, décrites par la Chromodynamique Quantique. Les processus de diffusion élastique, qui ont été utilisés avec succès pour mesurer les facteurs de forme des nucléons, sont inclus dans ce cadre. Les processus inélastiques sont également inclus dans ce cadre, ils nous permettent d'extraire beaucoup d'information grâce au développement des distributions de partons (PDFs). Par conséquent, tandis que la diffusion élastique d'électrons par le nucléon nous fournit des informations sur la répartition des charges, et donc de la distribution spatiale des composants du nucléon, la diffusion inélastique présente des informations sur la distribution d'impulsions au moyen des PDFs. Cependant, dans les processus inélastiques, il est possible d'étudier les processus exclusifs tels que la Diffusion Compton Profondément Virtuelle (DVCS), qui nous permet d'accéder aux distributions spatiale et d'impulsions des quarks simultanément. Ceci est possible grâce aux fonctions généralisées des distributions de partons (GPDS), qui nous permettent de corréler les deux types de distributions. Le processus connu sous le nom DVCS est le moyen le plus facile pour accéder aux GPDS. Ce procédé implique la diffusion d'un électron par un proton, au moyen de l'échange d'un photon virtuel, qui entraîne la diffusion des particules initiales et l'émission d'un photon réel. Ce processus est en concurrence avec le processus dit Bethe-Heitler, dans lequel le photon réel est émis par l'électron initial ou final. En raison de la faible section efficace de ce type de procédé, de l'ordre du nb, il est nécessaire d'utiliser une installation capable de fournir une haute luminosité pour réaliser les expériences. L'une de ces installations est le Thomas Jefferson National Accelerator Facility, où l'expérience appelée "Complete Separation of Virtual Photon and π⁰ Electroproduction Observables of Unpolarized Proton" a été réalisée au cours de la période entre Octobre et Décembre de 2010. Le principal objectif de cette expérience est la séparation de la contribution du terme provenant du DVCS à partir du terme d'interférence, résultant de la contribution du BH. Cette séparation est appelée "Séparation Rosenbluth". Cette thèse porte sur le calorimètre électromagnétique qui a été utilisé pour détecter le photon dans l'expérience E07-007 à Jefferson Lab. Il y a aussi une introduction théorique à l'étude de la structure du nucléon, en révisant les concepts de facteurs de forme et des distributions de partons à travers des processus élastiques et inélastiques. Le calcul de la section efficace de la leptoproduction de photons est décrite en détail, ainsi que les buts de l'expérience E07-007. Dans cette thèse on décrit l'analyse des données enregistrées par le calorimètre électromagnétique, avec le but d'obtenir les variables cinématiques des photons réels résultants des réactions DVCS. Finalement, on décrit la sélection des événements à partir des données stockées, les réductions appliquées aux variables cinématiques et la soustraction de fond. En outre, le processus d'extraction des observables nécessaires pour le calcul de la section efficace de la leptoproduction de photons est décrite, ainsi que les principales étapes suivies pour effectuer la simulation Monte-Carlo utilisée dans ce calcul. Les sections efficaces obtenues sont indiquées à la fin de cette thèse.
529

Application of attosecond pulses to high harmonic spectroscopy of molecules

Lin, Nan 16 December 2013 (has links) (PDF)
High-order Harmonic Generation (HHG) is an extreme nonlinear process that can be intuitively understood as the sequence of 3 steps: i) tunnel ionization of the target atom/molecule, creating an electronic wave packet (EWP) in the continuum, ii) acceleration of the EWP by the strong laser field and iii) recombination to the core with emission of an attosecond burst of XUV coherent light. HHG thus provides a tunable ultrashort tabletop source of XUV/Soft X-ray radiation on attosecond time scale for applications ('direct' scheme). At the same time, it encodes coherently in the XUV radiation the structure and dynamical charge rearrangement of the radiating atoms/molecules ('self-probing' scheme or High Harmonic Spectroscopy). This thesis is dedicated to both application schemes in attophysics based on advanced characterization and control of the attosecond emission. In the so-called 'self-probing' scheme, the last step of HHG, the electron-ion re-collision can be considered as a probe process and the emission may encode fruitful information on the recombining system, including molecular structure and dynamics. In the first part, we performed high harmonic spectroscopy of N₂O and CO₂ molecules that are (laser-)aligned with respect to the polarization of the driving laser. We implemented two methods based on optical and quantum interferometry respectively in order to characterize the amplitude and phase of the attosecond emission as a function of both photon energy and alignment angle. We discovered new effects in the high harmonic generation, which could not be explained by the structure of the highest occupied molecular orbital (HOMO). Instead, we found that during the interaction with the laser field, two electronic states are coherently excited in the molecular ion and form a hole wave packet moving on an attosecond timescale in the molecule after tunnel ionization. We focused on exploring this coherent electronic motion inside the molecule, and compared the measurements in N₂O and CO₂. The striking difference in the harmonic phase behavior led us to the development of a multi-channel model allowing the extraction of the relative weight and phase of the two channels involved in the emission. An unexpected pi/4 phase shift between the two channels is obtained. Moreover, we studied the attosecond profile of the pulses emitted by these two molecules, and we proposed a simple but flexible way for performing attosecond pulse shaping. In the second part, high harmonic spectroscopy was extended to other molecular systems, including some relatively complex molecules, e.g., SF₆ and small hydrocarbons (methane, ethane, ethylene, acetylene). It revealed many interesting results such as phase distortions not previously reported. For the 'direct' scheme, we photoionized rare gas atoms using well characterized attosecond pulses of XUV coherent radiation combined with an infrared (IR) laser "dressing" field with controlled time delay, stabilized down to about ± 60 as. We evidenced marked differences in the measured angular distributions of the photoelectrons, depending on the number of IR photons exchanged. Joined to a theoretical interpretation, these observations bring new insights into the dynamics of this class of multi-color photoionization processes that are a key step towards studying photoionization in the time domain, with attosecond time resolution.
530

Développement d'un biocapteur associant dispositif à onde de Love et polymères à empreintes moléculaires : caractérisation sous gaz

Omar Aouled, Nima 16 July 2013 (has links) (PDF)
Ces travaux de recherches concernent l'association de la technologie des polymères à empreintes moléculaires aux dispositifs acoustiques à onde de Love afin de réaliser un biocapteur dans le cadre d'un projet ANR Tecsan. La première partie de ces travaux de thèse a dressé plus spécifiquement la mise au point d'un protocole de dépôt localisé de polymères imprimés (MIP) et non imprimés (NIP) en films minces compatibles avec la propagation de l'onde élastique. La seconde aprtie des travaux a visé une caractérisation des films et des capteurs ainsi réalisés, par microscopie à balayage et apr mesures de détection sous gaz. Des éléments relatifs aux propriétés mécaniques (porosité, surfaces spécifiques) des MIPs et NIPs, avant extraction de la molécule cible, puis après extraction et après recapture, ont permis de valider le principe du capteur, ouvrant la voie à l'application en milieu liquide.

Page generated in 0.2691 seconds