• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 403
  • 134
  • 37
  • 18
  • 3
  • 2
  • 1
  • Tagged with
  • 584
  • 253
  • 112
  • 102
  • 77
  • 71
  • 68
  • 66
  • 64
  • 52
  • 49
  • 47
  • 46
  • 45
  • 43
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Étude de l’influence de l’activité stellaire sur la spectroscopie de transit à basse résolution et des possibilités de mitigation par la haute résolution

Genest, Frédéric 11 1900 (has links)
La spectroscopie de transit est un outil puissant pour la caractérisation de l'atmosphère d'exoplanètes. Plusieurs phénomènes peuvent contaminer un spectre de transmission, dont l'hétérogénéité de la surface de l'étoile hôte due à l'activité stellaire. À basse résolution spectrale, la différence entre le cordon de transit et le reste de la surface y laisse des signatures qui pourraient être attribuées à tort à la planète. Les risques associés incluent des biais sur la mesure du rayon et des abondances atmosphériques de planètes. Afin de trouver une solution à ce problème, cette étude consiste à modéliser en détail des surfaces stellaires et des spectres de transit à basse et à très haute résolution. On cherche d'une part à qualifier l'ampleur du problème à basse résolution et, d'autre part, à déterminer si la haute résolution permet d'isoler la contamination stellaire et ainsi résoudre le problème. La modélisation se concentre sur trois types d'étoiles, entre K hâtive et M tardive. Les modèles confirment l'importance du problème et l'absence de solution évidente à basse résolution, principalement pour les étoiles M. À haute résolution, on parvient à séparer les signaux de la planète et de l'activité stellaire. Cela permet de briser l'ambiguïté à basse résolution, pourvu que la planète ait une variation de vitesse radiale suffisante durant le transit. Ces résultats soulignent la valeur d'un suivi à haute résolution lorsque possible. Même avec le télescope James-Webb, il sera difficile d'avoir totalement confiance en les résultats de caractérisation d'atmosphères utilisant des données à basse résolution. / Transit spectroscopy is a powerful tool for the characterisation of exoplanet atmospheres. There exist multiple sources of contamination for transmission spectra, including stellar activity induced surface heterogeneities on the host star. At low spectral resolution, differences between the transit chord and the rest of the surface leave signatures in the spectra, which could then be wrongly associated with the planet. This can introduce biases in radius and atmospheric abundance measurements of exoplanets. To solve this issue, this study consists in carefully modeling stellar surfaces and transit spectra at low and very high spectral resolution. We seek to, on one hand, understand the importance of the problem at low resolution, and, on the other hand, determine if high resolution allows us to isolate stellar contamination and thus solve this problem. Modeling is focused on three types of stars, from early K to late M. Models confirm the importance of the issue and the absence of an obvious solution at low resolution, especially for M stars. At high resolution, we manage to effectively split the planet and stellar activity signals. This allows us to break the ambiguity from low resolution, provided the planet experiences a sufficient radial velocity variation during transit. These results highlight the strong value of high resolution follow-ups when feasible. Even with the James-Webb space telescope, it will be difficult to fully trust the results of atmospheric abundance retrievals using low resolution data.
392

Climatologies et tendances de l'ozone et du monoxyde de carbone dans la haute troposphère - basse stratosphère, vues par les mesures IAGOS et le modèle MOCAGE / Climatologies and trends in ozone and carbon monoxide in the upper troposphere-lower stratosphere, as seen by the IAGOS measurements and the MOCAGE model

Cohen, Yann 03 November 2018 (has links)
L'objectif général de la thèse est de caractériser la distribution géographique, les cycles saisonniers et l'évolution récente de l'ozone et du monoxyde de carbone dans la haute troposphère - basse stratosphère (UT - LS) au-dessus de huit régions d'intérêt, aux moyennes latitudes de l'hémisphère Nord. Pour cela, nous avons analysé les observations aéroportées IAGOS. Nous avons montré une tendance positive de l'ozone dans l'UT sur 1994 - 2013, et une tendance négative du monoxyde de carbone liée à la décroissance des émissions en surface. Nous avons comparé les mesures à la simulation de composition chimique sur le climat récent issue du modèle MOCAGE dans l'exercice d'intercomparaison CCMI. Pour ce faire, nous avons développé une nouvelle méthode permettant de projeter les mesures IAGOS sur le maillage du modèle et de traiter ainsi 20 ans d'observations. Cette méthode s'est révélée pertinente pour évaluer la simulation et pourrait être étendue à d'autres simulations et d'autres modèles. / The overall objective of the thesis is to characterize the geographical distribution, seasonal cycles and recent trends of ozone and carbon monoxide in the upper troposphere- lower stratosphere (UT-LS) over eight regions of interest, in the northern mid-latitudes. For this purpose, we first analyzed the IAGOS airborne observations. We have shown a positive trend in ozone in the UT over 1994-2013, and a negative trend in carbon monoxide, the latter being linked to the decrease in surface emissions. We then compared the observations to the recent climate chemical composition simulation performed by the MOCAGE model in the CCMI intercomparison exercise. To do this, we have developed a new method to project IAGOS measurements onto the model grid, allowing us to process long observation periods. This method has proven to be relevant for evaluating the simulation and could be extended to other simulations and models.
393

Développement d'algorithmes d'analyse spectrale en spectrométrie gamma embarquée / Embedded gamma spectrometry : new algorithms for spectral analysis

Martin-Burtart, Nicolas 06 December 2012 (has links)
Jusqu’au début des années 1980, la spectrométrie gamma aéroportée a avant tout été utilisée pour des applications géophysiques et ne concernait que la mesure des concentrations dans les sols des trois radionucléides naturels (K40, U238 et Th232). Durant les quinze dernières années, un grand nombre de dispositifs de mesures a été développé, la plupart après l’accident de Tchernobyl, pour intervenir en cas d’incidents nucléaires ou de surveillance de l’environnement. Les algorithmes développés ont suivi les différentes missions de ces systèmes. La plupart sont dédiés à l’extraction des signaux à moyenne et haute énergie, où les radionucléides naturels (K40, les chaînes U238 et Th232) et les produits de fission (Cs137 et Co60 principalement) sont présents. A plus basse énergie (< 400 keV), ces méthodes peuvent toujours être utilisées mais les particularités du fond de diffusion, très intense, les rendent peu précises. Cette zone énergétique est importante : les SNM émettent à ces énergies. Un algorithme, appelé 2-fenêtres (étendu à 3), a été développé permettant une extraction précise et tenant compte des conditions de vol. La surveillance du trafic de matières radioactives dans le cadre de la sécurité globale a fait son apparition depuis quelques années. Cette utilisation nécessite non plus des méthodes sensibles à un élément particulier mais des critères d’anomalie prenant en compte l’ensemble du spectre enregistré. Il faut être sensible à la fois aux radionucléides médicaux, industriels et nucléaires. Ce travail a permis d’identifier deux familles d’algorithmes permettant de telles utilisations. Enfin, les anomalies détectées doivent être identifiées. La liste des radionucléides nécessitant une surveillance particulière, recommandée par l’AIEA, contient une trentaine d’émetteurs. Un nouvel algorithme d’identification a été entièrement développé, permettant de s’appuyer sur plusieurs raies d’absorption par élément et de lever les conflits d’identification. / Airborne gamma spectrometry was first used for mining prospection. Three main families were looked for: K40, U238 and Th232. The Chernobyl accident acted as a trigger and for the last fifteen years, a lot of new systems have been developed for intervention in case of nuclear accident or environmental purposes. Depending on their uses, new algorithms were developed, mainly for medium or high energy signal extraction. These spectral regions are characteristics of natural emissions (K40, U238- and Th-232 decay chains) and fissions products (mainly Cs137 and Co60). Below 400 keV, where special nuclear materials emit, these methods can still be used but are greatly imprecise. A new algorithm called 2-windows (extended to 3), was developed. It allows an accurate extraction, taking the flight altitude into account to minimize false detection. Watching radioactive materials traffic appeared with homeland security policy a few years ago. This particular use of dedicated sensors require a new type of algorithms. Before, one algorithm was very efficient for a particular nuclide or spectral region. Now, we need algorithm able to detect an anomaly wherever it is and whatever it is : industrial, medical or SNM. This work identified two families of methods working under these circumstances. Finally, anomalies have to be identified. IAEA recommend to watch around 30 radionuclides. A brand new identification algorithm was developed, using several rays per element and avoiding identifications conflicts.
394

Etude des modifications de l'apolipoprotéine B-100 induites par la myéloperoxydase à l'aide de la chromatographie liquide couplée à la spectrométrie de masse

Delporte, Cédric 14 September 2012 (has links)
Les maladies cardiovasculaires constituent la première cause de décès dans le monde et l’athérosclérose est le premier facteur causal de ces maladies. Parmi les multiples facteurs de risque athéromateux, un facteur est souvent décrit :la modification des lipoprotéines de basse densité (LDLs). Bien que le phénomène d’athérogénèse ne soit pas encore complètement résolu, il est actuellement admis que les LDLs natives passent la paroi vasculaire et s’accumulent au niveau sous-endothélial où elles sont oxydées et endocytées par les macrophages. Une théorie plus récente indique que les LDLs peuvent être également modifiées dans la circulation.<p>Néanmoins, le processus par lequel ces lipoprotéines sont modifiées reste hautement controversé. Depuis quelques années, le modèle de modification des LDLs par la myéloperoxydase est apparu comme un modèle physiopathologique contrairement au modèle longuement utilisé de l’oxydation des LDLs par le cuivre. La myéloperoxydase est une enzyme présente dans les granules primaires des neutrophiles mais qui lors d’inflammations chroniques, comme dans l’athérosclérose, peut se retrouver dans le milieu extracellulaire et former un oxydant puissant qui attaque les protéines, les lipides ou les acides nucléiques. Les LDLs modifiées par la myéloperoxydase ne sont plus reconnues par le récepteur membranaire spécifique pour les LDLs. De plus, très peu d’études ont décrit à ce jour les modifications apportées par la myéloperoxydase aux LDLs.<p>Dans ce contexte, nous avons étudié la spécificité de la myéloperoxydase à modifier les LDLs. Dans ce modèle, la partie protéique de la lipoprotéine est majoritairement touchée. C’est pourquoi nous avons développé et optimisé des méthodes d’analyse par spectrométrie de masse de l’apolipoprotéine B-100, la seule protéine de la LDL. De plus, l’activité de la myéloperoxydase à la surface des LDLs a également été investiguée. <p>Les résultats de ce travail montrent que la myéloperoxydase s’attaque de manière spécifique aux LDLs et que le modèle chimique utilisant de l’acide hypochloreux pour mimer l’action de la myéloperoxydase n’est pas parfait. Enfin, nous avons également observé des changements dans l’activité enzymatique lorsque la myéloperoxydase est adsorbée à la surface des LDLs.<p> / Doctorat en Sciences biomédicales et pharmaceutiques / info:eu-repo/semantics/nonPublished
395

Passerelle intelligente pour réseaux de capteurs sans fil contraints / Smart gateway for low-power and lossy networks

Leone, Rémy 24 July 2016 (has links)
Les réseaux de capteurs sans fil (aussi appelés LLNs en anglais) sont des réseaux contraints composés de nœuds ayant de faibles ressources (mémoire, CPU, batterie). Ils sont de nature très hétérogène et utilisés dans des contextes variés comme la domotique ou les villes intelligentes. Pour se connecter nativement à l’Internet, un LLN utilise une passerelle, qui a une vue précise du trafic transitant entre Internet et le LLN du fait de sa position. Le but de cette thèse est d’exposer comment des fonctionnalités peuvent être ajoutées à une passerelle d’un LLN dans le but d’optimiser l’utilisation des ressources limitées des nœuds contraints et d’améliorer la connaissance de leur état de fonctionnement. La première contribution est un estimateur non intrusif utilisant le trafic passant par la passerelle pour inférer l’utilisation de la radio des nœuds contraints. La seconde contribution adapte la durée de vie d’informations mises en cache (afin d’utiliser les ressources en cache au lieu de solliciter le réseau) en fonction du compromis entre le coût et l’efficacité. Enfin, la troisième contribution est Makesense, un framework permettant de documenter, d’exécuter et d’analyser une expérience pour réseaux de capteurs sans fil de façon reproductible à partir d’une description unique. / Low-Power and Lossy Network (LLN)s are constrained networks composed by nodes with little resources (memory, CPU, battery). Those networks are typically used to provide real-time measurement of their environment in various contexts such as home automation or smart cities. LLNs connect to other networks by using a gateway that can host various enhancing features due to its key location between constrained and unconstrained devices. This thesis shows three contributions aiming to improve the reliability and performance of a LLN by using its gateway. The first contribution introduce a non-intrusive estimator of a node radio usage by observing its network traffic passing through the gateway. The second contribution offers to determine the validity time of an information within a cache placed at the gateway to reduce the load on LLNs nodes by doing a trade-off between energy cost and efficiency. Finally, we present Makesense, an open source framework for reproducible experiments that can document, execute and analyze a complete LLN experiment on simulation or real nodes from a unique description.
396

Virtualisation de la mesure d’exposition du public général au champ magnétique basse fréquence dans le domaine de l’automobile / Virtualization of measurement of the general public exposure to low frequency magnetic field in automotive domain

Magued, Michael 13 March 2018 (has links)
L’exposition des personnes aux champs électromagnétiques est une problématique majeure de société qui touche le domaine de l’automobile. Le développement de la technologie des véhicules électriques et hybrides nécessite la prise en compte de la problématique d’exposition aux ondes dès la phase même de la conception.Le travail présenté dans ce document s’intéresse principalement à l’exposition aux champs magnétiques basse fréquence (BF) marqués par les effets non thermiques de stimulation électriques. Dans cette gamme fréquentielle, les sources principales des risques d’exposition sont les modules de la chaîne de traction qui sont souvent situés à proximité des passagers. L’objectif principal de cette thèse est de virtualiser la mesure évaluant l’exposition aux champs magnétiques BF, jusqu’ici réalisée par un testeur de niveau d’exposition commercial, afin d’être capable de faire une levée de risque d’exposition, en amont, sans entraîner de surcoût au constructeur. Ceci est réalisé en virtualisant l’instrument de mesure.Nous consacrons d’abord notre étude à la compréhension de la mesure d’évaluation d’exposition et du fonctionnement du champmètre Narda ELT-400 utilisé chez notre constructeur automobile pour mesurer l’indice d’exposition. Ainsi, nous détaillons les différentes définitions et méthodes de calcul de l’indice d’exposition du public général aux champs magnétiques BF. Enfin, nous présentons des applications de l’utilisation du champmètre sur des cas de mesure en statique et en dynamique.La deuxième partie de l’étude traite de la construction du prototype virtuel permettant de modéliser la mesure d’indice d’exposition aux champs magnétiques BF réalisée par le champmètre Narda ELT-400. Pour ce faire, nous développons et optimisons dans un premier temps le modèle de la sonde triaxiale du champmètre sous FEKO permettant de positionner et d’orienter la sonde selon le choix de l’utilisateur. Ensuite le champ magnétique rayonné par la sonde virtuelle est traité pour obtenir une mesure virtuelle de l’induction magnétique détectée par la sonde et de l’indice d’exposition.La troisième partie est consacrée à la validation du modèle complet sur des cas réels de mesures effectuées sur des pinces manuelles de soudage par points en comparant les résultats du prototype virtuel à ceux mesurés. La validation du modèle est réalisée dans trois cas d’étude différents correspondant à des profils de champ différents, des fréquences différentes dans la gamme BF et à des formes de signal différentes.Dans la dernière partie de notre étude, une approche stochastique de simulation est proposée en appliquant la méthode de Monte-Carlo, basée sur un grand nombre de tirages aléatoires. Cette méthode permet d’étudier la dispersion des résultats due à l’imprécision plausible de positionnement et d’orientation commise par l’opérateur de la sonde. Cette méthode est appliquée à différentes distances de sources rayonnantes élémentaires. Les résultats principaux de cette partie portent sur le lien entre l’homogénéité du champ au point investigué et la variabilité de la mesure virtuelle autour de ce point suite à l’imprécision commise. / Exposure to electromagnetic fields is a major issue in society that affects the automotive domain. The development of electric and hybrid vehicles technology requires the consideration of the issue of exposure since the conception stage.The work presented in this paper is mainly concerned with exposure to low-frequency (LF) magnetic fields distinguished with non-thermal electric stimulation effects. In this frequency range, the main sources of exposure risks are the powertrain elements often located close to the passengers.The main objective of this thesis is to virtualize the measurement assessing exposure to LF magnetic fields, hitherto performed by a commercial exposure level tester, to be able to minimize exposure risks, a priori, without incurring additional costs to the manufacturer. This is realized by virtualizing the measuring instrument.We focus first on understanding the exposure evaluation measurement and on the operation of the ELT-400 Narda field meter used at our automobile manufacturer to measure the exposure index. Thus, we show the different definitions and methods of calculating exposure index of the general public to LF magnetic fields. Finally, we present applications of the use of the field meter on measuring cases in statistic and dynamic states.The second part of the study is consecrated to the construction of the virtual prototype to model the measurement of the exposure index to LF magnetic fields performed by Narda field meter ELT-400. To do this, first we develop and optimize the model of the field meter’s triaxial probe in FEKO to position and orient the probe as selected by the user. Then the magnetic field radiated by the virtual probe is processed to obtain a virtual measurement of the magnetic induction detected by the probe and of the exposure index.The third part of the study deals with the validation of the whole model on real cases of measurements done over manual spot welding clamps by comparing the virtual prototype results with those measured. The model validation is performed in three different case studies corresponding to different field profiles, different frequencies in LF domain and different forms of signal.In the last part of our study, a stochastic simulation approach is proposed by applying the Monte-Carlo Method based on a large number of random draws. This method allows studying the dispersion of results due to the plausible imprecise positioning and orientation committed by the operator of the probe. This method is applied at different distances from elementary radiating sources. The main results of this part focus on the link between the field homogeneity at the investigated point and the variability of the virtual measurement around this point due to the inaccuracy committed.
397

Amélioration et suivi de la robustesse et de la qualité de MOSFETs de puissance dédiés à des applications automobiles micro-hybrides / Enhancement and monitoring of robustness and quality of power MOSFETs dedicated to microhybrid automotive applications

Pomès, Emilie 20 December 2012 (has links)
Dans le contexte écologique actuel, les équipementiers automobiles européens sont dans l’obligation de développer des systèmes innovants afin de réduire les rejets de gaz à effet de serre des véhicules. Les nouvelles applications électroniques micro-hybrides exigent le développement de stratégies quant à l’intégration des systèmes et la réduction des pertes. Ainsi, une proposition a consisté à réaliser des modules de puissance constitués de transistors MOSFETs basse tension fort courant. L’application de type alterno-démarreur plus communément nommée « Stop & Start »exige des composants toujours plus robustes et fiables du fait de la sollicitation en mode d’avalanche sous des températures pouvant atteindre 175°C.Les travaux de recherche présentés dans cette thèse portent donc sur l’aspect d’optimisation de la robustesse et de la fiabilité des composants. Tout d’abord, il était essentiel de comprendre l’avalanche et ses enjeux pour la technologie. Ensuite dans ce contexte, le procédé notamment autour de l’oxyde de grille a été amélioré afin de garantir la tenue en mode de sollicitation grille-source et grille-drain pour satisfaire les exigences de fiabilité. En outre, le développement d’un test innovant de la puce, dérivé du QBD, a permis d’évaluer précisément les modifications apportées sur le procédé de fabrication et d’être corrélé avec les résultats des essais de fiabilité. Enfin, le cycle de vie d’un MOSFET nécessite un suivi qualité précis qui se compose de deux aspects essentiels. En premier lieu, le suivi des paramètres électriques et de leur dérive par une analyse statistique « postprocessing». En second lieu, la mise en place d’un outil de traçabilité du module à la puce pour traquer les éventuels rejets dans l’application finale et remonter à la cause d’origine. Toutes les innovations présentées, dans ce mémoire, s’inscrivent dans une démarche novatrice de l’amélioration continue de la qualité des composants de type MOSFET de puissance / In the current ecologic context, the European automotive suppliers have to develop innovating systems inorder to reduce greenhouse gas rejects produce by vehicles. The new mild-hybrid electronic applications require the development of new strategies due to their integration and the reduction of power losses.Thereby, a proposition consisted in creating power modules constituted by MOSFETs characterized by alow blocking voltage under high current. The starter alternator reversible application also named “Stop &Start” requires robust and reliable components in order to support a high current solicitation in avalanche mode for temperatures up to 175°C.Research work presented in this thesis concerns the robustness and reliability enhancement of MOSFET components. First of all, the important part is about avalanche mode understanding and their issues. Inthis context, the fabrication process is a main part for quality and reliability requirements. Then, the workis focused on gate oxide process quality in order to hold gate-source and gate-drain stress modes.Moreover, the development of an innovating test at wafer level derivate from QBD test, allowed the precise evaluation of process modification thanks to the correlation with reliability campaign results. Finally, theMOSFET life cycle needs a quality monitoring constituted by two main steps. The first one is the monitoring of electrical parameters in time with a post-processing statistical analysis. The second one is the use of a traceability tool between the power module and the silicon die in order to highlight possible defects in the final starter alternator application, and understand failure root causes. The innovations presented in this thesis are included in the continued improvement approach for MOSFETs quality and robustness enhancement.
398

Plasma based assembly and engineering of advanced carbon nanostructures / Plasmas appliqués à la production de nanostructures de carbone avancées

Vieitas de Amaral Dias, Ana Inês 04 October 2018 (has links)
L’environnement réactif du plasma constitue un outil puissant dans la science des matériaux, permettant la création de matériaux innovatifs et l'amélioration de matériaux existants qui ne serait autrement pas possible.Le plasma fournit simultanément des fluxes de particules chargées, des molécules chimiquement actives, des radicaux, de la chaleur, des photons, qui peuvent fortement influencer les voies d'assemblage à différentes échelles temporelles et spatiales, y compris à l’échelle atomique.Dans cette thèse de doctorat, des méthodes tenant pour base des plasmas micro-ondes ont été utilisées pour la synthèse de nanomatériaux de carbone, y compris graphène, graphène dopé à l'azote (N-graphène) et structures de type diamant.À cette fin, ce travail est lié à optimisation de la synthèse de nanostructures 2D du carbone, comme graphène et N-graphène par la poursuite de l'élaboration et du raffinement de la méthode développée en Plasma Engineering Laboratory (PEL). La synthèse de graphène de haute qualité et en grandes quantités a été accomplie avec succès en utilisant des plasmas d'Ar-éthanol à ondes de surface dans des conditions de pression ambiante. De plus, le N-graphène a été synthétisé par un procédé en une seule étape, de l'azote a été ajouté au mélange d’Ar-éthanol, et par un procédé en deux étapes, en soumettant des feuilles de graphène préalablement synthétisées ont été exposées à un traitement plasma argon-azote à basse pression. Les atomes d'azote ont été incorporés avec succès dans le réseau de graphène hexagonal, formant principalement liaisons pyrroliques, pyridiniques et quaternaires. Un niveau de dopage de 25 at.% a été atteint.Différents types de nanostructures de carbone, y compris du graphène et des structures de type diamant, ont été synthétisées au moyen d'un plasma d’argon en utilisant du méthane et du dioxyde de carbone comme précurseurs du carbone.De plus, des plasmas à couplage capacitif ont également été utilisés pour la fonctionnalisation du graphène et pour la synthèse de nanocomposites, tels que les composites de Polyaniline (PANI)-graphène. Les utilisations potentielles de ces matériaux ont été étudiées et les deux structures ont démontré avoir des attributs remarquables pour leur application aux biocapteurs. / Plasma environments constitute powerful tools in materials science by allowing the creation of innovative materials and the enhancement of long existing materials that would not otherwise be achievable. The remarkable plasma potential derives from its ability to simultaneously provide dense fluxes of charged particles, chemically active molecules, radicals, heat and photons which may strongly influence the assembly pathways across different temporal and space scales, including the atomic one.In this thesis, microwave plasma-based methods have been applied to the synthesis of advanced carbon nanomaterials including graphene, nitrogen-doped graphene (N-graphene) and diamond-like structures. To this end, the focus was placed on the optimization of the production processes of two-dimensional (2D) carbon nanostructures, such as graphene and N-graphene, by further elaboration and refinement of the microwave plasma-based method developed at the Plasma Engineering Laboratory (PEL). The scaling up of the synthesis process for high-quality graphene using surface-wave plasmas operating at atmospheric pressure and argon-ethanol mixtures was successfully achieved. Moreover, N-graphene was synthetized via a single-step process, by adding nitrogen to the argon-ethanol mixture, and via two-step process, by submitting previously synthetized graphene to the remote region of a low-pressure argon-nitrogen plasma. Nitrogen atoms were usefully incorporated into the hexagonal graphene lattice, mainly as pyrrolic, pyridinic and quaternary bonds. A doping level of 25% was attained.Different types of carbon nanostructures, including graphene and diamond-like nanostructures, were also produced by using methane and carbon dioxide as carbon precursors in an argon plasma.Additionally, capacitively-coupled radio-frequency plasmas have been employed in the functionalization of graphene and in the synthesis of Polyaniline (PANI)-graphene composites. The potential uses of these materials were studied, with both showing favourable characteristics for their applicability in biosensing applications.
399

Processus de formation et de transformation de Place Royale à Québec : une histoire opérationnelle de son bâti et tissu urbain : une redécouverte des règles génératrices

Santos, Luiza 13 November 2023 (has links)
Ce mémoire propose une lecture nouvelle sur la restauration réalisée à Place Royale dans la basse ville historique de la ville de Québec, à travers les décisions sur le plan architectural et morphologique. Cette recherche révèle les intentions concrétisées par les travaux à la fois à l'échelle urbaine, architecturale et des intérieurs, en combinant les informations trouvées dans les archives, observées dans le cadre bâti et expliquées dans les références d'histoire. Plusieurs décisions illustrent des contradictions dans la mise en valeur du patrimoine. Elles témoignent d'une ambivalence entre les ambitions touristiques associées à la commémoration et celles d'être un lieu habité lié à un patrimoine vivant intégré au présent. La rénovation entre 1957 et 1999 des 85 bâtiments qui composent le secteur Place Royale, traduisent une volonté de représenter la Nouvelle-France tout en ménageant une anxieuse modernité. Ce mémoire puise dans l'abondante documentation produite à partir de 1955 pour mieux comprendre et investir ce patrimoine bâti, notamment dans la perspective de travaux d'entretien amorcés et futurs, afin d'orienter les méthodes d'intervention en patrimoine. Au-delà de l'image sociale et touristique de la ville de Québec, la place royale devient une occasion de questionner les fondements théoriques et méthodologiques de l'intervention architecturale en patrimoine au Québec, dénoncé en juin 2020 par le VGQ. Plus spécifiquement, la recherche permet de répondre à la question suivante : quels sont les caractères essentiels du bâti et de cet ensemble urbain qui permettent d'établir ses règles de composition ? Un patrimoine vécu demande d'être réinvesti à chaque génération, et le cas de Place Royale ouvre de nouvelles hypothèses sur ce qui peut être fait, ou non, pour concilier les attentes du présent face aux legs du passé. Cela permet de resituer l'identité culturelle et bâtie du lieu, de contribuer à intégrer les connaissances historiques, archéologiques et architecturales pour le grand public et les milieux professionnels dans leurs actions sur ce patrimoine bâti. / This dissertation proposes a new reading of the restoration of Place Royale in the historic lower town of Quebec City, through decisions on the architectural and morphological level. This research reveals the intentions of the work at the urban, architectural, and interior levels, combining information found in the archives, observed in the built environment, and explained in the history references. Several decisions illustrate contradictions in the enhancement of its built heritage. They show an ambivalence between the tourist ambitions associated with commemoration and those of being an inhabited place linked to a living heritage integrated into the present. Between 1957 and 1999, Place Royale's 80 buildings were renovated to replicate a representation of New France while maintaining an anxious modernity in several design decisions. This memoir took advantage of the abundant documentation produced from 1955 to better understand and investigate this built heritage. This research is critical to inform the heritage intervention methods considering the ongoing and future maintenance works. Beyond the social and tourist image of Quebec City, Place Royale becomes an opportunity to question the theoretical and methodological foundations of architectural intervention in heritage in Quebec, denounced in June 2020 by the Auditor general (VGQ). More specifically, to answer the following question: what are the essential characteristics of the building and this urban ensemble that allow us to establish its compositional rules? A lived heritage needs to be reinvested in each generation, and the case of Place Royale opens new hypotheses on what can be done, or not, to reconcile the expectations of the present with the legacies of the past. This allows the cultural and built identity of the place to be resituated, to contribute to the integration of historical, archaeological, and architectural knowledge for the public and professionals.
400

Nouveaux états quantiques de spin induits par frustration magnétique sur le réseau kagome / New quantum spin states induced by magnetic frustration on the kagome lattice

Kermarrec, Edwin 05 December 2012 (has links)
La déstabilisation de l’ordre antiferromagnétique de Néel au profit de nouvelles phases quantiques à température nulle à deux dimensions est envisageable grâce au phénomène de frustration magnétique. Le modèle théorique de spins Heisenberg S=1/2 répartis sur le réseau bidimensionnel frustré kagome, constitué de triangles joints uniquement par leurs sommets, est susceptible de stabiliser des phases quantiques originales de liquides de spin, qui ne présentent aucune brisure de symétrie à T = 0. Cette thèse a été consacrée à l’étude expérimentale de deux types de composés de spins S=1/2 (Cu2+) à géométrie kagome à l’aide de techniques spectroscopiques locales, la RMN et la μSR, ainsi que de mesures thermodynamiques (susceptibilité magnétique, chaleur spécifique). Dans Mg-herbertsmithite, la frustration est générée par une interaction d’échange premiers voisins antiferromagnétique J et est responsable d’un comportement liquide de spin jusqu’à des températures de l’ordre de J/10000. Par rapport au composé isostructural antérieur, Zn-herbertsmithite, nous avons montré qu’il possédait des propriétés physiques similaires tout en permettant une caractérisation fine du taux de défauts de substitutions Cu/Mg. Nos expériences réalisées à partir d’échantillons contrôlés permettent d’étudier finement l’origine des plateaux de relaxation observés en μSR à basse température en lien avec l’existence des défauts de spins interplans. La kapellasite et l’haydéite possèdent des interactions ferromagnétiques (J1) et antiferromagnétiques (Jd), offrant la possibilité d’explorer le diagramme de phases générées par la compétition de ces interactions sur le réseau kagome. Pour la kapellasite, nos mesures de μSR démontrent le caractère liquide de spin jusqu’à T ≈ J1/1000. La dépendance en température de la susceptibilité magnétique sondée par RMN du 35Cl ainsi que de la chaleur spécifique permettent d’évaluer le rapport Jd/J1 = 0.85, qui localise classiquement son fondamental au sein d’une phase originale de spins non coplanaires à 12 sous-réseaux appelée cuboc2. Les interactions présentes dans l’haydéite localisent son fondamental au sein de la phase ferromagnétique, en bon accord avec nos mesures qui indiquent une transition partielle à caractère ferromagnétique à T = 4 K. Cette étude confirme la pertinence du réseau kagome frustré pour la stabilisation de phases quantiques originales et démontre l’existence d’une nouvelle phase liquide de spin sur ce réseau, distincte de celle attendue pour des spins couplés antiferromagnétiquement. / Magnetic frustration helps destabilizing conventional Néel order at T = 0 in dimensions 2, and therefore allows the emergence of new original quantum phases. The S=1/2 Heisenberg Hamiltonian on the highly frustrated kagome lattice, which is made of corner-sharing triangles, is expected to stabilize such quantum states, including the spin liquid ones which do not break any symmetry even at T = 0. This thesis work focuses on the experimental study of two kinds of S=1/2 (Cu2+) kagome compounds using NMR and μSR local probes as well as thermodynamic measurements (magnetic susceptibility, specific heat).In Mg-herbertsmithite magnetic frustration occurs thanks to a first nearest-neighbor antiferromagnetic interaction J and is responsible for the spin liquid behavior observed down to T = J/10000. In comparison with the formerly known isostructural counterpart Zn-herbertsmithite, we showed that it shares similar physical magnetic properties while allowing sensitive structural refinements and therefore a control of the level of Cu/Mg substitutions defects. Our experiments performed on such well controlled materials allow us to investigate the origin of the dynamical relaxation in these compounds in relation with the existence of interplane spins defects. Kapellasite and haydeite possess both ferromagnetic (J1) and antiferromagnetic (Jd) interactions. They offer the possibility to explore the phase diagram generated by such competing interactions on the kagome lattice. For kapellasite, our μSR experiments evidenced a spin liquid character down to T ≈ J1/1000. We tracked the temperature dependence of the magnetic susceptibility probed by 35Cl-NMR as well as of the specific heat, from which the ratio Jd/J1 = 0.85 can be evaluated. This ratio locates the ground-state of kapellasite to be within an original non-coplanar spin phase described by 12 magnetic sublattices and called cuboc2. Magnetic exchanges in haydeite locate its ground-state within the ferromagnetic phase. Both our local and thermodynamic measurements point to a partial ferromagnetic transition at T = 4 K. This study confirms the relevance of the frustrated quantum kagome lattice to stabilize original quantum phases and suggests the existence of a new spin liquid phase, distinct from the one expected for antiferromagnetically coupled spins.

Page generated in 0.1066 seconds