• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 66
  • 32
  • 18
  • 12
  • 10
  • 9
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 178
  • 37
  • 27
  • 24
  • 22
  • 20
  • 17
  • 16
  • 14
  • 14
  • 13
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Traçage de la mobilité des radionucléides naturels en milieu sédimentaire profond à l'aide des déséquilibres radioactifs (234U/238U): Application aux formations mésozoïques de l'Est du Bassin de Paris

Deschamps, Pierre 28 November 2003 (has links) (PDF)
Cette thèse s'inscrit dans le cadre des études de "faisabilité" du stockage des déchets nucléaires en formations géologiques profondes. Elle s'intègre au programme de recherche conduit par l'agence française pour la gestion des déchets nucléaires (ANDRA) sur le site expérimental Meuse/Haute-Marne de type "argile", situé dans les formations sédimentaires Mésozoïques faiblement perméables de l'Est du bassin parisien. L'étude a pour objet la caractérisation de la migration des radionucléides naturels au sein de la formation argileuse Callovo-Oxfordienne cible et de ses encaissants carbonatés Oxfordien et Bathonien, afin d'estimer les propriétés de confinement à long terme de cette série sédimentaire. Elle repose sur l'analyse de haute précision des déséquilibres radioactifs au sein des familles naturelles de l'uranium et du thorium. L'intérêt de faire appel aux déséquilibres U-Th réside dans le fait qu'ils sont susceptibles, d'une part, de mettre en évidence et de caractériser les processus contrôlant la mise en solution et la migration in situ des radionucléides et, d'autre part, de fournir des indications temporelles sur les processus et perturbations physico-géochimiques auxquelles la formation géologique a été soumise sur des échelles de temps variables, selon les isotopes utilisés, mais pouvant atteindre jusqu'à deux millions d'années environ, via le déséquilibre 234U/238U. Les objectifs initiaux de l'étude étaient: i) de déterminer en particulier l'état d'équilibre -ou de déséquilibre- radioactif entre l'uranium-238 et son descendant l'uranium-234 (T1/2 (234U) = 245250 a) dans les formations profondes au sein desquelles le laboratoire expérimental de l'ANDRA est en cours d'implantation; ii) de caractériser, le cas échéant, les processus responsables des déséquilibres radioactifs observés; et iii) d'en préciser les implications chronologiques en ce qui a trait à la stabilité chimique de ces formations géologiques. Compte tenu de ces objectifs, la précision et la justesse analytique des mesures des déséquilibres radioactifs (234U/238U) sont apparues comme la clé de la réussite d'une telle entreprise. Une grande partie des travaux a donc été consacrée à la mise au point de l'analyse des déséquilibres radioactifs à l'aide d'un spectromètre de masse à multi-collection et source plasma (MC-ICP-MS). In fine, une reproductibilité analytique de l'ordre de 1‰ (2 s) pour la détermination du rapport 234U/238U sur échantillons géologiques a été obtenue. Haute précision et justesse analytique nous ont ainsi permis de démontrer un état d'équilibre radioactif 234U/238U dans les argilites Callovo-Oxfordiennes. Ce résultat indique l'immobilité de l'uranium dans la formation cible et, par suite, atteste d'un milieu chimiquement inactif et clos, du moins au cours de la période actuelle, pour ce qui concerne l'uranium et, par extension, les actinides naturels. Ce résultat est fondamental au regard de la problématique d'enfouissement des déchets radioactifs car il procure une confirmation in situ des capacités de confinement de la couche argileuse cible, dans les conditions physico-chimiques actuelles. A contrario, des déséquilibres (234U/238U) ont été systématiquement observés au niveau de zones soumises à des processus de pression-dissolution (stylolites) dans les formations carbonatées encaissantes de l'Oxfordien et du Bathonien. Ces déséquilibres témoignent d'une remobilisation discrète de l'uranium au cours des derniers deux millions d'années et donc de processus actifs de transport de matière au sein de ces formations. La répartition isotopique de l'uranium telle qu'elle a été révélée, par un sous-échantillonnage systématique au niveau des surfaces de pression-dissolution et par la réalisation d'analyses sériées perpendiculairement à un joint stylolitique, a permis de mettre en évidence une relocalisation de l'uranium depuis la surface stylolitique vers la matrice carbonatée de part et d'autre du stylolite. Bien que soumise à des transferts de matière, une zone stylolitisée fonctionnerait en toute vraisemblance en système fermé vis-à-vis de l'uranium. Ce résultat est surprenant tant ces formations profondes, fortement compactées et peu perméables, ne semblaient pas pouvoir être sujettes à des transferts de matière significatifs à l'échelle de temps des déséquilibres U-Th. Bien qu'il soit pour l'instant difficile de conclure de façon univoque à ce sujet, il est probable que ce phénomène traduit une stylolitisation encore active, ou tout du moins, une réactivation du phénomène au cours des deux derniers millions d'années.
152

Nouveaux outils en sciences de l’environnement : géochimie isotopique du Cu‐Zn et spéciation des Eléments en Trace Métalliques par titrage acidimétrique. Développement et applications aux phases particulaires de l’estuaire de l’Escaut, aux émissions atmosphériques et aux sols contaminés d’Angleur/Prayon.

Petit, Jérôme C. J. 13 November 2009 (has links)
Les potentiels de nouveaux moyens d’investigation en sciences de l’environnement, tel que la géochimie des isotopes stables du Cu et du Zn et l’étude de la spéciation des éléments en trace métalliques (ETM) par titrage acidimétrique sont évalués dans le cadre de trois cas d’études, faisant intervenir des matériaux de matrices et de concentrations en ETM variables. Afin de mettre en évidence de très subtiles variations des compositions isotopiques du Cu et du Zn dans les matériaux particulaires variablement pollués, une attention particulière à été voué à la mise au point des méthodes de séparation chimique et d’analyse par MC-ICP-MS. La méthodologie analytique a été développée afin d’exploiter tout les avantages techniques offerts par le spectromètre de masse à l’ULB. Différents modes d’introduction (plasma humide vs plasma sec (Aridus/DSN), d’acquisition des mesures (mode statique ou dynamique) de correction du biais de masse (dopage au Cu, au Zn et au Ga; correction SSBM, SSBC et EEN)ont été évaluées, pour leurs effets sur la précision et la reproductibilité des mesures. D’autres travaux ont permis de quantifier les effets des interférences spectrales et non spectrales par les éléments de la matrice (Ti, Cr, Co,Fe, Ba, Si, Na, Mg et Ca) et par le rapport dopant/analyte en vue de comprendre les sources d’inexactitudes des mesures isotopiques et d’y remédier. Les données isotopiques acquises sur des minerais, sur des (plaques de) dépôts atmosphériques (usine Pb-Zn Metaleurop de Noyelles-Godault), sur des sédiments et des matières en suspension (estuaire de l’Escaut et mer du Nord), révèlent des variations significatives des compositions isotopiques du cuivre et du zinc. Dans l’estuaire de l’Escaut, les variations temporelles (carotte non perturbée, enregistrant la sédimentation sur 30 ans) et spatiales (matières en suspension échantillonnées sur 100 km, selon le profil de salinité) sont caractérisées par des signatures isotopiques en Zn anticorrélées à celle du Cu. Les données peuvent permettre de distinguer le fond géochimique naturel (le « réservoir naturel »), les pollutions diffuses (le « réservoir anthropique commun »- intégrant de multiples sources de contamination en provenance du bassin versant) et certaines pollutions ponctuelles associées à la métallurgie du Zn. Alors que les procédés utilisés en métallurgie sont eux,capable de produire des signatures isotopiques très fractionnées en Zn, ni la diagenèse précoce dans les sédiments, ni les gradients physicochimiques développés lors du mélange des eaux continentales et marines ne sont capables d’affecter significativement la signature isotopique du Cu et du Zn en phase particulaire. Dans de tels milieux, les signatures isotopiques en Cu et Zn (ainsi que celles en Pb) semblent n’être contrôlées que par le mélange conservatif entre le « réservoir naturel » et le « réservoir anthropique commun ». Les données en elles-mêmes constituent la seule base de données isotopiques en Cu, Zn, Pb dans des matériaux particulaires anthropisés estuariens et marins jamais produite à ce jour. Elles permettent de prédire que la signature isotopique en Cu du « réservoir naturel » devrait être légèrement plus enrichie en isotopes lourds que celle du réservoir « anthropique commun » (par analogie au Zn). Si la géochimie isotopique du Cu et du Zn a le potentiel de distinguer différentes sources de pollution, l’évaluation des risques liés à ces pollutions doit tenir compte des formes chimiques des ETM, typiquement mises en évidences par les méthodes d’extraction sélectives (séquentielles, dont le protocole BCR). La méthode alternative proposée pour l’étude de la spéciation, plus versatile (capable de mettre en évidence des phases non prédéfinies et applicable à une variété de matrices plus large) est capable de surmonter plusieurs limitations (dont les problèmes de sélectivité liées au mauvais contrôle de l’acidité du milieu réactionnel) caractéristiques des méthodes traditionnelles. Appliquée à des sédiments marins/estuariens et des sols, la méthode de titrage acidimétrique s’est révélée capable de quantifier les proportions relatives des phases acido-solubles (principal problème des méthodes d’extraction sélectives), ce qui permet d’établir univoquement la spéciation des éléments qui leurs sont associés, d’évaluer la réactivité des ETM vis-à-vis du pH, mais aussi d’évaluer la sélectivité des protocoles d’extraction séquentielle « BCR » et « Tessier ». La méthode de titrage acidimétrique apporte également des informations importantes sur la géochimie des éléments majeurs dans l’estuaire de l’Escaut et met en évidence les particularités minéralogiques des sols pollués en comparaison aux sédiments. Les études de cas démontrent que ces nouvelles techniques ont des applications dans le domaine de la géochimie de l’environnement, mais peuvent également être vouées, sur le moyen/long terme à une utilisation sortant du cadre des sciences exactes. En effet, l’identification/ discrimination des sources de pollutions et l’évaluation des risques de remobilisation des polluants métalliques font partie des nombreuses questions posées par la société aux scientifiques de l’environnement.
153

Flykten : en tolkning av exil / The Escape : an interpretation of exile

Niskanen, Anoo January 2013 (has links)
The main purpose of this thesis is to discuss what exile writing is and who can be seen as an exile writer. If the word “exile” is related to forced dislocation, like Paul Tabori and Sopia A. McClennen describes it, who can be viewed as an exile writer? Is Anders Olsson’s definition of an exile writer acceptable or not? Could the The Escape, a future story about exiled Northern Europeans in Myanmar, be classified as exile literature? Another purpose with this text is to describe how a story about exile can be made realistic and tangible to a reader who has not experienced exile. How can the exile experience be shown in a text? The third major aim with this thesis is to discuss how an ethnographic study differs from a fictive novel about another culture. Is an academic text more close to reality than fiction and what is reality anyway? Is it possible to make a mix of an academic study and a fictive novel?
154

Multicarrier communication systems with low sensibility to nonlinear amplification

Deumal Herraiz, Marc 11 July 2008 (has links)
Actualment estem entrant a una nova era de la informació amb gran demanda de sistemes de comunicació sense fils. Nous serveis com dades i video requereixen transmissions fiables d'alta velocitat, fins i tot en escenaris d'alta mobilitat. A més a més, la dificultat d'assignar el limitat espectre radioelèctric juntament amb la necessitat d'incrementar el temps de vida de les bateries dels terminals mòbils, requereix el diseny de transceptors que usin la potència i l'ampla de banda disponibles de manera eficient. Les comunicacions multiportadora basades en OFDM són capaces de satisfer la majoria d'aquests requeriments. Però, entre altres reptes, reduir la sensibilitat a la amplificació no-lineal és un factor clau durant el diseny. En aquesta tesi doctoral s'analitza la sensibilitat dels sistemes multiportadora basats en OFDM a l'amplificació no-lineal i es consideren formes eficients per superar aquest problema. La tesi s'enfoca principalment al problema de reduir les fluctuacions de l'envolupant del senyal transmès. En aquest sentit es presenta també un estudi de les mètriques de l'envolupant del senyal, PAPR i CM. A més a més, basant-nos en l'anàlisis presentat es proposen noves tècniques per sistemes OFDM i MC-SS. Per MC-SS, també es tracta el diseny d'una tècnica de postprocessament en forma de detector multiusuari per canals no-lineals. / Actualmente estamos entrando en una nueva era de la información donde se da una gran demanda de sistemas de comunicación inalámbricos. Nuevos servicios como datos y vídeo requieren transmisiones fiables de alta velocidad, incluso en escenarios de alta movilidad. Además, la dificultad de asignar el limitado espectro radioeléctrico junto con la necesidad de incrementar el tiempo de vida de las baterías de los terminales móviles, requiere el diseño de transceptores que usen eficientemente la potencia y el ancho de banda disponibles. Las comunicaciones multiportadora basadas en OFDM son capaces de satisfacer la mayoría de dichos requerimientos. Sin embargo, entre otros retos, reducir su sensibilidad a la amplificación no-lineal es un factor clave durante el diseño. En esta tesis se analiza la sensibilidad de los sistemas multiportadora basados en OFDM a la amplificación no-lineal y se consideran formas eficientes para superar dicho problema. La tesis se enfoca principalmente al problema de reducir las fluctuaciones de la envolvente. En este sentido también se presenta un estudio de las métricas de la señal, PAPR y CM. Además, basándonos en el análisis presentado se proponen nuevas técnicas para OFDM y MC-SS. Para MC-SS, también se trata el diseño de un detector multiusuario para canales no-lineales. / We are now facing a new information age with high demand of wireless communication systems. New services such as data and video require achieving reliable high-speed transmissions even in high mobility scenarios. Moreover, the difficulty to allocate so many wireless communication systems in the limited frequency band in addition to the demand for long battery life requires designing spectrum and power efficient transceivers. Multicarrier communications based on OFDM are known to fulfill most of the requirements of such systems. However, among other challenges, reducing the sensitivity to nonlinear amplification has become a design key. In this thesis the sensitivity of OFDM-based multicarrier systems to nonlinear amplification is analyzed and efficient ways to overcome this problem are considered. The focus is mainly on the problem of reducing the envelope fluctuations. Therefore, a study of the signal metrics, namely PAPR and CM, is also presented. From the presented analysis, several new techniques for OFDM and MC-SS are proposed. For MC-SS, the design of a post-processing technique in the form of a multiuser detector for nonlinearly distorted MC-SS symbols is also addressed.
155

An EGSnrc Monte Carlo investigation of backscattered electrons from internal shielding in clinical electron beams

de Vries, Rowen January 2014 (has links)
The ability to accurately predict dose from electron backscatter created by internal lead shielding utilized during various superficial electron beam treatments (EBT), such as lip carcinoma, is required to avoid the possibility of an overdose. Methods for predicting this dose include the use of empirical equations or physically measuring the electron backscatter factor (EBF) and upstream electron backscatter intensity (EBI). The EBF and upstream EBI are defined as the ratio of dose at, or upstream, from the shielding interface with and without the shielding present respectively. The accuracy of these equations for the local treatment machines was recognised as an area that required verification; in addition the ability of XiO's electron Monte Carlo (eMC) treatment planning algorithm to handle lead interfaces was examined. A Monte Carlo simulation using the EGSnrc package of a Siemens Artiste Linac was developed for 6, 9, 12, and 15 MeV electron energies and was verified against physical measurements to within an accuracy of 2 % and 2 mm. Electron backscatter dose distributions were predicated using the MC model, Gafchromic film, and XiO eMC, which when compared showed that XiO's eMC could not accurately calculate dose at the lead interface. Several MC simulations of lead interfaces at different depths, corresponding to energies of 0.2-14 MeV at the interfaces, were used to validate the accuracy of the equations, with the results concluding that the equation could not accurately predict EBF and EBI values, especially at low energies. From this data, an equation was derived to allow estimation of the EBF and upstream EBI, which agreed to within 1.3 % for the EBF values and can predict the upstream EBI to a clinically acceptable level for all energies.
156

Resource Allocation Strategies and Linear Precoded OFDM Optimization for Ultra-Wideband Communications

Stephan, Antoine 15 December 2008 (has links) (PDF)
L'ultra large bande (UWB) est une nouvelle technologie à fort potentiel pour les futurs réseaux personnels WPAN (wireless personal area networks) à très haut débit et faible portée. L'objectif de cette thèse est de proposer un nouveau système UWB, de type LP-OFDM (linear precoded orthogonal frequency division multiplexing) pour les applications WPAN, visant à améliorer la solution MB-OFDM (multiband OFDM), supportée par l'Alliance WiMedia.<br />Dans un premier temps, une étude analytique est menée sur l'apport de la composante de précodage au système UWB, cette composante se réduisant en pratique à une simple addition d'une matrice d'étalement fréquentiel. La fonction de précodage est ensuite optimisée et différentes stratégies d'allocation dynamique des ressources sont étudiées. En considérant une approche classique tenant compte du taux d'erreur symbole (TES) ainsi qu'une nouvelle approche tenant compte du taux d'erreur binaire (TEB) moyen, différents algorithmes d'allocation dynamique visant à maximiser la portée ou le débit du système, ou à minimiser le TEB moyen du système, sont proposés. Les résultats analytiques montrent l'avantage d'utiliser une composante de précodage pour les applications UWB dont le canal est très sélectif en fréquence.<br />Dans un second temps, une étude système complémentaire à l'étude analytique est réalisée pour le système LP-OFDM UWB. Une composante MIMO est ajoutée au système, d'une part pour augmenter la portée du système à bas et moyen débit, et d'autre part pour augmenter le débit du système qui peut atteindre dans ce cas 1 gigabit/s. Les résultats de simulation sur le système proposé montrent que ce système est plus performant que le système MB-OFDM pour les débits déjà proposés dans la norme, et qu'il offre un débit deux fois plus important que ceux de la norme avec même une meilleure performance en terme de TEB.
157

Stratégies d'allocation des ressources et optimisation de solutions OFDM avec précodage linéaire pour les communications ultra large bande

Stephan, Antoine 15 December 2008 (has links) (PDF)
L'ultra large bande (UWB) est une nouvelle technologie à fort potentiel pour les futurs réseaux personnels WPAN (wireless personal area networks) à très haut débit et faible portée. L'objectif de cette thèse est de proposer un nouveau système UWB, de type LP-OFDM (linear precoded orthogonal frequency division multiplexing) pour les applications WPAN, visant à améliorer la solution MB-OFDM (multiband OFDM), supportée par l'Alliance WiMedia.<br />Dans un premier temps, une étude analytique est menée sur l'apport de la composante de précodage au système UWB, cette composante se réduisant en pratique à une simple addition d'une matrice d'étalement fréquentiel. La fonction de précodage est ensuite optimisée et différentes stratégies d'allocation dynamique des ressources sont étudiées. En considérant une approche classique tenant compte du taux d'erreur symbole (TES) ainsi qu'une nouvelle approche tenant compte du taux d'erreur binaire (TEB) moyen, différents algorithmes d'allocation dynamique visant à maximiser la portée ou le débit du système, ou à minimiser le TEB moyen du système, sont proposés. Les résultats analytiques montrent l'avantage d'utiliser une composante de précodage pour les applications UWB dont le canal est très sélectif en fréquence.<br />Dans un second temps, une étude système complémentaire à l'étude analytique est réalisée pour le système LP-OFDM UWB. Une composante MIMO est ajoutée au système, d'une part pour augmenter la portée du système à bas et moyen débit, et d'autre part pour augmenter le débit du système qui peut atteindre dans ce cas 1 gigabit/s. Les résultats de simulation sur le système proposé montrent que ce système est plus performant que le système MB-OFDM pour les débits déjà proposés dans la norme, et qu'il offre un débit deux fois plus important que ceux de la norme avec même une meilleure performance en terme de TEB.
158

Multi-label Classification with Multiple Label Correlation Orders And Structures

Posinasetty, Anusha January 2016 (has links) (PDF)
Multilabel classification has attracted much interest in recent times due to the wide applicability of the problem and the challenges involved in learning a classifier for multilabeled data. A crucial aspect of multilabel classification is to discover the structure and order of correlations among labels and their effect on the quality of the classifier. In this work, we propose a structural Support Vector Machine (structural SVM) based framework which enables us to systematically investigate the importance of label correlations in multi-label classification. The proposed framework is very flexible and provides a unified approach to handle multiple correlation orders and structures in an adaptive manner and helps to effectively assess the importance of label correlations in improving the generalization performance. We perform extensive empirical evaluation on several datasets from different domains and present results on various performance metrics. Our experiments provide for the first time, interesting insights into the following questions: a) Are label correlations always beneficial in multilabel classification? b) What effect do label correlations have on multiple performance metrics typically used in multilabel classification? c) Is label correlation order significant and if so, what would be the favorable correlation order for a given dataset and a given performance metric? and d) Can we make useful suggestions on the label correlation structure?
159

Toxoplasma gondii dans la viande au détail au Canada : prévalence, quantification et facteurs de risque dans une perspective de santé publique

Lafrance-Girard, Corinne 04 1900 (has links)
No description available.
160

Cost optimization in the cloud : An analysis on how to apply an optimization framework to the procurement of cloud contracts at Spotify

Ekholm, Harald, Englund, Daniel January 2020 (has links)
In the modern era of IT, cloud computing is becoming the new standard. Companies have gone from owning their own data centers to procuring virtualized computational resources as a service. This technology opens up for elasticity and cost savings. Computational resources have gone from being a capital expenditure to an operational expenditure. Vendors, such as Google, Amazon, and Microsoft, offer these services globally with different provisioning alternatives. In this thesis, we focus on providing a cost optimization algorithm for Spotify on the Google Cloud Platform. To achieve this we  construct an algorithm that breaks up the problem in four different parts. Firstly, we generate trajectories of monthly active users. Secondly, we split these trajectories up in regions and redistribute monthly active users to better describe the actual Google Cloud Platform footprint. Thirdly we calculate usage per monthly active users quotas from a representative week of usage and use these to translate the redistributed monthly active users trajectories to usage. Lastly, we apply an optimization algorithm to these trajectories and obtain an objective value. These results are then evaluated using statistical methods to determine the reliability. The final model solves the problem to optimality and provides statistically reliable results. As a consequence, we can give recommendations to Spotify on how to minimize their cloud cost, while considering the uncertainty in demand.

Page generated in 0.0268 seconds