Spelling suggestions: "subject:"masse"" "subject:"based""
81 |
Caractérisation électrique de transistors sans jonctions avec simulation numérique / Electrical characterization of junctionless transistors with numerical simulationJeon, Dae-Young 23 October 2013 (has links)
L'invention du premier transistor à Bell lab's, dans le groupe de W. Shockley, en 1947 a été suivie d'une ère de développement des circuits intégrés (IC). Depuis plusieurs dizaines d'années, la dimension critique des transistors métal/oxyde/semi-conducteurs (les transistors MOS), la longueur physique de la grille, a diminué à un rythme régulier. Cette évolution, motivée par des raisons économiques, a été anticipée par G. Moore, et est de ce fait connue sous le nom de "loi de Moore". La dimension de grille a d'ores et déjà été réduite de plus de 2 ordres de grandeur et, dans son édition2012, l'association ITRS prédit qu'elle décroîtra encore, de 22nm en 2011 à environ 6nm en 2026 [1].Toutefois, cette réduction des dimensions fait apparaître un certain nombre d'effets secondaires qui altèrent le fonctionnement idéal des transistors MOS [2]. / In this dissertation, the performance of junction less transistors (JLTs) as possible candidates for the continuation of Moore’s law was investigated experimentally based on an in-depth study of their electrical characteristics. Current-voltage I-V and capacitance-voltage C-V were analyzed in a wide rangeof temperatures (from 80 K to 350 K) in correlation with device operation mechanism. Lowfrequencynoise was also studied and compared to that of inversion-mode transistors. This study requirednew parameter extraction methods to be defined for JLTs. Their validity was confirmed by 2-dimensional (2D) simulation results. They will be detailed in this dissertation.
|
82 |
Conception d'un actionneur adapté à l'interaction physique dans un contexte de robotiqueFauteux, Philippe January 2009 (has links)
Les systèmes robotiques modernes sont généralement des machines mécaniquement rigides et contrôlées en position. Cette conception, bien que cohérente avec une recherche de performance en contrôle du mouvement, limite l'applicabilité aux environnements structurés et sécurisés. Pour que leur domaine d'application puisse s'étendre aux environnements partiellement inconnus, dynamiques ou anthropiques, des capacités d'interaction physique accrues sont nécessaires. Dans ce contexte, répondre aux exigences de sécurité, de robustesse et de polyvalence représente un défi, entre autres parce que les performances des technologies d'actionneur communément disponibles ne sont pas adéquates. Pour adresser cette problématique, ce mémoire propose une solution technologique basée sur l'usage synergique d'un moteur électromagnétique et de deux freins magnétorhéologiques. Le moteur agit comme source de vitesse et fournit la puissance mécanique. Les deux freins dirigent ce flux de puissance en contrôlant l'amplitude et la direction du couple appliqué en sortie. Cette approche découple la sortie de l'actionneur du moteur, permettant une impédance (inertie et friction) de sortie très faible. Elle permet également un contrôle en force relativement précis à haute bande passante. À l'aide de l'information de position de la sortie, elle permet également de réaliser des interactions complexes de façon sécuritaire et performante. Dans ce mémoire, le concept et la réalisation de prototypes sont présentés. Les performances de contrôle de force, d'interaction et de mouvement sont illustrées et discutées. Ces résultats indiquent des performances relativement uniques qui valident le potentiel de l'actionneur pour répondre à la problématique décrite. Une suite possible à ce projet serait la révision du prototype en vue d'optimiser des paramètres tels que la densité de couple, le coût de fabrication et la robustesse. Il s'agirait ensuite de tester l'actionneur dans un système robotique effectuant une tâche choisie. La technologie développée au cours de la maîtrise et décrite dans ce mémoire fait l'objet d'une demande de brevet international (protocole PCT) [Fauteux et al., 2009b].
|
83 |
À un pas de l'ethnogenèse les individus d'ascendance mixte en Basse-Côte-Nord, 1850-1940Lauzé, Vincent January 2012 (has links)
Ce mémoire aborde la question de l'ethnogenèse et plus particulièrement, il tente de mettre en place une méthodologie efficace pour savoir s'il y a présence ou absence d'ethnogenèse dans une région donnée. Ainsi, dans le cas présent, la région étudiée est le territoire de la Basse-Côte-Nord entre les années 1850 et 1940. Le tout débute par une étude comparative de trois foyers de métissage importants en Amérique de Nord, soit l'Ouest canadien, le pourtour des Grands Lacs et l'Acadie. Grâce à l'étude de ces régions, les facteurs critiques de la présence ou l'absence d'ethnogenèse sont mis au jour. Par la suite, ces facteurs sont confrontés à la réalité de la Basse-Côte-Nord afin de savoir s'il y a eu ethnogenèse au sein de cette région. Finalement, le groupe d'individus d'ascendance mixte est étudié par le biais de la communauté et de leur réseau social pour savoir s'il diffère socialement des autres individus de la région. L'hypothèse de ce mémoire est que les individus d'ascendance mixte de la Basse-Côte-Nord s'identifient à la communauté eurocanadienne. Toutefois, cette communauté se distingue du reste de la population québécoise par sa culture fortement adaptée au milieu dans lequel elle vit, de là la proximité avec la culture esquimaude. Car en plus d'être génétiquement métissée, cette population a subi un métissage culturel relié à une adaptation au territoire. L'étude de la communauté et du réseau social a pu démontrer qu'il n'y avait pas de différence entre les individus d'ascendance mixte et le reste de la population sur le territoire de la Basse-Côte-Nord. De plus, les facteurs clés pour détecter la présence de l'ethnogenèse n'ont pas été observés au sein de ce groupe métissé. En définitive, tous ces éléments réunis amènent donc le lecteur vers la seule conclusion possible, soit l'absence d'un groupe Métis en Basse-Côte-Nord.
|
84 |
Formation de molécules neutres dans le mécanisme d'induction du dommage de l'ADN par les électrons de basse énergieThiam, Mame Asta January 2008 (has links)
Un des principaux buts du domaine de la radiobiologie est de donner une description complète des effets de la radiation ionisante (RI) sur les cellules vivantes et sur l'organisme humain, en analysant la séquence des événements par lesquels les radiations modifient un système biologique. Ce sont tout d'abord les événements ultrarapides (10[indice supérieur -15] -10[indice supérieur -12]s) qui initient tout le processus de modification (dommage). Les études présentées dans ce mémoire portent sur ce type d'évènement durant l'irradiation de l'acide désoxyribonucléique (ADN). Ce choix est dicté par l'importance de l'ADN qui est la structure cible causant la létalité cellulaire. Les électrons de basse énergie (EBE) représentent un élément très important en sciences des radiations, surtout en ce qui concerne les phénomènes ultrarapides (de l'ordre de la femtoseconde (fs)) se produisant lors de l'impact de la radiation sur le milieu biologique. En effet, suite à l'impact du rayonnement ionisant (RI) sur l'ADN, des électrons appelés électrons secondaires (ES) sont arrachés de la cible. Il a été montré, lors d'études récentes, que l'énergie la plus probable de ces ES est de 9-10 eV et qu'ils portent en majorité une énergie inférieure à 25 eV (Pimblott et La Verne, 2007). En plus, dans une cellule irradiée, il y a environ 10 5 produits secondaires (PS) par 1 MeV d'énergie déposée (Pimblott et La Verne, 1995 ; Sanche, 2005), et parmi ces PS, il y a environ 4x10[indice supérieur 4] ES. Il est donc pertinent, voire nécessaire, d'étudier l'effet des ES de basse énergie sur l'ADN. Des études de ce genre ont été plusieurs fois réalisées auparavant. Cependant, les molécules neutres, qui pourtant ont un rôle très important dans le dommage à l'ADN, ne sont pas assez étudiées par rapport aux ions par exemple. L'effet sur des monocouches autoassemblées ("Self Assembled Monolayers" : SAM) d'oligonucléotides (ODN) simple brin chimisorbés sur un substrat d'or a été étudié par spectrométrie de masse des espèces neutres désorbées suite à l'impact électronique. Les SAM sont bombardées à haut courant (10[indice supérieur -6] Amp) et dans une chambre à hyper vide (10[indice supérieur -9] Torr) avec des électrons ayant une énergie de 3 à 25 eV, grâce à un canon collimé magnétiquement. Nos résultats montrent que les EBE ont des effets directs et indirects sur l'ADN. Ces effets semblent être principalement des cassures de brin. Il n'y a pas eu observation de molécules de sucre ou de fragments contenant du phosphore ou encore de bases d'ADN entières. Cependant, nous observons la formation de nouvelles (pour ce type d'expériences) molécules neutres. La section efficace absolue est obtenue à partir de la pression partielle absolue des molécules neutres. Nos résultats montrent qu'en plus des mécanismes résonnants tels que l'attachement dissociatif d'électron (ADE), des excitations non résonantes (dissociations directes) sont à l'origine du dommage à l'ADN. Et les courbes de section efficace obtenues pour la majorité des molécules neutres ont la même allure que les courbes de section efficace de cassure simple brin obtenues par Cai et al. (2006). D'autre part, avec la proximité de notre substrat d'or, les rendements de désorption de fragments neutres ont pu être réduits (Rowntree et al., 1996) et par conséquent les dommages pourraient s'avérer plus importants dans le milieu biologique. Nous avons aussi suggéré quelques mécanismes de formation des molécules neutres. Les EBE ont des effets importants sur l'ADN et ces effets dépendent de l'environnement et de la topologie moléculaire de l'ADN (Abdoul-Carime et al., 2000). L'importance de ces effets implique l'action des EBE en radiobiologie et en radiothérapie.
|
85 |
Nouvelle méthode expérimentale pour mesurer les dommages à l'ADN induits par la radiation / Quantification of electron induced desorption in thin films of thymine and thymidineLahaie, Pierre-Olivier January 2015 (has links)
Résumé : Lors de l’utilisation de la radiation pour le diagnostic et le traitement du cancer, l’ADN est une cible importante due à son rôle dans la division cellulaire. La radiation y dépose de l’énergie par production abondante (10[indice supérieur 5] e[indice supérieur −]/MeV) d’électrons de basse énergie (EBE) (<50 eV) menant à la production de radicaux et à la dissociation de molécules. Une meilleure compréhension de ces phénomènes physico-chimiques mènera au développement de nouvelles stratégies en radioprotection et en radiothérapie. Il est primordial d’identifier et de quantifier ces dommages initiaux. Suite à des résultats obtenus par des expériences récentes (Li et al., 2010) sur des couches minces d’ADN irradiées par des EBE dans le vide, nous suggérons que certains produits désorbent en quantité significative. Nous proposons une méthode pour mesurer cette perte de matière en utilisant une balance à quartz pour mesurer in situ les changements de masse totale. Ce mémoire présentera la conception et la construction de l’appareil ainsi que les résultats d’irradiation de la thymine et de la thymidine. À 25 ◦ C, le taux de perte de masse spontanée des échantillons joue un rôle important pour les petites molécules comme la thymine (126 uma). L’irradiation augmente d’abord ce taux qui diminue d’un facteur 5 à 15 après une exposition prolongée, signe de modifications notables de l’échantillon. Pour des molécules plus imposantes comme la thymidine (242 uma), il n’y a pas de désorption spontanée et le taux de désorption induite par des électrons de 50 eV est de 0,4 ± 0,1 uma/e[indice supérieur -]. Cette méthode, nécessaire à la calibration d’autres expériences réalisées par HPLC et spectrométrie de masse, permet de compléter la quantificationdes fragments, qui peuvent aussi être l’origine de lésions subséquentes. / Abstract : DNA is the principle target of radiotherapy (RT) due to its crucial role in cellular
growth and function. Ionizing radiation (IR) delivers its energy into the cell and its nucleus via sequential ionization events that produce many low-energy electrons (LEE)(10[superscript 5]e[superscript −] per MeV) which drive subsequent molecular dissociations and the formation of radicals and other reactive species. Since a better understanding of these mechanisms is needed to develop new strategies for radioprotection and RT, it is essential to identify and to quantify the initial damage induced by IR. Recent chromatographic (HPLC) analysis of short oligonucleotide irradiated with LEE in vacuo (Li et al., 2010) revealed that only ∼30 % of the loss of intact molecules could be explained by the formation of identifiable radiation products. We hypothesize that electron stimulated desorption (ESD) may account for some of the unexplained loss of the missing molecules. Here we propose a new experimental method to quantify this loss using a quartz crystal microbalance to measure in situ the total mass change due to ESD. This thesis describes the design and the construction of the novel apparatus and presents results for LEE irradiated thymine (thy) and thymidine (dT). We find that at 25 ◦ C, the thermal-induced mass loss is important for small molecules such as thy (126 amu). Upon irradiation at 50 eV, the rate of mass loss initially increases, but then decreased by factors between 5 and 15 indicating structural changes occurring at the sample surface. For larger molecules such as dT (242 amu), there is no thermal evaporation at 25 ◦ C and the LEE induced rate of desorption at 50 eV is 0.4 ± 0.1 amu/e[superscript -]. This work is needed to calibrate HPLC and mass spectrometry experiments allowing us to quantify the fragment species produced by LEE that are expected to induce further and biologically significant damage.
|
86 |
Quantification de l'évolution du relief Néogène et Quaternaire des Alpes occidentales. Apports de la thermochronologie basse-température couplée à la modélisation numériqueValla, Pierre 28 January 2011 (has links) (PDF)
L'évolution topographique des chaînes de montagne résulte d'interactions complexes entre la tectonique et le climat via l'action des processus de surface. La quantification de l'évolution du relief passe par le développement d'outils méthodologiques permettant d'identifier les processus mis en jeu pour des échelles de temps (103-106 années) et d'espace (1-100 km) caractéristiques de contextes orogéniques. Dans cette étude, l'évolution Néogène et Quaternaire du relief des Alpes Européennes est abordée à partir d'une approche couplant la thermochronométrie basse-température in-situ (essentiellement (U-Th-Sm)/He et 4He/3He sur apatite) et la modélisation numérique. Le développement d'une méthode numérique associant la modélisation thermo-cinématique (Pecube) à un algorithme d'inversion (Neighbourhood Algorithm) permet l'interprétation quantitative de données thermochronologiques en termes d'histoires d'exhumation et d'évolution du relief. La quantification de l'évolution du relief reste néanmoins problématique et fortement dépendante du contexte géomorphologique étudié. Cette étude implique la nécessité de repenser a priori la stratégie d'échantillonnage et d'interprétation des données suivant le contexte géomorphologique considéré et le signal d'exhumation que l'on cherche à quantifier via la thermochronologie. Enfin, l'application de cette approche à un jeu de données thermochronologiques échantillonnées dans le massif des Ecrins-Pelvoux (Alpes françaises) révèle l'existence d'un épisode d'exhumation rapide cessant autour de ~5-6 Ma, encadré par des taux d'exhumation plus modérés. Cependant, les données ne permettent pas de conclure quant à l'évolution tardi-Néogène du relief dans le massif des Ecrins-Pelvoux. L'application de la thermochronométrie 4He/3He dans la vallée du Rhône (Alpes suisses), couplée à des données thermochronologiques issues de la littérature, confirme un épisode d'exhumation rapide jusqu'à ~5-7 Ma, et révèle une augmentation majeure du relief local (~1-1.5 km) associée au creusement des vallées par d'importants appareils glaciaires. Le début de cette phase de creusement correspond à la transition climatique Mi-Pléistocène (~1 Ma) depuis des cycles glaciaires symétriques de 40 ka vers des cycles asymétriques (100 ka) de plus forte amplitude. Ces données permettent également de reconstruire la topographie pré-glaciaire du bassin versant du Rhône, et ainsi d'évaluer, à une échelle plus globale, l'impact des glaciations Pléistocènes sur l'évolution du relief. Des résultats préliminaires issus de la modélisation numérique des processus glaciaires mettent en évidence le potentiel d'une telle approche afin de tester quantitativement l'influence de la transition climatique Mi-Pléistocène sur le développement du relief alpin, ouvrant de nouvelles perspectives de recherche. Enfin, l'étude de l'évolution topographique post-glaciaire dans le massif des Ecrins-Pelvoux (modélisation numérique et utilisation du 10Be cosmogénique produit in-situ) met en évidence une dynamique d'érosion fluviale pouvant atteindre localement des vitesses de l'ordre du cm an-1, illustrant l'évolution géomorphologique rapide en réponse à la transition climatique entre le tardi-Pléistocène et l'Holocène.
|
87 |
Commande optimale d'un satellite à propulsion électrique utilisant les perturbations pour l'élimination des débris orbitaux en basse altitudeLangelier, Marie-Kiki January 2016 (has links)
Depuis le lancement du premier satellite Spoutnik 1 en 1957, l’environnement spatial est de plus en plus utilisé et le nombre de débris orbitaux se multiplie naturellement, soit par des explosions, des collisions ou tout simplement par les opérations normales des satellites. Au-delà d'un certain seuil, la densité des débris orbitaux risque de créer une réaction en chaîne incontrôlée : l’effet Kessler. L’élimination des débris orbitaux en basse altitude permettrait de limiter cette réaction et ainsi de préserver l’environnement spatial afin de pouvoir l’utiliser de façon sécuritaire. L’élimination des débris orbitaux est une opération complexe et coûteuse. Elle consiste à déplacer des objets spatiaux inactifs vers une orbite basse pour mener à leur désintégration dans la basse atmosphère terrestre. En utilisant les perturbations orbitales, il est possible de réduire le coût du carburant requis pour effectuer les manœuvres orbitales nécessaires à l’élimination de ces débris. L'objectif principal de cette étude consiste à développer une procédure et une stratégie de commande autonome afin de modifier l'orbite des satellites non opérationnels (débris) pour mener à leur désintégration naturelle tout en optimisant les facteurs carburant et temps. Pour ce faire, un modèle d’atmosphère basé sur le modèle de Jacchia (1977) est développé. Un modèle de la dynamique du satellite inclut aussi les perturbations principales, soit : traînée atmosphérique, non sphéricité et distribution non uniforme de la masse de la Terre. Ces modèles ainsi qu'un algorithme de commande optimale pour un propulseur électrique sont développés et le tout est validé par simulations numériques sur Matlab/Simulink. Au terme de cette étude, les conditions optimales dans lesquelles il faut laisser un débris afin qu'il se désintègre dans la basse atmosphère de la Terre en quelques semaines seront données (type d'orbite : altitude, inclinaison, etc.) ainsi que le coût en carburant pour une telle mission. Cette étude permettra de prouver qu'il est possible de réaliser des missions d'élimination des débris orbitaux tout en réduisant les coûts associés aux manœuvres orbitales par l'utilisation des perturbations naturelles de l'environnement.
|
88 |
Contribution à l'étude de l'inactivation de micro-organismes par plasmaB. Boudam, M. Karim January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
89 |
Applicateurs linéaires de champs EM utilisant la technologie triplaque pour l'entretien de décharges HF (50-2450 MHz)Pollak, Jérôme January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
90 |
Suivre Dieu, servir le roi : la noblesse protestante bas-normande, de 1520 au lendemain de la Révocation de l'édit de Nantes / Worship God and serve the King : The Norman protestant Nobility, from 1520 to the abolition of the Edict of Nantes in 1685Le Touzé, Isabelle 15 September 2012 (has links)
Aux trois moments que constituent d’abord la décennie 1550, temps fort de la conversion nobiliaire au protestantisme, puis le temps des affrontements religieux de 1560 à 1598, et enfin celui de la fondation de l’absolutisme, à quelle fidélité le gentilhomme réformé doit-il consentir en ces temps d’incertitudes où désormais l’unité religieuse n’existe plus ? Obéit-il à une fidélité confessionnelle dictée par sa conscience ou à une exigence politique et relationnelle qui le lie naturellement, et à son seigneur, et à son roi ? Si le noble de foi réformée ne ressent pas au XVIe siècle de contradiction entre les deux sphères, celle du politique et celle du religieux : il n’a pas en effet le sentiment de se couper de son roi, en combattant dans les rangs de l’armée protestante, bien au contraire. Progressivement la distance se creuse vis-à-vis de ces seigneurs, et on perçoit alors l’extrême liberté des attaches politiques qui les lient au chef de parti. Mais la revendication d’une liberté irrépressible n’est rendue possible que par une stratégie mise en place de longue date par ces nobles protestants. Celle-ci repose d’abord et surtout sur une base solide et indéfectible, une nébuleuse d’amis et de parents. La proximité avec l’Angleterre et la Cour d’Elisabeth facilite également cette attitude distancée. Enfin, au XVIIe siècle, elle s’appuie aussi sur le véritable bouclier qu’a pu représenter l’édit de Nantes pour la noblesse ; ce dernier permet l’établissement d’un culte de fief et les protestants nobles chercheront à exploiter tous les ressorts juridiques du texte pour préserver leur foi intacte. Les alliances matrimoniales et l’action des femmes, filles ou épouses, serviront à la consolidation de la foi réformée. Alors que la répression, ciblée sur quelques individus, n’épargne pas le second ordre, certains nobles chercheront à trancher le dilemme soumission par la conversion ou désobéissance par l’exil, en dissociant les deux services, en refusant de choisir entre Dieu et le roi. / The important steps of French nobility: At first, 1550: part of the French nobility chooses to Protestantism. Then, 1560 and 1598: the French Religious Civil Wars. Finally, it was the start of Absolute Monarchy. When the unity of the Faith no longer existed, the choice of the French nobility was either to be faithful to the King or to god. Therefore, there were a gap between the religious faith and the political loyalties to the King. At first, the French nobles kept trusting their King, but a certain misunderstanding started to develop and the nobles gradually chose freedom over their loyalty to the French King. England’s proximity and Elisabeth 1st’s Court help them keep their distance with the King. They could rely on too their friends and family and parents to keep their faith alive, and the Edict of Nantes re-established the French nobility’s civil and religious rights. However the persecution of the Protestant did already start. Therefore many French Protestants nobles chose exile. Otherwise they were banished by the French Kingdom. Some of them hid their real faith, refusing to have to choose between their God and their king.
|
Page generated in 0.0523 seconds