• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 13
  • 2
  • 1
  • Tagged with
  • 27
  • 9
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation numérique des propriétés de coeurs de dislocations dans l’Olivine (Mg2SiO4) / Numerical modelling of dislocation core properties in olivine (Mg2SiO4)

Mahendran, Srinivasan 03 July 2018 (has links)
Il est aujourd’hui largement accepté que les mécanismes de convection mantellique dans le manteau supérieur sont reliés aux propriétés plastiques de l’olivine constituant principale du manteau supérieur. Ce minéral, un silicate de composition (Mg,Fe)2SiO4, se déforme essentiellement par glissement de dislocations de vecteurs de Burgers [100] et [001]. Dans le cadre de ce travail de thèse, nous avons donc choisi de modéliser les propriétés de ces dislocations ainsi que les systèmes de glissement potentiels de l’olivine à partir de calculs à l’échelle atomique. L’ensemble des calculs ont été effectués à l’aide du potentiel THB1. Une fois les structures de cœurs des défauts déterminées, les paysages énergétiques associés au glissement des dislocations ont été analysés par la méthode « Nudge Elastic Band ». A basse pression, la modélisation atomique montre que les systèmes [100](010) et [001]{110} correspondent aux systèmes de glissement primaires de l’olivine. L’étude des paysages énergétiques des dislocations nous permet de plus de rationaliser les observations expérimentales de « pencil glide » reportées dans l’olivine depuis les années 70 et de proposer un mécanisme original de blocage-déblocage pour le glissement des dislocations de vecteurs de Burgers [001]. Enfin, l’application de ce type de modélisation aux conditions de pression du manteau supérieur (0-10 GPa) confirme l’existence d’un effet de durcissement de la pression sur le glissement des dislocations de vecteur de Burgers [100]. / It is widely accepted that the dissipation of heat from the core to the surface of the Earth through a thermally insulating mantle is only possible by convection process. Mantle convection is responsible for a large number of geological activities that occur on the surface of the Earth such as plate tectonic, volcanism, etc. It involves plastic deformation of mantle minerals. In Earth’s interior, the outer most layer beneath the thin crust is the upper mantle. One of the most common mineral found in the upper mantle is the olivine (Mg,Fe)2SiO4. Knowledge of the deformation mechanisms of olivine is important for the understanding of flow and seismic anisotropy in the upper mantle. The experimental studies on the plastic deformation of olivine highlighting the importance of dislocations of Burgers vector [100] and [001]. In this work, we report a numerical modelling at the atomic scale of dislocation core structures and slip system properties in forsterite, at pressures relevant to the upper mantle condition. Computations are performed using the THB1 empirical potential and molecular statics. The energy landscapes associated with the dislocation mobility are computed with the help of nudge elastic band calculations. Therefore, with this work, we were able to predict the different possible dislocation core structures and some of their intrinsic properties. In particular, we show that at ambient pressure [100](010) and [001]{110} correspond to the primary slip systems of forsterite. Moreover, we propose an explanation for the “pencil glide” mechanism based on the occurrence of several dislocation core configurations for the screw dislocation of [100] Burgers vector.
2

Optimisation du procédé polyol pour la synthèse de nanoparticules d'oxyde de zinc : mise à l'échelle du procédé et applications photovoltaïques / Optimization of the polyol process for zinc oxide nanoparticles synthesis : Scale-up of the process and photovoltaic applications

Zehani, Mongia 08 December 2014 (has links)
Grâce aux développements des méthodes de synthèse et de caractérisation, les nanomatériaux constituent un champ d'investigation de plus en plus actif et attractif. Cette thèse s'attache à étudier un procédé de synthèse de nanoparticules d’oxyde de zinc par voie polyol. Ce procédé a l’avantage de fournir une large variété morphologique de particules présentant une bonne qualité cristalline. Dans cette thèse, nous montrons qu’en variant les paramètres de synthèse nous pouvons moduler la taille, la distribution de taille et la morphologie des nanoparticules pour les obtenir en forme de nanosphères aussi fines que 6 nm ou des nanofils aussi longs que600 nm. Notre étude systémique a porté sur un ensemble de paramètres qui contrôlent la réaction d’hydrolyse forcée incluant la stoechiométrie, la température, la nature du polyol mais également l’agitation, l’injection des réactifs et l’activation par ultra sons du milieu. Nous montrons que la forme des nanoparticules est déterminée par la compétition entre les réactions de croissance de différentes faces du cristal d’oxyde de zinc. Notre étude a permis aussi de comparer différents dispositifs de mélange comme le réacteur du laboratoire, le T de mélange et les jets libres. Par ailleurs, pour produire en masse ces nano objets nous avons développé une stratégie originale pour comprendre l’effet du mélange sur la taille des nanoparticules. Notre approche s’appuie sur la résolution numérique des équations de Navier-Stokes et la corrélation entre les profils d’énergie turbulente dissipée et la taille des nanoparticules mesurée expérimentalement. L’application au cas spécifique de l’oxyde de zinc nous a permis de produire jusqu’à ~50 g de nanoparticules par Batch. Ces nanoparticules ont par la suite été incorporées comme matériau semi conducteur dans des cellules photovoltaïques à colorant préparées à l’École Nationale Supérieure de Chimie de Paris. En effet, la richesse morphologique de ZnO obtenu par voie polyol laisse présager une bonne adsorption du colorant à sa surface. Nos résultats montrent que les rendements de photoconversion dépendent aussi bien de la morphologie que de la taille. Les meilleures cellules élaborées dans cette thèse ont un rendement qui avoisine 5.3 %. / Thanks to developments in synthesis methods and characterization techniques, nanomaterials research field is increasingly active and attractive. This thesis aims to investigate the polyol process for zinc oxide nanoparticles synthesis. Indeed, this method has the advantage of providing a wide variety of particle morphology with a good crystalline quality. In this thesis, we show that by varying the synthesis conditions we can adjust the size, the size distribution and the morphology of nanoparticles to obtain either shaped nanospheres as small as 6 nm or nanowires as long as 600 nm. Our systemic study focused on a set of parameters that control the forced hydrolysis reaction including stoichiometry, temperature, nature of the polyol but also mixing, injection of reagents and ultrasound activation. We show that the shape of the nanoparticles is determined by the competition between growth rates of different zinc oxide crystal facets. Our study also compared different mixing devices such as laboratory reactor, T- mixer and impinging jets. More over, to mass produce zinc oxide nanoparticles, we developed an original strategy to understand the effect of mixing on nanoparticle size. In our approach, we correlate the turbulent energy dissipated as obtained from Computation Fluid Dynamics with theme asured nanoparticle size. The application to the specific case of zinc oxide has allowed us to produce sample aliquots of ~50 g per Batch. These nanoparticles were subsequently incorporated into dye-sensitized solar cells as semi conducting material at the École Nationale Supérieure de Chimie de Paris. Indeed, the morphological richness of the zinc oxide produced via polyol process suggests good adsorption of the dye on their surfaces. Our results show that the photoconversion efficiencies depend both on the morphology and the size. Our best photoconversion efficiency approaches 5.3%.
3

Caractérisation expérimentale et modélisation à l’échelle mésoscopique du comportement de tissus 3D de mèches comélées / Experimental characterization and modeling at the mesoscopic scale of the behavior of 3D fabrics of commingled yarns

Rocher, Jean-Emile 18 November 2014 (has links)
Cette thèse s’inscrit dans le cadre du projet européen 3D-LightTrans ayant pour objectifs la fabrication à grande à échelle et à bas coût de pièces composites. Pour parvenir à ces objectifs, des semi-produits sous forme de tissus 3D de mèches comélées ont été réalisés. Le but de ces travaux est de caractériser le comportement mécanique de ces tissus en vue d’analyser leur formabilité et d’être en mesure de prédire leur comportement pendant les processus de mise en forme utilisés lors de la fabrication des pièces composites. Le premier objectif de ces travaux était de caractériser expérimentalement le comportement mécanique des tissus 3D. Après avoir effectué un état de l’art ayant permis de définir les types et paramètres d’essais à utiliser pour la caractérisation du comportement des tissus, l’analyse des résultats de ces différents essais a permis de mettre en évidence les spécificités du comportement des tissus 3D. Le deuxième objectif des travaux était de modéliser le comportement des tissus par une approche numérique. Le choix s’étant porté sur une approche à l’échelle mésoscopique, le comportement mécanique des mèches comélées a été caractérisé expérimentalement. Les limitations du logiciel GeoFab quant à son utilisation pour la génération de modèles CAO de mailles élémentaires de tissus 3D ont été identifiées. Des améliorations permettant de répondre à ces limitations ont été proposées et leur faisabilité démontrée. Un modèle CAO d’une sous partie de la maille élémentaire d’un des tissus a alors été généré. Après avoir modélisé le comportement des mèches comélées en se basant sur les résultats de leur caractérisation expérimentale, des premières simulations éléments finis ayant permis d’obtenir des résultats encourageants ont été réalisés. / This thesis is part of the European project 3D-LightTrans whose objectives are the large scale and low-cost manufacturing of composite parts. To achieve these goals, semi-finished products in the form of 3D fabrics of commingled yarns were produced. The purpose of this work is to characterize the mechanical behavior of these fabrics in order to investigate their formability and be able to predict their behavior during the forming processes used for the manufacturing of composite parts. The first objective of the work was to characterize experimentally the 3D fabrics mechanical behavior. A state of the art was realized in order to define the types and test parameters to use. The analysis of these test results allowed to highlight the specific 3D fabrics mechanical behaviour. The second objective of the work was to model the fabrics behavior using a numerical method. A mesoscopic scale approach having been selected, experimental characterization of the commingled yarns mechanical behavior was necessary. Then, GeoFab software limitations on its use for the generation of CAD models of 3D fabrics unit cells were identified. Improvements to address these limitations have been proposed and their feasibility was demonstrated. A CAD model of a sub part of one of the fabrics unit cell was then generated. After having modeled the commingled yarns behaviour using experimental results, finite element simulations were performed on fabric CAD model and first encouraging results were obtained.
4

Two-phase flow properties upscaling in heterogeneous porous media / Mise à l'échelle des propriétés polyphasiques d'écoulement en milieux poreux hétérogènes

Franc, Jacques 18 January 2018 (has links)
L’étude des écoulements souterrains et l’ingénierie réservoir partagent le même intérêt pour la simulation d’écoulement multiphasique dans des sols aux propriétés intrinsèquement hétérogènes. Elles rencontrent également les mêmes défis pour construire un modèle à l’échelle réservoir en partant de données micrométriques tout en contrôlant la perte d’informations. Ce procédé d’upscaling est utile pour rendre les simulations faisables et répétables dans un cadre stochastique. Deux processus de mise à l’échelle sont définis: l’un depuis l’échelle micrométrique jusqu’à l’échelle de Darcy, et, un autre depuis l’échelle de Darcy vers l’échelle du réservoir. Dans cette thèse, un nouvel algorithme traitant du second upscaling Finite Volume Mixed Hybrid Multiscale Method (FV-MHMM) est étudié. L’extension au diphasique est faite au moyen d’un couplage séquentiel faible entre saturation et pression grâce à une méthode de type IMPES. / The groundwater specialists and the reservoir engineers share the same interest in simulating multiphase flow in soil with heterogeneous intrinsic properties. They also both face the challenge of going from a well-modeled micrometer scale to the reservoir scale with a controlled loss of information. This upscaling process is indeed worthy to make simulation over an entire reservoir manageable and stochastically repeatable. Two upscaling steps can be defined: one from the micrometer scale to the Darcy scale, and another from the Darcy scale to the reservoir scale. In this thesis, a new second upscaling multiscale algorithm Finite Volume Mixed Hybrid Multiscale Methods (Fv-MHMM) is investigated. Extension to a two-phase flow system is done by weakly and sequentially coupling saturation and pressure via IMPES-like method.
5

Etudes des procédés d'encapsulation hermétique au niveau du substrat par la technologie de transfert de films / Wafer Level Hermetic Packaging Study using Film Transfer Technology

Beix, Vincent 12 December 2013 (has links)
Les micro-dispositifs comportant des structures libérées et mobiles sont d’une part très sensibles aux variations de leur environnement de travail, et d’autre part très fragiles mécaniquement. L’étape de découpe du substrat en plusieurs puces est extrêmement agressive et peut entrainer la destruction totale des micro-dispositifs. L’encapsulation avant la découpe va alors prémunir les micro-composants lors de cette étape critique et continuer à garantir leur bon fonctionnement tout au long de leur utilisation en conservant la stabilité et la fiabilité de leur performance. Le conditionnement doit en outre interfacer les micro-dispositifs encapsulés avec le monde macroscopique en vue de leur utilisation. De nombreux procédés de fabrication ont déjà été développés pour l’élaboration d’un conditionnement. C’est le cas de l’encapsulation puce par puce, substrat - substrat, par couche sacrificielle par exemple. Ils sont toutefois très contraignants (encombrement, compatibilité, coût, …). Nous avons étudié, au cours de cette thèse, un procédé innovant de conditionnement hermétique par transfert de film utilisant une couche à adhésion contrôlée. Cette technologie consiste à élaborer des capots protecteurs sur le substrat moule puis à les reporter collectivement pour encapsuler les micro-dispositifs. Ce procédé est totalement compatible avec un interfaçage électrique de composant qui traverse les cordons de scellement ou le capot. Ce procédé nécessite la maîtrise de la croissance de divers films (C, CxFy, Ni, AlN, parylène, BCB, Au-In) et permet d’obtenir des boitiers étanches, hermétiques et robustes qui devraient très rapidement pouvoir être utilisés pour le conditionnement de MEMS. / Micro-devices which are composed of free standing or mobile structures are very sensitive to the working condition and mechanically very fragile. The saw dicing steps is very aggressive and it can destroy the micro-devices. Packaging will prevent the micro devices from any damage during this critical step and also take care of it all along its life by controlling its performance stability and reliability. Moreover, the suited devices use needs a connection to the macroscopic word through the packaging. Many packaging process flow has already developed such as pick and place, wafer to wafer, thin film packaging with a sacrificial layer. Nevertheless, they have got many drawbacks (footprint, process compatibility, cost …). We have developed an attractive wafer level hermetic packaging process by film transfer technology during this these. It relies on a transferred molded film cap from a carrier wafer to the donor wafer. Electrical path can be done through the cap or the bonding ring. Cap manufacturing need a high layer growth skill for example in C, CxFy, Ni, AlN, parylène, BCB, Au-In films to make robust, hermetic encapsulation which should be soon used for MEMS packaging.
6

Efficient persistence, query, and transformation of large models / Persistance, requêtage, et transformation efficaces de grands modèles

Daniel, Gwendal 14 November 2017 (has links)
L’Ingénierie Dirigée par les Modèles (IDM) est une méthode de développement logicielle ayant pour but d’améliorer la productivité et la qualité logicielle en utilisant les modèles comme artefacts de premiers plans durant le processus développement. Dans cette approche, les modèles sont typiquement utilisés pour représenter des vues abstraites d’un système, manipuler des données, valider des propriétés, et sont finalement transformés en ressources applicatives (code, documentation, tests, etc). Bien que les techniques d’IDM aient montré des résultats positifs lors de leurs intégrations dans des processus industriels, les études montrent que la mise à l’échelle des solutions existantes est un des freins majeurs à l’adoption de l’IDM dans l’industrie. Ces problématiques sont particulièrement importantes dans le cadre d’approches génératives, qui nécessitent des techniques efficaces de stockage, requêtage, et transformation de grands modèles typiquement construits dans un contexte mono-utilisateur. Plusieurs solutions de persistance, requêtage, et transformations basées sur des bases de données relationnelles ou NoSQL ont été proposées pour améliorer le passage à l’échelle, mais ces dernières sont souvent basées sur une seule sérialisation model/base de données, adaptée à une activité de modélisation particulière, mais peu efficace pour d’autres cas d’utilisation. Par exemple, une sérialisation en graphe est optimisée pour calculer des chemins de navigations complexes,mais n’est pas adaptée pour accéder à des valeurs atomiques de manière répétée. De plus, les frameworks de modélisations existants ont été initialement développés pour gérer des activités simples, et leurs APIs n’ont pas évolué pour gérer les modèles de grande taille, limitant les performances des outils actuels. Dans cette thèse nous présentons une nouvelle infrastructure de modélisation ayant pour but de résoudre les problèmes de passage à l’échelle en proposant (i) un framework de persistance permettant de choisir la représentation bas niveau la plus adaptée à un cas d’utilisation, (ii) une solution de requêtage efficace qui délègue les navigations complexes à la base de données stockant le modèle,bénéficiant de ses optimisations bas niveau et améliorant significativement les performances en terme de temps d’exécution et consommation mémoire, et (iii) une approche de transformation de modèles qui calcule directement les transformations au niveau de la base de données. Nos solutions sont construites en utilisant des standards OMG tels que UML et OCL, et sont intégrées dans les solutions de modélisations majeures telles que ATL ou EMF. / The Model Driven Engineering (MDE) paradigm is a softwaredevelopment method that aims to improve productivity and software quality by using models as primary artifacts in all the aspects of software engineering processes. In this approach, models are typically used to represent abstract views of a system, manipulate data, validate properties, and are finally transformed to application artifacts (code, documentation, tests, etc). Among other MDE-based approaches, automatic model generation processes such as Model Driven Reverse Engineering are a family of approaches that rely on existing modeling techniques and languages to automatically create and validate models representing existing artifact. Model extraction tasks are typically performed by a modeler, and produce a set of views that ease the understanding of the system under study. While MDE techniques have shown positive results when integrated in industrial processes, the existing studies also report that scalability of current solutions is one of the key issues that prevent a wider adoption of MDE techniques in the industry. This isparticularly true in the context of generative approaches, that require efficient techniques to store, query, and transform very large models typically built in a single-user context. Several persistence, query, and transformation solutions based on relational and NoSQL databases have been proposed to achieve scalability, but they often rely on a single model-to-database mapping, which suits a specific modeling activity, but may not be optimized for other use cases. For example a graph-based representation is optimized to compute complex navigation paths, but may not be the best solution for repeated atomic accesses. In addition, low-level modeling framework were originally developed to handle simple modeling activities (such as manual model edition), and their APIs have not evolved to handle large models, limiting the benefits of advance storage mechanisms. In this thesis we present a novel modeling infrastructure that aims to tackle scalability issues by providing (i) a new persistence framework that allows to choose the appropriate model-to-database mapping according to a given modeling scenario, (ii) an efficient query approach that delegates complex computation to the underlying database, benefiting of its native optimization and reducing drastically memory consumption and execution time, and (iii) a model transformation solution that directly computes transformations in the database. Our solutions are built on top of OMG standards such as UML and OCL, and are integrated with the de-facto standard modeling solutions such as EMF and ATL.
7

Étude numérique des effets du couplage du rayonnement thermique aux jets turbulents libres de vapeur d'eau / Numerical investigation of the effects of coupled radiative heat transfer on free turbulent jets of water vapor

Mateu armengol, Jan 13 June 2019 (has links)
Le rayonnement thermique joue un rôle important dans un large éventail d'applications de génie thermique comprenant des écoulements turbulents. La motivation principale de cette thèse est le besoin croissant de précision et fiabilité dans les simulations numériques appliqué à ce domaine.Cette thèse s’intéresse tout particulièrement à la compréhension physique de l’impact du rayonnement thermique sur la dynamique des fluides et le transfert thermique, ainsi que de l’influence des fluctuations turbulentes sur le transfert radiatif dans les écoulements à couche de cisaillement.L'objectif de cette thèse est de fournir des données haute-fidélités de jets libres turbulents couplés au rayonnement thermique afin de développer et de valider des modèles turbulents d’écoulements à couche de cisaillement prenant en compte les interactions de couplage. À cette fin, les jets libres turbulents sont décrits par des simulations numériques directes (DNS) couplées à une méthode de Monte-Carlo réciproque pour résoudre l'équation de transfert radiatif. La dépendance spectrale des propriétés radiatives est prise en compte avec la méthode Correlated-k (ck). L'étude numérique est réalisée avec la plus grande fidélité pour être aussi représentative que possible d'un jet réel dans un milieu participatif. La simulation est optimisée en termes de temps de calcul en tirant parti d'une méthode d'accélération appelée Acoustic Speed Reduction et en injectant de la turbulence artificielle pour améliorer les conditions d'entrée.Deux simulations directes de jets chauffés couplés au rayonnement thermique sont réalisées. D'une part, un jet chauffé avec un rayonnement modéré a été simulé et l’analyse de ses données DNS couplées a permis de dériver une nouvelle loi d’échelle pour la décroissance du profil de température. Cette mise à l'échelle rend compte des effets de la densité modifiée due à un rayonnement modéré. De plus, cela permet de distinguer si le rayonnement thermique modifie ou non la nature des mécanismes de transfert thermique dans la région développée du jet. D'autre part, un jet libre fortement chauffé a été calculé afin de quantifier les effets du rayonnement sur les champs de température et de vitesse moyens ainsi que sur les moments de second ordre.Outre les données DNS couplées, un solver RANS pour les écoulements à densité variable couplé au rayonnement thermique a été développé au cours de cette thèse. L'objectif était de quantifier directement la précision des modèles turbulents existants et d'identifier les paramètres clés pour une modélisation plus poussée des interactions de couplage. / Radiation plays an important role in a broad range of thermal engineering applications comprising turbulent flows. The growing need for accurate and reliable numerical simulations to support the design stages of such applications is the main motivation of this thesis.Of special interest in this work are the free-shear flows and the fundamental understanding of how radiation can modify their fluid dynamics and heat trans- port as well as how their turbulence fluctuations can alter radiative transfer. The goal of this thesis is to provide high-fidelity data of turbulent free jets coupled with thermal radiation in order to develop and validate free-shear turbulent models accounting for coupling interactions. To this end, turbulent free jets are described by direct numerical simulations (DNS) coupled to a reciprocal Monte- Carlo method to solve the radiative transfer equation. The spectral dependency of the radiative properties is accounted for with an accurate Correlated-k (ck) method. The numerical study is carried out with state-of-the-art fidelity to be as representative as possible of an actual jet in a participating medium. The simulation is optimized in terms of processing time taking advantage of an acceleration method called Acoustic Speed Reduction and by injecting artificial turbulence to enhance inlet boundaries.Two direct simulations of heated jets coupled with thermal radiation are carried out. On the one hand, a heated jet with moderate radiation is simulated. The analysis of its high-fidelity coupled DNS data has allow to derive a new scaling law for the decay of the temperature profile. This scaling accounts for the effects of modified density due to moderate radiation. Moreover, it allows for distinguishing whether thermal radiation modifies the nature of heat transfer mechanisms in the jet developed region or not. On the other hand, a strongly heated free jet is computed in order to quantify the effects of radiation on mean temperature and velocity fields as well as on second order moments.Besides the coupled DNS data, a RANS solver for variable-density flows coupled with thermal radiation has been implemented during the course of this thesis. The goal is to directly quantify the accuracy of the existing turbulent models, and to identify key parameters for further modeling of coupling interactions.
8

Procédés de mise à l’échelle pour la fabrication et la caractérisation de biocapteurs de graphène à effet de champ

Bencherif, Amira 08 1900 (has links)
Alors que la découverte de matériaux conducteurs de faible dimension fait progresser la mi- niaturisation des composants électroniques, les transistors à effet de champ (FET) peuvent désormais incorporer des éléments à molécule unique comme canal ou grille. Ces petites architectures permettent, entre autres, l’étude de molécules uniques, notamment par l’ob- servation de leur dynamique de repliement-dépliement ou de liaison. Ces études ont été principalement réalisées avec des transistors à effet de champ à base de matériaux unidimen- sionnels (1D) tels que les nanotubes de carbone (CNT) ou les nanofils de silicium. Du fait de leur dimensionnalité réduite, ces matériaux offrent un bon contrôle de leur interaction avec les molécules 0D, et donc de leur intégration au circuit. Cependant, ces matériaux 1D présentent des problèmes de reproductibilité et de mise à l’échelle, du fait qu’ils sont difficiles à croître et/ou à assembler dans les dispositifs FET. Cette thèse s’intéresse à l’utilisation d’un matériau carboné à deux dimensions, le gra- phène, comme alternative pour la fabrication de dispositifs pour l’étude de dynamiques de molécules uniques. En effet, le graphène est un matériau à deux dimensions composé d’un ré- seau hexagonal d’atomes de carbone, avec une excellente conductivité électrique ainsi qu’une chimie à base de carbone permettant l’ancrage de molécules biologiques à sa surface, ce qui en fait un candidat de choix pour la détection électrique de molécules individuelles. Sa di- mensionnalité est aussi compatible avec des procédés de microfabrication à grande échelle, ce qui offre la possibilité d’études statistiques sur de grands nombres de dispositifs. Ainsi, la détection de molécules biologiques utilisant des transistors à effet de champs à base de graphène (GFET) a connu un développement et un engouement important au cours de la dernière décennie, mais plusieurs aspects restent à résoudre, notamment la mise à l’échelle de la fabrication, le contrôle de la chimie de fonctionnalisation, et la miniaturisation du canal à l’échelle de la molécule unique. Dans cette thèse, des contributions sur ces trois aspects sont présentées. Premièrement, je décris une méthode de mise à l’échelle du transfert de graphène dans une optique d’indus- trialisation, par la conception et l’implémentation d’un montage de transfert de graphène permettant l’automatisation et l’augmentation du rendement de la fabrication de GFET. Je m’intéresse ensuite à la fonctionnalisation des dispositifs de graphène avec une molécule d’ancrage communément utilisée dans le cas des biodétecteurs basés sur des GFET, afin de révéler les cinétiques associées à l’adsorption et à l’accumulation de la molécule à la surface du graphène. Enfin le dernier chapitre décrit la conception d’une architecture de GFET pour l’accueil d’une molécule unique d’ADN, basée sur des nanoconstrictions mises en place dans le canal de graphène. Ces constrictions ont été obtenues à l’aide de la lithographie par faisceau d’électrons (EBL) et gravure ionique réactive profonde (DRIE), qui nous permet de modeler des structures à haute résolution de quelques dizaines de nanomètres dans le canal de graphène. Des nanopuits perpendiculaires à la constriction sont par la suite ouverts dans de la résine, favorisant le confinement de la chimie d’immobilisation de la molécule unique en un seul point. J’explore ensuite la liaison d’un brin unique d’ADN sur la nanoconstriction, et l’étude dynamique de son repliement. Cette thèse présente donc des résultats innovants en termes d’architectures et de procédés de mise à l’échelle de GFET à des fins de biodétection. / With the discovery of low-dimensional conductive materials advancing the miniaturization of electronic components, field-effect transistors (FET) can now incorporate single-molecule elements as a channel or gate. Among their applications, these small architectures allow single-molecule studies, for instance by observing their folding-unfolding or binding dy- namics. These studies were mainly carried out with field-effect transistors based on one- dimensional (1D) materials such as carbon nanotubes (CNT) or silicon nanowires (SiNW). Due to their reduced dimensionality, these materials offer good control on their interaction with 0D molecules, and therefore of their integration into the circuit. However, these 1D materials present reproducibility and scaling issues, due to the fact that they are difficult to grow and/or assemble in FET devices. This thesis focuses on the use of a two-dimensional carbon-based material, graphene, as an alternative for the fabrication of devices for studying the dynamics of single molecules. Graphene is a hexagonal network of carbon atoms that offers an excellent electrical conduc- tivity as well as a carbon-based chemistry for anchoring biological molecules on its surface, this makes it a prime candidate for the electrical detection of individual molecules. Above all, its dimensionality is compatible with large-scale microfabrication processes, which offer the possibility of statistical studies on a large number of devices. Thus, the detection of biological molecules using graphene-based field-effect transistors (GFET) has experienced significant development over the past decade, but several aspects remain to be resolved, including scale- up of the manufacturing, control of the functionalization chemistry, and miniaturization of the channel at the single molecule scale. In this thesis, I present contributions on these three aspects. First, I describe a method for scaling up graphene transfer in an industrialization perspective, by designing and implementing a graphene transfer setup allowing automation for increasing the yield of GFET fabrication. I then focus on the functionalization dynamics of graphene devices with an anchor molecule named PBASE (1-Pyrenebutyric acid N-hydroxysuccinimide ester) commonly used in the case of GFET-based biosensors, which reveals the adsorption and accumulation kinetics of the molecule on the graphene surface. Finally, I describe the design of a GFET architecture based on nanoconstrictions implemented in the graphene channel, designed to host a single molecule. These constrictions were obtained using electron beam lithography (EBL) and deep reactive ion etching (DRIE), which allows the modeling of high-resolution features of a few nanometers in the graphene channel. Nanowells were opened in the resin perpendicular to the constriction, promoting single-point, single-molecule chemistry. I then explore the immobilization of a single strand of DNA on nanoconstriction, and the dynamic study of its folding. This thesis therefore presents innovative results in terms of architectures and scaled implementation processes of GFET for biodetection purposes.
9

Passage à l'échelle pour les contraintes d'ordonnancement multi-ressources / Scalable multi-dimensional resources scheduling constraints

Letort, Arnaud 28 October 2013 (has links)
La programmation par contraintes est une approche régulièrement utilisée pour résoudre des problèmes combinatoires d’origines diverses. Dans cette thèse nous nous focalisons sur les problèmes d’ordonnancement cumulatif. Un problème d’ordonnancement consiste à déterminer les dates de débuts et de fins d’un ensemble de tâches, tout en respectant certaines contraintes de capacité et de précédence. Les contraintes de capacité concernent aussi bien des contraintes cumulatives classiques où l’on restreint la somme des hauteurs des tâches intersectant un instant donné, que des contraintes cumulatives colorées où l’on restreint le nombre maximum de couleurs distinctes prises par les tâches. Un des objectifs récemment identifiés pour la programmation par contraintes est de traiter des problèmes de grandes tailles, habituellement résolus à l’aide d’algorithmes dédiés et de métaheuristiques. Par exemple, l’utilisation croissante de centres de données virtualisés laisse apparaitre des problèmes d’ordonnancement et de placement multi-dimensionnels de plusieurs milliers de tâches. Pour atteindre cet objectif, nous utilisons l’idée de balayage synchronisé considérant simultanément une conjonction de contraintes cumulative et des précédences, ce qui nous permet d’accélérer la convergence au point fixe. De plus, de ces algorithmes de filtrage nous dérivons des procédures gloutonnes qui peuvent être appelées à chaque nœud de l’arbre de recherche pour tenter de trouver plus rapidement une solution au problème. Cette approche permet de traiter des problèmes impliquant plus d’un million de tâches et 64 ressources cumulatives. Ces algorithmes ont été implémentés dans les solveurs de contraintes Choco et SICStus, et évalués sur divers problèmes déplacement et d’ordonnancement. / Constraint programming is an approach often used to solve combinatorial problems in different application areas. In this thesis we focus on the cumulative scheduling problems. A scheduling problem is to determine the starting dates of a set of tasks while respecting capacity and precedence constraints. Capacity constraints affect both conventional cumulative constraints where the sum of the heights of tasks intersecting a given time point is limited, and colored cumulative constraints where the number of distinct colors assigned to the tasks intersecting a given time point is limited. A newly identified challenge for constraint programming is to deal with large problems, usually solved by dedicated algorithms and metaheuristics. For example, the increasing use of virtualized datacenters leads to multi dimensional placement problems of thousand of jobs. Scalability is achieved by using a synchronized sweep algorithm over the different cumulative and precedence constraints that allows to speed up convergence to the fix point. In addition, from these filtering algorithms we derive greedy procedures that can be called at each node of the search tree to find a solution more quickly. This approach allows to deal with scheduling problems involving more than one million jobs and 64 cumulative resources. These algorithms have been implemented within Choco and SICStussolvers and evaluated on a variety of placement and scheduling problems.
10

Some visualization models applied to the analysis of parallel applications / Alguns modelos de visualização aplicados para a análise de aplicações paralelas / Quelques modèles de visualisation pour l’analyse des applications parallèles

Schnorr, Lucas Mello January 2009 (has links)
Les systèmes distribués, tels que les grilles, sont utilisés aujourd’hui pour l’exécution des grandes applications parallèles. Quelques caractéristiques de ces systèmes sont l’interconnexion complexe de ressources qui pourraient être présent et de la facile passage à l’échelle. La complexité d’interconnexion vient, par exemple, d’un nombre plus grand de directives de routage pour la communication entre les processus et une latence variable dans le temps. La passage à l’échelle signifie que des ressources peuvent être ajoutées indéfiniment simplement en les reliant à l’infrastructure existante. Ces caractéristiques influencent directement la façon dont la performance des applications parallèles doit être analysée. Les techniques de visualisation traditionnelles pour cette analyse sont généralement basées sur des diagrammes de Gantt que disposent la liste des composants de l’application verticalement et metent la ligne du temps sur l’axe horizontal. Ces représentations visuelles ne sont généralement pas adaptés à l’analyse des applications exécutées en parallèle dans les grilles. La première raison est qu’elles n’ont pas été conçues pour offrir aux développeurs une analyse qui montre aussi la topologie du réseau des ressources. La deuxième raison est que les techniques de visualisation traditionnels ne s’adaptent pas bien quand des milliers d’entités doivent être analysés ensemble. Cette thèse tente de résoudre les problèmes des techniques traditionnelles dans la visualisation des applications parallèles. L’idée principale est d’exploiter le domaine de la visualisation de l’information et essayer d’appliquer ses concepts dans le cadre de l’analyse des programmes parallèles. Portant de cette idée, la thèse propose deux modèles de visualisation : les trois dimensions et le modèle d’agrégation visuelle. Le premier peut être utilisé pour analyser les programmes parallèles en tenant compte de la topologie du réseau. L’affichage lui-même se compose de trois dimensions, où deux sont utilisés pour indiquer la topologie et la troisième est utilisée pour représenter le temps. Le second modèle peut être utilisé pour analyser des applications parallèles comportant un très grand nombre de processsus. Ce deuxième modèle exploite une organisation hiérarchique des données utilisée par une technique appelée Treemap pour représenter visuellement la hiérarchie. Les implications de cette thèse sont directement liées à l’analyse et la compréhension des applications parallèles exécutés dans les systèmes distribués. Elle améliore la compréhension des modes de communication entre les processus et améliore la possibilité d’assortir les motifs avec cette topologie de réseau réel sur des grilles. Bien que nous utilisons abondamment l’exemple de la topologie du réseau, l’approche pourrait être adapté, avec presque pas de changements, à l’interconnexion fourni par un middleware d’une interconnexion logique. Avec la technique d’agrégation, les développeurs sont en mesure de rechercher des patterns et d’observer le comportement des applications à grande échelle. / Sistemas distribuídos tais como grids são usados hoje para a execução de aplicações paralelas com um grande número de processos. Algumas características desses sistemas são a presença de uma complexa rede de interconexão e a escalabilidade de recursos. A complexidade de rede vem, por exemplo, de largura de banda e latências variáveis ao longo do tempo. Escalabilidade é a característica pela qual novos recursos podem ser adicionados em um grid apenas através da conexão em uma infraestrutura pré-existente. Estas características influenciam a forma como o desempenho de aplicações paralelas deve ser analisado. Esquemas tradicionais de visualização de desempenho são usualmente baseados em gráficos Gantt com uma dimensão para listar entidades monitoradas e outra para o tempo. Visualizações como essa não são apropriadas para a análise de aplicações paralelas executadas em grid. A primeira razão para tal é que elas não foram concebidas para oferecer ao desenvolvedor uma análise que mostra a topologia dos recursos e a relação disso com a aplicação. A segunda razão é que técnicas tradicionais não são escaláveis quando milhares de entidades monitoradas devem ser analisadas conjuntamente. Esta tese tenta resolver estes problemas encontrados em técnicas de visualização tradicionais para a análise de aplicações paralelas. A idéia principal consiste em explorar técnicas da área de visualização da informação e aplicá-las no contexto de análise de programas paralelos. Levando em conta isto, esta tese propõe dois modelos de visualização: o de três dimensões e o modelo de agregação visual. O primeiro pode ser utilizado para analisar aplicações levando-se em conta a topologia da rede dos recursos. A visualização em si é composta por três dimensões, onde duas são usadas para mostrar a topologia e a terceira é usada para representar o tempo. O segundo modelo pode ser usado para analisar aplicações paralelas com uma grande quantidade de processos. Ela explora uma organização hierárquica dos dados de monitoramento e uma técnica de visualização chamada Treemap para representar visualmente a hierarquia. Os dois modelos representam uma nova forma de analisar aplicação paralelas visualmente, uma vez que eles foram concebidos para larga-escala e sistemas distribuídos complexos, como grids. As implicações desta tese estão diretamente relacionadas à análise e ao entendimento do comportamento de aplicações paralelas executadas em sistemas distribuídos. Um dos modelos de visualização apresentados aumenta a compreensão dos padrões de comunicação entre processos e oferece a possibilidade de observar tal padrão com a topologia de rede. Embora a topologia de rede seja usada, a abordagem pode ser adaptada sem grandes mudanças para levar em conta interconexões lógicas de bibliotecas de comunicação. Com a técnica de agregação apresentada nesta tese, os desenvolvedores são capazes de observar padrões de aplicações paralelas de larga escala. / Highly distributed systems such as grids are used today for the execution of large-scale parallel applications. Some characteristics of these systems are the complex resource interconnection that might be present and the scalability. The interconnection complexity comes from the different number of hops to provide communication among applications processes and differences in network latencies and bandwidth. The scalability means that the resources can be added indefinitely just by connecting them to the existing infrastructure. These characteristics influence directly the way parallel applications performance must be analyzed. Current traditional visualization schemes to this analysis are usually based on Gantt charts with one dimension to list the monitored entities and the other dimension dedicated to time. These visualizations are generally not suited to parallel applications executed in grids. The first reason is that they were not built to offer to the developer an analysis that also shows the network topology of the resources. The second reason is that traditional visualization techniques do not scale well when thousands of monitored entities must be analyzed together. This thesis tries to overcome the issues encountered on traditional visualization techniques for parallel applications. The main idea behind our efforts is to explore techniques from the information visualization research area and to apply them in the context of parallel applications analysis. Based on this main idea, the thesis proposes two visualization models: the three-dimensional and the visual aggregation model. The former might be used to analyze parallel applications taking into account the network topology of the resources. The visualization itself is composed of three dimensions, where two of them are used to render the topology and the third is used to represent time. The later model can be used to analyze parallel applications composed of several thousands of processes. It uses hierarchical organization of monitoring data and an information visualization technique called Treemap to represent that hierarchy. Both models represent a novel way to visualize the behavior of parallel applications, since they are conceived considering large-scale and complex distributed systems, such as grids. The implications of this thesis are directly related to the analysis and understanding of parallel applications executed in distributed systems. It enhances the comprehension of patterns in communication among processes and improves the possibility of matching this patterns with real network topology of grids. Although we extensively use the network topology example, the approach could be adapted with almost no changes to the interconnection provided by a middleware of a logical interconnection. With the scalable visualization technique, developers are able to look for patterns and observe the behavior of large-scale applications.

Page generated in 0.1146 seconds