• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 55
  • 44
  • 19
  • 1
  • 1
  • Tagged with
  • 118
  • 118
  • 106
  • 92
  • 84
  • 82
  • 75
  • 73
  • 33
  • 12
  • 11
  • 11
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Développement de méthodologies génériques pour la conception optimale et durable des parcs hybrides d'énergies renouvelables

Roth, Anastasia 10 May 2019 (has links) (PDF)
Les enjeux planétaires du développement durable et du réchauffement climatique remettent en cause le fonctionnement de nos sociétés. La transition énergétique se traduit notamment par l’augmentation de l’utilisation des énergies renouvelables et constitue ainsi le contexte de nos travaux. Dans le cadre d’un contrat CIFRE avec l’entreprise VALOREM, nous proposons des méthodologies pour le développement et la conception d’installations renouvelables soutenables. L’approche d’Ingénierie Des Modèles mise en place nous permet de garder une démarche scientifique cohérente entre une vue très générale du contexte d’insertion des renouvelables et une vision plus technique et opérationnelle pour le développement d’installations renouvelables. Dans un premier temps, nous avons décrit de manière macroscopique le contexte d’insertion des énergies renouvelables en France, en proposant un cadre conceptuel pour le développement de projet d’aménagement du territoire. Il permet l’analyse des systèmes sociotechniques en transition grâce à une formalisation UML2 d’une part, et une méthode d’évaluation de la durabilité d’un processus d’autre part. Nous avons illustré ce cadre sur deux cas d’étude : le succès du développement de la centrale hydro-éolienne de l’île d’El Hierro dans les Canaries et l’échec du barrage de Sivens dans le Tarn en France. Par comparaison, nous montrons que l’implication des parties prenantes sur l’ensemble du processus de développement est cruciale pour le succès d’un projet. Nous avons ensuite proposé une implémentation logicielle permettant le suivi et le pilotage de projet d’aménagement du territoire en temps réel à l’aide d’outils d’intelligence artificielle. Conscient des limites opérationnelles de notre proposition, nous avons décidé de changer de point de vue pour adopter une vision plus technique sur les énergies renouvelables. La transition énergétique fait évoluer le système électrique français d’un modèle centralisé vers un modèle décentralisé, ce qui amène VALOREM à reconsidérer ses propositions techniques de production d’énergies renouvelables. Entre autre, l’entreprise tend vers l’hybridation de ses centrales et constate le besoin d’un outil de dimensionnement en phase d’avant-projet, afin d’identifier les opportunités d’activités. Nous faisons donc la proposition d’un prototype logiciel qui se veut flexible en termes de modélisation des centrales de production hybrides renouvelables et en termes de définition des objectifs et contraintes à satisfaire. Il est codé en C++ et basé sur des modèles d’optimisation linéaires. Nous illustrons son opérationnalité sur quatre cas d’étude : deux orientés marché électrique et deux en autoconsommation (l’un isolé, l’autre connecté au réseau). Les résultats des études montrent que les coûts de stockage batterie sont trop élevés pour pouvoir envisager l’installation de batteries dans les centrales hybrides renouvelables. Les systèmes en autoconsommation connectés au réseau semblent être plus prometteurs. Enfin, nous terminons par une analyse environnementale de différentes sources de production électrique afin de déterminer celles vers lesquelles la transition énergétique doit être axée. Les résultats montrent que la biomasse, l’éolien et le PV au sol sont les moyens de production les plus propres. La conclusion de la thèse propose une réflexion ascendante en complexité vers l’implication des acteurs dans les modèles de processus de développement territoriaux.
12

instrumentation, modélisation et commande des procédés alimentaires

Courtois, Francis 11 June 2004 (has links) (PDF)
Agé de 39 ans, Francis Courtois est actuellement maître de conférences à l'ENSIA de Massy. C'est dans cette école qu'il a obtenu un diplôme d'ingénieur en 1988, puis un doctorat en 1991. Cette même année, il y est recruté comme maître assistant stagiaire.<br /><br />Le domaine d'activité du candidat est l'industrie agroalimentaire. Il s'intéresse aux procédés utilisés par cette industrie afin de mieux comprendre leur fonctionnement et d'améliorer leurs performances. <br /><br />Francis Courtois ne s'est pas contenté d'une présentation linéaire de ses activités de recherche. Tout au long des 72 pages de son mémoire, il fait la synthèse de ses seize années d'activité et il nous présente les réflexions que son expérience lui inspire.<br /><br />Le premier chapitre du mémoire décrit le cadre dans lequel Francis Courtois a exercé son activité, essentiellement l'équipe de Génie Industrielle Alimentaire de l'ENSIA. Dans ce premier chapitre, il définit également son domaine de compétence et son mode d'intervention. Un point saillant de cette analyse est la diversité des problèmes et des solutions auxquelles on est confronté quand on étudie le fonctionnement d'un procédé avec une double compétence en génie des procédés et en automatique. Il reste une grande part d'empirisme et de savoir-faire dans le choix des méthodes à mettre en oeuvre pour traiter chaque problème particulier : il faut être pragmatique, compétent et habile.<br /><br />Le deuxième chapitre présente les différents procédés sur lesquels le candidat a travaillé : séchoirs sous toutes leurs formes (15), procédé de friture (1), réfrigération (1), micro-filtration tangentielle (1), décantation centrifuge (0). Les chiffres entre parenthèses indiquent le nombre d'articles publiés dans des revues avec comité de lecture dans chacun des cas. Il apparaît clairement que le séchage est le cœur dur des activités de Francis Courtois, et qu'il a ensuite diversifié ses objets d'études.<br /><br />Le troisième chapitre aborde un point particulier que l'on rencontre très souvent dans les industries agroalimentaires : l'analyse des mécanismes de transformation de la matière exprimés en terme de transferts de matière et de chaleur couplés à des réactions chimiques ne permet pas de caractériser complètement les produits obtenus. Ces produits sont très souvent des solides et il existe une zone d'ombre autour de la description de la structure de ces solides et de son évolution en cours de traitement. Ceci conduit à la définition de critères permettant de caractériser la "qualité" des produits, critères qui sont bien souvent en relation avec l'usage que l'on fait du produit. Qualité amidonnière du maïs, fissuration du riz et "prise d'huile" lors de la friture de banane plantain et de coco sont trois exemples de cette approche. Prédire l'évolution d'un critère de qualité en fonction de la conduite d'un procédé est un problème très actuel qui dépasse le cadre des industries agroalimentaires.<br /><br />Le quatrième chapitre traite de la modélisation des transferts qui est au centre des compétences du candidat. En comparant une approche compartimentale classique qu'il maîtrise fort bien à des méthodes à base de logique floue ou de réseaux de neurones, Francis Courtois montre qu'il sait diversifier les moyens à mettre en oeuvre pour s'adapter au mieux à l'objectif fixé et aux contraintes de chaque étude.<br /><br />Dans les chapitres cinq et six, le candidat présente succinctement divers travaux auxquels il a participé comme acteur principal ou comme encadrant. La liste suivante donne une idée de la diversité des thèmes abordés :<br /><br />- Réalisation d'un logiciel de simulation du comportement statique d'un séchoir de maïs. Ce logiciel est commercialisé.<br />- Recherche du réglage optimal du profil de température et d'humidité, T¬a(t) et Ha(t), de l'air envoyé dans un séchoir opérant en discontinu.<br />- Mesure indirecte de la teneur en eau dans un séchoir à cylindre, du collage des poudres dans un séchoir par atomisation, de la teneur en eau lors de la friture.<br />- Développement d'un capteur optique pour mesurer la fissuration du riz.<br />- Divers problèmes de commande.<br /><br />Le cadre exact dans lequel chacun de ces exercices s'est déroulé n'est pas toujours très explicite. On touche ici aux limites imposées par le choix d'une présentation synthétique des travaux, choix que l'on a trouvé fort judicieux par ailleurs. Ce défaut est corrigé par la présence de références bibliographiques très claires permettant au lecteur d'approfondir les points qui l'intéressent. On peut aussi retenir de cette diversité la marque d'une grande curiosité scientifique et technologique qui a amené Francis Courtois à explorer de nombreuses techniques de développement et de conduite des procédés.<br /><br />Le septième chapitre intitulé "Recherche en EAO" rappèle que Francis Courtois est aussi un enseignant et qu'il sait utiliser l'Internet.<br /><br />Le huitième chapitre apporte une solide conclusion à l'ensemble du texte.<br /><br />A la lecture de ce mémoire il apparaît clairement que le candidat à une vision très complète de ce qu'est un procédé, tant du point de vue des mécanismes fondamentaux mis en jeu que de la qualité des produits. Il intègre sans problème le fonctionnement dynamique et le régime permanent. Il a également une bonne vision des problèmes associés aux mesures, ce qui lui permet d'aborder avec efficacité la conduite des procédé. Il a enfin développé une très bonne maîtrise de l'outil informatique à travers ses différents modes d'utilisation. De ce point de vue, le rapporteur estime que Francis Courtois est au cœur du génie des procédés actuel, qu'il en maîtrise de nombreuses facettes et qu'il aurait tort de se positionner à la marge de la discipline.<br /><br />Cette activité de recherche a donné lieu à une vingtaine de publications dans des revues à comité de lecture et à une cinquantaine de conférences dans des congrès et colloques internationaux. Par ailleurs, Francis Courtois a déjà participé à l'encadrement de 8 thèses : à l'évidence il est apte à diriger des recherches. Le rapporteur donne donc un avis très favorable à la présentation orale de ces travaux en vue d'obtenir une Habilitation à Diriger des Recherches.
13

SURVEILLABILITÉ STRUCTURELLE ET PLATITUDE POUR LE DIAGNOSTIC DES MODÈLES BOND GRAPH COUPLÉS

El Osta, Wassim 06 December 2005 (has links) (PDF)
Des modules de supervision à base de modèle Bond Graph (BG) sont conçus pour les procédés énergétiques présents dans les industries à risques. Le BG comme outil multidisciplinaire est bien adapté à cause de la mise en jeu des énergies de nature diverse. Cet aspect de couplage (énergie, chimique...) rend les modèles dynamiques fortement non linéaires.<br />La génération systématique de modèles linéarisés des procédés complexes est considérée, le BG global d'une installation est directement obtenu à partir du Plan d'Instrumentation Détaillé (PID). Ces modèles sont valides car les processus thermofluides réels sont en général régulés autour d'un point de fonctionnement.<br />Les paramètres (coefficients hydrauliques, coefficients d'échange thermique...) n'étant pas toujours connus, la détermination directe des propriétés structurelles (commandabilité, observabilité, surveillabilité) des BGs sans<br />calcul préalable est utile pour la FDI (Fault Detection and Isolation).<br />Dans un premier temps, les modèles linéarisés sont exploités pour l'étude de la surveillance. Avant n'importe quelle implémentation industrielle (ou ajout de capteurs), la surveillabilité des composants, des actionneurs et des capteurs est considérée sans générer les Relations de Redondance Analytiques (RRA).<br />Dans un second temps, le modèle bond graph non linéaire est utilisé pour la conception des systèmes de<br />surveillance. En génie des procédés, il est possible d'identifier la catégorie des composants (actionneurs<br />hydrauliques, capteurs thermiques, etc..) à laquelle appartient l'élément défaillant. La surveillabilité de défauts simultanés d'actionneurs est considérée par une approche de platitude directe et générique.
14

Modélisation, simulation, métrologie et optimisation en génie des procédés -- Quatre piliers pour une science

Lesage, François 14 December 2010 (has links) (PDF)
Ce document présente les recherches menées par l'auteur de 1996 à 2010. Elles concernent en particulier les écoulements et transferts de matière et de chaleur en milieu poreux, vus à la fois à l'échelle du procédé et à l'échelle des phénomènes. Pour chacune de ces échelles, des systèmes de mesure ainsi que des modèles et simulations numériques ont été développés conjointement. A l'échelle globale, on a en particulier pu étudier la distribution de la phase liquide dans les trickle-beds. On a également proposé et validé un modèle de transfert de matière et de chaleur dans des tissus. A l'échelle locale, les simulations de l'écoulement liquide dans un milieu poreux parfaitement défini ont été confrontées avec succès à des mesures de gradients de vitesse et de direction de l'écoulement au niveau du garnissage obtenues grâce à un système de microélectrodes. Des études plus prospectives concernant le développement de méthodologies d'estimation paramétriques et l'optimisation dynamique et globale des procédés sont présentées dans une seconde partie. L'objectif est de pouvoir dimensionner et maîtriser le fonctionnement de procédés grâce à une méthode d'étude détaillée de procédés, depuis la construction de modèles, leur validation, l'obtention de résultats numériques et leur optimisation.
15

Influence d'une oxydation superficielle sur la structure des particules de noir de carbone

Goutille, Renée C. 19 May 1965 (has links) (PDF)
De nombreuses études ont déjà été faites sur le noir de carbone et sur son oxydation soit par l'acide nitrique, soit par l'ozone. Mais les oxydations ont généralement été poussées à un degré tel que la particule était partiellement détruite : la perte de masse atteignait jusqu'à 50 %, la dimension des granulés diminuait sensiblement et le réseau lui-même était nettement modifié. Le but de notre étude a été de savoir s'il était possible de rendre les particules hydrophiles par oxydation superficielle ménagée tout en en modifiant le moins possible la structure interne. Or il était difficile de modérer suffisamment l'oxydation d'une poudre en opérant par voie sèche, c'est pourquoi nous avons fait agir un oxydant gazeux, à savoir: l'ozone qui était tout indiqué, en milieu aqueux, les granules de noir étant maintenus en suspension par une agitation mécanique à l'aide d'un vibreur. Chaque particule étant ainsi recouverte d'une couche lamellaire d'eau lui servant d'écran, se voyait soumise, d'une façon très douce, à l'action de l'ozone. Notre étude comprend donc les parties suivantes : Ozonisation, granulométrie, étude par diffraction X, acidité totale. Nous pouvons affirmer qu'une oxydation par l'ozone en milieu aqueux rend le noir de carbone hydrophile par fixation de groupes superficiels COOH sans modifier sensiblement la granulométrie ni la structure interne aux rayons X.
16

Nanostructures de Carbone par Plasma

Fulcheri, Laurent 21 March 2003 (has links) (PDF)
Les recherches, menées conjointement depuis 12 ans par l'Ecole des Mines de Paris et l'IMP-CNRS, portent sur la synthèse de nanostructures de carbone à très haute température par plasma thermique. Initialement orientées vers la synthèse de noirs de carbone conducteurs, les recherches se sont élargies vers la synthèse de nouvelles nanostructures de carbone de type Fullerènes et nanotubes, lesquelles nanostructures font aujourd'hui l'objet d'un très grand intérêt dans des domaines d'applications extrêmement variés. L'approche, de type Génie des Procédés, a consisté à synthétiser des nanostructures de carbone à partir de différentes conditions opératoires, à caractériser ces nanostructures et étudier les relations procédé-nanostructures dans le but d'optimiser le procédé pour les diverses familles de matériaux. Une des originalités de la démarche est liée à la technologie plasma triphasée, développée à une échelle intermédiaire entre le dispositif de laboratoire et un pilote industriel qui permet la production de quantités significatives de produit (de l'ordre du kilogramme) rendant possible la conduite des test applicatifs dans les différents domaines concernés. Sur un plan théorique, les recherches ont porté principalement sur la caractérisation de l'écoulement à l'intérieur du réacteur. L'approche a notamment porté sur l'étude du mouvement d'arcs libres entre les trois électrodes du système triphasé, sur la prise en compte de ce mouvement dans un modèle d'écoulement turbulent global ainsi que sur l'effet des particules de carbone sur les transferts radiatifs. Sur un plan expérimental, parallèlement au développement de la technologie plasma et des dispositifs de métrologie et de diagnostics adaptés, la démarche a consisté à synthétiser les différentes familles de nanostructures : noirs de carbone, fullerènes, nanotubes, à partir de précurseurs carbonés liquides, solides ou gazeux éventuellement associés à des éléments catalytiques (Ni, Co, Y) pour différentes conditions opératoires (précurseur, gaz plasma, débit, puissance électrique,...). Sur un plan physico-chimique, la caractérisation des nanostructures a été abordée à partir des méthodes d'analyses classiques (BET, DBP, ATG, composition chimique, Ph, Diffraction-X, Spectro UV-Vis,...) et d'imagerie (MEB, MET). Parallèlement, des tests « applicatifs » ont été réalisés dans le domaine des polymères (résistivité électrique, comportement mécanique et rhéologique) des élastomères (comportement mécanique et rhéologique) et des piles (primaires et secondaires) à partir de procédures de tests standardisées ainsi que dans le domaine du stockage d'hydrogène.
17

Apports de la thermodynamique pour la conception et l'intégration des procédés.

Neveu, Pierre 10 December 2002 (has links) (PDF)
Durant les trois dernières décennies, l'analyse des systèmes a constamment évolué vers une problématique pluridisciplinaire. L'outil privilégié d'analyse et de communication entre acteurs impliqués dans un projet reste la thermodynamique. Le formalisme unique utilisé ici, issu d'une simplification de la thermodynamique des processus irréversibles permet d'étudier les procédés de production d'énergie, à plusieurs échelles d'étude. On montre tout d'abord que le rendement exergétique définit un critère fondamental pour la préservation de l'environnement. Au niveau des procédés de production, l'analyse des machines trithermes fait apparaître une limite thermodynamique à ce rendement, quel que soit le type de procédé. On montre qu'un fonctionnement à puissance exergétique maximale, correspond a un rendement exergétique maximale de ½. La prise en compte des propriétés thermodynamiques de l'agent mis en œuvre dans le procédé est ensuite effectuée au travers des cycles endoréversibles équivalents et de l'analyse des nombres de destruction d'exergie. Au niveau des composants unitaires, la définition des systèmes équivalents de Gibbs permet de mettre en évidence une production irréductible d'entropie due au transfert de matière. Enfin, ces systèmes équivalents de Gibbs sont à la base d'une modélisation dynamique des procédés de production de froid et permettent l'obtention de modèles numériques simples, fiables et robustes. En particulier, l'analyse dynamique des irréversibilités devient accessible pour des procédés en fonctionnement instationnaire.
18

Des propriétés morphologiques des flocs biologiques aux conditions de fonctionnement de systèmes à boues activées

Oliveira, Pedro 06 July 2018 (has links) (PDF)
Parmi les différentes technologies pour produire un effluent conforme aux normes de rejet en vigueur, les Procédés par Boues Activées sont largement utilisés en tant que traitement biologique du fait de leur faible coût et de leur facilité d’implémentation. Ces procédés réalisent l’abattement des polluants en deux étapes : (1) la biodégradation par des microorganismes dans un bassin d’aération et (2) la séparation de la biomasse par décantation. Les paramètres opératoires peuvent agir sur l’efficacité du procédé, notamment en modifiant les propriétés des boues . L’objectif de ce travail est d’apporter un nouvel éclairage sur cette relation triangulaire en mettant en perspectives les propriétés de taille et de forme des flocs de boues et les performances du procédé de traitement. La première étape pour parvenir à cet objectif a consisté à développer une méthodologie de caractérisation des flocs de boues par analyse d’images à l’aide du microscope automatisé Morphologi G3 de Malvern Instruments. Le protocole de mesure proposé repose sur le choix de la cellule d’analyse, du facteur de dilution, du grossissement, du seuil de niveau de gris mis en œuvre pour la binarisation des images et du nombre total de particules analysées. Des boues provenant de plusieurs stations d’épuration ont été étudiées afin d’évaluer la robustesse de la méthodologie. Des différences en termes de propriétés de taille et forme - Diamètre équivalent (Deq), Circularité (C), Convexité (Cx), Solidité (S) et Rapport d’Aspect (RA) - entre les différentes boues sont clairement apparues. Le protocole de caractérisation de la morphologie étant établi et validé, deux campagnes expérimentales ont été mises en œuvre en utilisant un système à boues activées à l’échelle pilote alimenté par un effluent synthétique. Les descripteurs morphologiques ont été mesurés sur des échantillons d’environ 100 000 flocs permettant d’atteindre une statistique fiable aussi bien sur la taille que sur la forme des agrégats. La performance du procédé a été évaluée en suivant des indicateurs physicochimiques classiquement associés au traitement des eaux usées : Matières en Suspension (MES), Indice de Boue (IB), taux d’abattement de la Demande Chimique d’Oxygène (DCO) et de l’Azote (N). Cette stratégie a permis d’identifier des relations entre les performances d’épuration, la morphologie des agrégats et les paramètres opératoires. Pendant la première campagne, trois valeurs différentes de l’âge de boue ont été imposées : 15, 20 et 30 jours. Lors d’un changement d’âge de boue, la taille et la circularité des flocs biologiques augmentent temporairement avant de se stabiliser à nouveau à leurs valeurs initiales. Ainsi, en régime permanent, les distributions en taille et en circularité semblent indépendantes de l’âge de boue. Lors de la deuxième campagne, trois paramètres opératoires ont été modifiés : la charge organique, le taux de recirculation et le rapport DCO:N. Une charge organique élevée a provoqué une forte augmentation de la taille des flocs et une diminution de leur solidité. Ce résultat peut être expliqué par la croissance de bactéries filamenteuses qui impacte fortement la morphologie des flocs et la performance du procédé. L’augmentation du taux de recirculation et la diminution du rapport DCO:N ont, en outre, induit une légère réduction de la taille des flocs et une évolution peu significative des valeurs de circularité et convexité. L’analyse des distributions en 3 Dimensions couplant les données de taille et de forme s’est révélée un outil prometteur, permettant de proposer des mécanismes responsables de l’évolution des propriétés morphologiques des boues. Enfin, une autre approche a été développée sur la base de deux dimensions fractales reliant l’aire et le périmètre des flocs (Dpf) ou l’aire et la longueur maximale (D2). De brusques variations de Dpf et D2 ont été corrélées avec les phénomènes liés au développement de bactéries filamenteuses.
19

Gazéification de la biomasse en lit fluidisé dense et circulant entre 750 et 850°C : étude hydrodynamique et réactive

Pécate, Sébastien 12 October 2017 (has links) (PDF)
La conversion thermochimique de la biomasse en lit fluidisé circulant permet la production d’un gaz à haute valeur ajoutée, utilisable dans de nombreuses applications. L’objectif de ces travaux est de mieux comprendre et modéliser les phénomènes couplés, hydrodynamiques et réactifs, se déroulant en lit fluidisé circulant. Dans un premier temps, un pilote de pyrogazéification de 20 kg/h de biomasse en lit fluidisé circulant a été conçu. L’étude hydrodynamique de ce pilote a ensuite été réalisée entre 20 et 950 °C. Les résultats ont permis d’établir des règles de design et de fonctionnement de réacteurs de gazéification en lit fluidisé circulant. Dans un second temps, une étude de la pyrogazéification de la biomasse a été réalisée en lit fluidisé dense ainsi qu’en lit fluidisé circulant, entre 750 et 850 °C. L’étude de l’influence de nombreux paramètres opératoires (températures, pression partielle de la vapeur d’eau, débit de biomasse, débit de circulation, inventaire et nature du média, forme de la biomasse) sur les performances de la gazéification a permis d’identifier les paramètres clés permettant de contrôler la composition ainsi que le volume de gaz de synthèse produit. Par ailleurs, à partir des résultats expérimentaux, un schéma réactionnel est proposé pour la pyrolyse de la biomasse étudiée. Enfin, un outil de modélisation du réacteur de gazéification de la biomasse en lit fluidisé dense et circulant, intégrant les réactions de pyrolyse, de gazéification, de water-gas shift et de reformage des goudrons a été développé et validé sur les résultats expérimentaux.
20

Simulation numérique de la fragmentation d'un précurseur de dopage au sein d'un réacteur d'implantation ionique par immersion plasma / Numerical simulation of the fragmentation of a doping precursor inside a plasma immersion ion implantation (PIII) reactor

Maury, Mathieu 04 December 2015 (has links)
Cette thèse est centrée sur le développement de modèles numériques pour simuler le comportement physique des plasmas présents dans un réacteur d'implantation ionique à immersion plasma. Ces modèles ont pour but d'estimer l'impact des réglages opérationnels du réacteur sur les paramètres plasma pertinents pour l'implantation, comme le flux ionique sur le substrat et la distribution en énergie des ions. La géométrie complexe du réacteur rend difficile sa modélisation d'un seul tenant, du fait des importants gradients temporels et spatiaux attendus pour les densités ioniques et la température électronique. Une stratégie de simulation en deux étapes a donc été adoptée : - Un modèle quasi-homogène, couplé à un module de chimie en volume élaboré, permet de représenter des deux portions de la source plasma et d'obtenir l'évolution de la composition du plasma en fonction de la puissance radiofréquence injectée. - Un modèle unidimensionnel de type PIC-MC permet de décrire la dynamique de la gaine ionique qui se forme près du substrat du fait du potentiel imposé, ainsi que de déterminer la distribution de l'énergie d'impact des ions et les flux d'implantation correspondants. Au final, ces travaux de recherche ont permis d'aboutir à une meilleure compréhension de l'impact des paramètres opérationnels du réacteur sur le flux ionique et la distribution en énergie des ions arrivant sur le substrat. La connaissance des couplages physiques entre la source plasma et la chambre d'implantation autorise l'optimisation du processus de dopage, puisque les paramètres opérationnels peuvent être réglés de manière à minimiser la profondeur de dopage après implantation. / Numerical models have been developped to simulate the plasma present inside a plasma immersion ion implantation reactor. Their goal is to estimate the impact of the reactor’s settings on the plasma parameters relevant for ion implan-tation. The complex geometry of the reactor renders its modelling difficult, because of the stiff spatial and temporal gradients expected, so a two-step simulation stra-tegy was adopted : – A global model of the plasma source, coupled to a detailed volume chemistry module, allows to determine the time evolution of the plasma composition according to the radio-frequency power injected in the source.– A 1D PIC-MC model of the sheath facing the substrate describes the dyna-mics of the expanding sheath and allows to determine the ion impact energy distribution function and corresponding implantation profiles. Determination of the couplings between the plasma source and the implantation chamber makes possible to optimize the doping process, since the reactor’s opera-tional settings can then be adjusted to minimize the doping depth after implanta-tion.

Page generated in 0.0947 seconds