• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 8
  • 7
  • 1
  • 1
  • Tagged with
  • 87
  • 36
  • 32
  • 31
  • 27
  • 25
  • 19
  • 19
  • 13
  • 12
  • 10
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

OPTIMISATION STATISTIQUE DU RENDEMENT PARAMETRIQUE DE MICROSYSTEMES (MEMS)

Delauche, Flavien 23 May 2003 (has links) (PDF)
Les microsystèmes ou MEMS (Micro Electro Mechanical Systems) entrent dans une phase industrielle. Habituellement conçus à partir de procédés utilisés classiquement en microélectronique, ils peuvent aussi inclurent des parties non électroniques : mécaniques, optiques, etc. Leur complexité technologique et la difficulté à modéliser ces applications multi-physiques ont retardé leur industrialisation, mais cette phase est aujourd'hui atteinte. En parallèle se développent donc des contraintes de coût de fabrication et de rendement dans le milieu très concurrentiel du semiconducteur. Les travaux réalisés dans le cadre de cette thèse visent à développer un logiciel implémentant un algorithme original d'optimisation statistique du rendement paramétrique qui tente de s'affranchir des principales limites associées aux méthodes courantes. Il se présente comme un module aisément insérable dans un flot de conception de circuit intégré ou de MEMS. Il s'agit d'optimiser les dimensions des structures réalisées afin de limiter les variations et dégradations des performances des microsystèmes qui sont dues aux fluctuations inéluctables des paramètres technologiques lors de leur fabrication, et sont causes de mauvais rendement.
32

EXPLOITATION DES SPECTRES GAMMA PAR METHODE NON PARAMETRIQUE ET INDEPENDANTE D'A PRIORI FORMULES PAR L'OPERATEUR

Vigineix, Thomas 04 November 2011 (has links) (PDF)
La spectrométrie gamma est une des mesures non destructives passives la plus utilisée pour la quantification des radionucléides dans les déchets nucléaires. Le travail de thèse a pour but l'amélioration de l'exploitation du spectre gamma (c'est-à-dire après l'étape d'acquisition du spectre). L'exploitation des spectres se faisant en deux étapes (restituer les énergies et les surfaces nettes des pics contenus dans le spectre et déterminer le rendement de détection de la mesure), le travail de thèse s'est divisé en deux parties. Dans un premier temps, nous avons mis en place un procédé de validation qui quantifie les incertitudes engendrées par l'extraction des énergies et des surfaces et qui est applicable à n'importe quel logiciel de déconvolution. Avec ce procédé, nous avons étudié les performances de la déconvolution effectuée par le logiciel SINBAD. Le travail de thèse a ainsi permis de disposer d'un outil automatisé d'extraction des énergies et des surfaces nettes des pics d'absorption validé et dont les incertitudes sont quantifiées. Enfin, la deuxième partie de la thèse a permis de définir une méthode automatisée de calcul du rendement de détection, applicable à n'importe quel objet mesuré. La faisabilité de la méthode sur des cas simples a été attestée par le travail de thèse. L'extrapolation à des cas plus complexes devra faire l'objet d'études supplémentaires.
33

Optimisation de dispositifs électromagnétiques dans un contexte d'analyse par la méthode des éléments finis

Caldora Costa, Mauricio 28 June 2001 (has links) (PDF)
Dans ce travail, nous proposons des solutions à la problématique constituée par les difficultés rencontrées dans l'optimisation de dispositifs électromagnétiques analysés par des méthodes de simulation numérique, notamment la Méthode des Eléments Finis. Parmi les difficultés, nous avons la grande diversité des problèmes, la recherche d'une solution globale, l'échange des données entre l'outil de simulation et l'outil d'optimisation et le temps de calcul onéreux pour atteindre une solution. Nous commençons par une description des méthodes les plus utilisées dans la résolution de problèmes d'optimisation, dans laquelle nous mettons en évidence leurs particularités et les principales caractéristiques qu'elles ont en commun. Après cette récapitulation, nous présentons l'architecture logiciel d'un outil d'optimisation idéalisée en s'appuyant sur les concepts de la Programmation Orientée Objet. Dans l'implémentation de cette architecture, nous considérons les difficultés issues des problèmes liés à la simulation numérique et nous proposons une nouvelle approche d'optimisation basée sur la Méthode des Plans d'Expérience. Pour valider cette nouvelle approche, nous présentons trois différentes applications en électrotechnique : l'optimisation d'un moteur à reluctance variable, l'optimisation d'un contacteur électromagnétique et la résolution du problème 25 du TEAM Worshop.
34

Contributions à la planification d'expériences robuste à l'erreur structurelle

Roger, Morgan 26 November 2007 (has links) (PDF)
Nous traitons le problème de planification d'expériences robuste à l'erreur structurelle pour la régression, lorsque la structure de régression est paramétrique et linéaire par rapport aux paramètres. L'erreur structurelle est modélisée par un processus stochastique, gaussien ou plus généralement qui possède un moment d'ordre deux. On considère principalement le cas de l'estimation des paramètres par moindres carrés avec comme critère de performance du prédicteur l'intégrale de l'erreur quadratique de prédiction (IEQP), mais la démarche reste valable pour les moindres carrés pondérés et pour toute fonctionnelle linéaire de l'erreur de prédiction. Les critères d'optimalité retenus sont fondés sur l'espérance totale (par rapport à la loi conjointe du bruit et l'erreur structurelle) de l'IEQP et le quantile de l'IEQP, qu'on optimise pour les protocoles exacts à l'aide d'une méthode par essaim de particules. L'optimisation du quantile a nécessité de développer une méthode numérique efficace pour l'approximation du quantile d'une somme de carrés de variables gaussiennes centrées corrélées. Le problème de la dépendance des protocoles vis-à-vis des hyperparamètres (introduits par la fonction de covariance du processus stochastique) est traité par une approche de type maximin de l'efficacité, et aboutit à la définition d'un nouveau critère d'optimalité, dont l'optimisation est rendue possible par l'emploi d'une interpolation dans l'évaluation du critère. Les protocoles optimaux obtenus prouvent leurs bonnes performances vis-à-vis d'autres critères et se comparent favorablement à d'autres protocoles issus de critères de la littérature. L'application de la démarche à la conception d'un débitmètre robuste aux singularités de conduite permet d'illustrer comment introduire des connaissances a priori précises sur la nature de l'erreur structurelle, ici des données issues de codes aux éléments finis.
35

Développement de nouvelles méthodologies de préconcentration électrocinétique in-situ en électrophorèse capillaire pour l'analyse de traces

Anrès, Philippe 20 September 2012 (has links) (PDF)
L'électrophorèse capillaire, quoiqu'étant une technique analytique très puissante, souffre d'un manque en sensibilité avec les détecteurs spectrophotométriques. Pour palier ce problème il est possible d'utiliser des méthodes de préconcentration électrocinétiques in-situ. Les travaux menés au cours de cette thèse se sont attachés à développer de nouvelles méthodologies de préconcentration électrocinétique. Tout d'abord, il a été montré que le greffage des capillaires de silice avec du polyacrylamide linéaire permet en milieu acide complexe de réduire fortement l'écoulement électroosmotique ce qui favorise la mise en œuvre des techniques de préconcentration. Ensuite, le couplage de deux méthodes de préconcentration, l'amplification de champ électrique avec une injection électrocinétique et du sweeping a été examiné. En étudiant le mécanisme grâce à des plans d'expérience et de la simulation, l'influence des paramètres expérimentaux ainsi que leurs rôles ont été éclaircis et la procédure d'optimisation simplifiée. A la suite de ces résultats, une procédure d'analyse d'herbicides présents dans des eaux de distribution a été développée, permettant leur détection à un niveau proche de celui spécifié par l'Union Européenne sans étape préalable d'extraction. Ensuite, l'utilisation de liquides ioniques à longue chaîne pour améliorer la sensibilité d'une méthode appelée " Micelle to Solvent Stacking " a été étudiée et des améliorations d'un facteur 10 ont été obtenues par rapport aux gains obtenus avec des surfactants classiques (application à des herbicides et des anti-inflammatoires). Enfin, pour améliorer les gains en sensibilité avec de plus une spécificité élevée, une preuve de concept a été développée en utilisant un aptamère pour l'analyse sélective d'Ochratoxine A à l'état de trace dans le vin, ce qui ouvre de nouvelles perspectives pour l'utilisation de cet outil biologique en électrophorèse capillaire.
36

Estimation de paramètres et planification d'expériences adaptée aux problèmes de cinétique - Application à la dépollution des fumées en sortie des moteurs

Canaud, Matthieu 14 September 2011 (has links) (PDF)
Les modèles physico-chimiques destinés à représenter la réalité expérimentale peuvent se révéler inadéquats. C'est le cas du piège à oxyde d'azote, utilisé comme support applicatif de notre thèse, qui est un système catalytique traitant les émissions polluantes du moteur Diesel. Les sorties sont des courbes de concentrations des polluants, qui sont des données fonctionnelles, dépendant de concentrations initiales scalaires.L'objectif initial de cette thèse est de proposer des plans d'expériences ayant un sens pour l'utilisateur. Cependant les plans d'expérience s'appuyant sur des modèles, l'essentiel du travail a conduit à proposer une représentation statistique tenant compte des connaissances des experts, et qui permette de construire ce plan.Trois axes de recherches ont été explorés. Nous avons d'abord considéré une modélisation non fonctionnelle avec le recours à la théorie du krigeage. Puis, nous avons pris en compte la dimension fonctionnelle des réponses, avec l'application et l'extension des modèles à coefficients variables. Enfin en repartant du modèle initial, nous avons fait dépendre les paramètres cinétiques des entrées (scalaires) à l'aide d'une représentation non paramétrique.Afin de comparer les méthodes, il a été nécessaire de mener une campagne expérimentale, et nous proposons une démarche de plan exploratoire, basée sur l'entropie maximale.
37

Etude cinétique et optimisation multicritères du couplage déshydratation imprégnation par immersion : séchage convectif de la poire, la pomme et l'abricot

Djendoubi Mrad, Nadia 20 December 2012 (has links) (PDF)
Ce travail avait pour objectif l'étude de l'impact des deux procédés : la déshydratation imprégnation par immersion (DII) et le séchage convectif menés séparément ou combinés sur les transferts couplés d'eau et de saccharose et les principaux critères de qualité de fruit (écart de couleur, teneur en phénols totaux (PT), teneur en acide ascorbique (AA), retrait volumique, activité de l'eau) en prenant la poire Conférences comme modèle. L'effet des procédés sur les morceaux de poire a été appréhendé selon deux approches : (i) une étude globale de l'impact des variables de commandes sur la qualité du produit fini et (ii) une étude cinétique des composés d'intérêt nutritionnel et de la qualité (couleur, retrait, activité de l'eau).Un plan d'expériences composite centré à quatre facteurs et cinq niveaux a été établi (concentration en saccharose de la solution osmotique : 25-65%, température de DII : 20-60 °C, durée de la DII : 0,5-6,5 h, température du séchage convectif : 30-70 °C) pour étudier l'effet global des procédés sur le produit fini. En DII, les paramètres " °Brix, " durée " et " la température de la solution " ont un effet significatif (p < 0,01) sur les pertes en eau, le gain en soluté et les attributs de qualité de morceaux de poire. Les pertes en AA sont plus élevées que les pertes en PT et sont essentiellement dues à l'oxydation et à l'entraînement par l'eau. Durant le séchage convectif, les pertes en PT et en AA dépendent plus de la durée du procédé que de la température d'exposition. Elles atteignent respectivement 80% et 34% après 10 h de séchage à 30 °C. Le changement de couleur de morceaux de poire dépend de la durée et de la température de traitement et est plus prononcé en fin de séchage. Des modèles quadratiques prédictifs ont été proposés pour relier les variables de réponse (aw, différence de couleur, perte en PT et durée totale de traitement) aux paramètres opératoires des deux procédés étudiés. Cependant, la perte en AA décroit linéairement avec la durée de DII. Une optimisation multicritères en utilisant la méthodologie des surfaces de réponse (MSR) a été proposée (pertes minimales en PT et en AA, durée totale du traitement et différence de couleur réduites et une aw inférieure à 0,6) pour la combinaison DII/séchage. Les conditions optimales sont : solution osmotique à 28°C et 25°Brix, une durée de DII de 30 min et un séchage convectif à 60 °C. Par ailleurs, les effets de la température (30, 45 et 60 °C) et de l'imprégnation en saccharose par DII (10 et 65 min, 70°Brix, 30 °C) sur les isothermes de désorption et sur la température de transition vitreuse (Tg) de morceaux de poires, de pommes et d'abricots ont été déterminés. L'imprégnation en saccharose du tissu végétal atténue l'influence de la température sur sa capacité de sorption. Elle engendre un effet dépresseur de l'activité de l'eau et une augmentation de l'hygroscopicité de la poire, la pomme et l'abricot à température élevée. Les isothermes de désorption des abricots frais et enrichis en saccharose présentent un croisement des courbes marquant l'inversement de l'effet de la température sur les isothermes. La Tg dépend de la température, de la teneur en saccharose et de la teneur en eau des fruits. Pour une teneur en eau constante, l'augmentation de la température et la durée de DII se traduisent par l'augmentation de la Tg. Les digrammes de phase (Tg=f(X) et Tg=f(aw)) des fruits ont été établis à 30, 45 et 60°C et les teneurs en eau critiques ainsi que les activités d'eau critiques ont été déterminées. Une teneur en eau en fin de séchage inférieure ou égale à 0,02 g/g M.S. est recommandée pour l'obtention de morceaux de fruit stables aux niveaux microbiologique, physicochimique et rhéologique.
38

Etude de la métallisation de la face avant des cellules photovoltaïques en silicium / Study of the front side metallization of silicon solar cells

Thibert, Sébastien 23 April 2014 (has links)
À l'échelle industrielle, la métallisation de la face avant des cellules photovoltaïques est réalisée grâce au procédé de sérigraphie depuis plus de 40 ans. Une pâte à base d'argent est imprimée avant d'être recuite à haute température. La robustesse, la simplicité et la haute cadence de production de ce procédé ont largement contribué à son succès. L'étape de métallisation est critique dans la chaîne de fabrication des cellules. D'un côté, les propriétés des contacts déposés déterminent les performances finales des cellules. D'un autre côté, plus de 7% de la consommation mondiale d'argent sont déjà destinés à l'industrie photovoltaïque. Avec les prévisions de croissance exponentielle de ce secteur, la quantité d'argent déposée lors de cette étape devient de plus en plus cruciale car elle régit le coût final des cellules. Elle dépend également de la qualité des contacts imprimés. Il est donc important d'optimiser le procédé de sérigraphie pour limiter la masse d'argent imprimée et maximiser le rendement des cellules. Les travaux présentés dans la première partie de cette thèse sont focalisés sur ces deux aspects. Dans un premier temps, le comportement rhéologique des pâtes de sérigraphie est étudié. Par la suite, une étude multifactorielle combinée à des simulations des pertes de puissance permet d'évaluer l'influence des paramètres de la sérigraphie sur le rendement des cellules et la masse d'argent déposée. Ces travaux ont conduit à la fabrication de cellules caractérisées par un rendement moyen de 19,0% à l'échelle industrielle. Le procédé de sérigraphie reste couteux et de nombreuses solutions alternatives sont à l'étude. En effet, la microstructure hétérogène des contacts cause des pertes électriques non négligeables en comparaison des cellules à haut rendement. Par ailleurs, la résolution limitée de ce procédé ne permet plus de réduire les dimensions des impressions, ce qui a un impact direct sur les pertes optiques et la masse d'argent déposée. Enfin, l'optimisation simultanée des propriétés électriques et géométriques des contacts complexifie son contrôle à l'échelle industrielle. Le concept double couche est une alternative innovante qui permet de s'affranchir de ces limitations. Une première couche est d'abord imprimée pour limiter la largeur initiale des contacts et améliorer l'interface avec la cellule. Une seconde couche de métal pur, déposée par voie électrolytique, vient épaissir cette dernière pour optimiser la hauteur et la conductivité de la grille de métallique. Dans le même temps, cette étape permet de contrôler précisément la masse d'argent déposée. Plusieurs solutions sont disponibles pour réaliser l'impression de la première couche. Grâce à sa flexibilité et à sa très haute cadence de production, le procédé de flexographie semble répondre au cahier des charges d'un tel dépôt dans des conditions industrielles. La seconde partie des travaux exposés dans cette thèse traite du développement de cette technique d'impression. Tout d'abord, le comportement rhéologique de plusieurs encres dérivées d'une pâte de sérigraphie classique est étudié. Dans un second temps, le procédé de flexographie est adapté au dépôt de lignes pouvant être épaissies par voie électrolytique (procédé LIP). Le potentiel de ce procédé est ensuite évalué à l'aide de modélisations du rendement et de la masse d'argent déposée. Finalement, la faisabilité du concept est démontrée grâce à la fabrication d'une cellule caractérisée par un rendement prometteur de 17,9%. / At an industrial scale, the front side metallization of solar cells is performed by screen printing for 40 years. A silver-based paste is printed before a high temperature annealing. This simple and robust process enables a high throughput. However, the metallization is a critical step in production lines. On the one hand, the contact properties affect the final cell performances. On the other hand, the photovoltaic industry already accounts for 7% of the world's silver consumption. With the expected exponential growth of this sector, the mass of silver per cell becomes crucial as it governs their final cost. Consequently, it is mandatory to optimize the screen printing process to limit the amount of deposited silver and maximize the solar cell efficiency. The first part of this study focused on these two aspects. First, the rheological behavior of screen printing pastes is investigated. Then, a multifactorial study is combined with power loss simulations to assess the effect of screen printing parameters on the cell efficiency and the deposited silver mass. Besides, these studies have lead to an average cell efficiency of 19,0% at an industrial scale. To ensure the photovoltaic industry growth, the screen printing process should be replaced in coming years. Indeed, the heterogeneous contact microstructure causes significant electrical losses in comparison to high-efficiency cells. Moreover, the limited resolution of this process does no longer allow a contact width reduction, which has a direct impact on the optical losses and the silver mass per cell. Finally, the simultaneous optimization of the electrical and geometrical contact properties is difficult at an industrial scale. The seed and plate concept is an innovative solution that overcomes these limitations. First, a seed layer is printed to reduce the initial contact width and improve its interface with the cell. Then, a second layer is electrolytically grown to improve the conductivity and the height of the metal grid. Besides, this step enables an accurate control of the deposited silver amount. Several solutions are available to print the first layer. Because of a high throughput and flexibility, the flexographic printing process seems particularly well suited to meet the seed layer requirements at an industrial level. The second part of this study focuses on the development of this process. First, the rheological behavior of several inks is studied. Secondly, the flexographic printing process is adapted to print fine lines that can be thickened by light induced plating (LIP). The potential of this metallization scheme is then assessed using a simulation of cell performances and silver consumption. Finally, a promising 17,9% cell efficiency demonstrates the concept feasibility.
39

Caractérisation des variabilités Matériaux/ Process pour une convergence produit de fonderie par approche prédictive / Characterization of variability Materials / Process for foundry product convergence by predictive approach

Outmani, Imane 16 March 2017 (has links)
Les alliages Al-Si sont largement utilisés dans l’industrie automobile en fonderie sous pression, en particulier pour la fabrication des blocs moteurs, en raison de leurs bon rapport résistance/ poids et leurs excellentes propriétés mécaniques. Du fait de l’internationalisation de la production, la composition chimique de ces alliages et les paramètres du procédé HPDC peuvent varier d’un pays à l’autre, ils peuvent même varier d’un site de fabrication à l’autre dans le même pays. Or, les conceptions des pièces automobiles sont aujourd’hui de type déterministe et elles sont réalisées sur la base des matériaux et procédés européens, ce qui peut affecter les propriétés de ces pièces dans le cas d’une localisation hors Europe. Ainsi, il est important de pouvoir adapter les conceptions rapidement et à moindre coût en prenant en compte les contraintes matériau/ process locales. Dans cette thèse, nous avons proposé une approche méthodologique permettant de prédire les caractéristiques mécaniques en fonction de la variabilité matériaux/ process en s'appuyant sur une étude expérimentale/ statistique de l’effet de la variabilité des principaux éléments d’alliage (Si, Cu, Mg) et des paramètres procédé (température de la coulée et pression d’injection) sur les propriétés mécaniques des alliages d’Al-Si moulés sous pression. La microstructure et le taux de porosités ont également été évalués. Cette méthodologie a abouti à la construction d’un outil de conception produit permettant de prédire les caractéristiques mécaniques dans le cas du changement de l’un (ou des) paramètres Matériau/ Process. / Secondary Al-Si alloys are widely used in automotive industry for engine blocks because they offer a considerable weight reduction whilst maintaining good mechanical properties. The ever-expanding internationalisation of production, with same stages of production processes spread across a number of countries to produce locally, causes however high variability in the casting products. The chemical composition of the same alloys and the working variables of the unchanged high-pressure die casting process (HPDC) may change for the same casting parts from one country to another, they can even sometimes vary from one manufacturing site to another within the same country. Designing for aluminium automotive components does call today for new deterministic design methods that are often achieved from European material and casting process databases, which can affect the properties of these parts in the case of a location outside Europe. Thus, it is important to adapt the design of die casting parts quickly and inexpensively by taking into account the material and process local constraints. In this work, a methodological approach which permits to predict mechanical properties as a function of material and process variability based on an experimental/ statistical study on the effect of the variability of the primary factors of alloying elements contents (Si, Cu and Mg) and HPDC process parameters (casting temperature and injection pressure) on mechanical properties of die cast aluminium alloys has been proposed. The microstructural features and the porosity level were also investigated and assessed. This approach has resulted in statistical design tool that will allow designers to make changes to the design of their casting and to industrialize them outside Europe.
40

Système à base de connaissances pour le processus de plan d'expériences numériques / Knowledge-based system for the numerical design of experiments process

Blondet, Gaëtan 09 June 2017 (has links)
Le besoin de compétitivité des entreprises, dans un contexte économique mondialisé, repose sur l'amélioration de la qualité des produits et la réduction des coûts et du temps de mise sur le marché. Pour atteindre ces objectifs, la simulation numérique est couramment utilisée pour la conception de produits complexes et mobilise des expertises diverses. Les Plans d'Expériences Numériques (PEN) sont de plus en plus utilisés pour simuler les variabilités des propriétés et de l’environnement du produit. Un processus de PEN apporte des méthodes de planification et d'analyse d'un ensemble de simulations, pour mieux maîtriser les performances du produit. La problématique traitée repose sur deux points. D'une part, la définition d'un processus de PEN repose sur de nombreux choix et l'utilisation de méthodes complexes, nécessitant une expertise avancée. Cette définition est d'autant plus complexe que le modèle de simulation est complexe et coûteux à exécuter. D'autre part, l'utilisation de PEN conduit à une production de grands volumes de données en multipliant les simulations. Ces travaux portent sur l'obtention rapide de la configuration optimale du processus de PEN pour raccourcir la préparation et l’exécution d’un PEN. Ces travaux se sont orientés vers la réutilisation des connaissances en entreprise pour un système à base de connaissances, composé d'une ontologie spécifique, pour capitaliser et partager les connaissances, et d'un moteur d'inférences, basé sur les réseaux bayésiens, pour proposer aux concepteurs des configurations efficaces et innovantes. Cette proposition est illustrée par une application sur un produit industriel issue du secteur automobile. / In order to improve industrial competitiveness, product design relies more and more on numerical tools, such as numerical simulation, to develop better and cheaper products faster. Numerical Design of Experiments (NDOE) are more and more used to include variabilities during simulation processes, to design more robust, reliable and optimized product earlier in the product development process. Nevertheless, a NDOE process may be too expensive to be applied to a complex product, because of the high computational cost of the model and the high number of required experiments. Several methods exist to decrease this computational cost, but they required expert knowledge to be efficiently applied. In addition to that, NDoE process produces a large amount of data which must be managed. The aim of this research is to propose a solution to define, as fast as possible, an efficient NDoE process, which produce as much useful information as possible with a minimal number of simulations, for complex products. The objective is to shorten both process definition and execution steps. A knowledge-based system is proposed, based on a specific ontology and a bayesian network, to capitalise, share and reuse knowledge and data to predict the best NDoE process definition regarding to a new product. This system is validated on a product from automotive industry.

Page generated in 0.0479 seconds