• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 3
  • 2
  • 1
  • Tagged with
  • 36
  • 36
  • 16
  • 14
  • 10
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Spéciation de l'arsenic dans les produits de la pêche par couplage HPLC-ICP-MS après extraction assistée par micro-ondes (MAE). Contribution à l'évaluation des risques par l'estimation de sa bioaccessibilité

Dufailly, Vincent 27 November 2008 (has links) (PDF)
Les agences gouvernementales évaluent généralement les risques alimentaires liés à la présence d'arsenic dans les produits de la pêche en analysant uniquement l'arsenic élémentaire, sans prendre en compte les différentes formes en présence ni leur biodisponibilité. Le principal objectif de cette étude a été de développer et de valider une méthode permettant à l'Agence Française de Sécurité Sanitaire des Aliments (AFSSA) de proposer à ses tutelles une meilleure évaluation des risques encourus par le consommateur en déterminant la spéciation et la bioaccessibilité des différentes formes arséniées présentes dans les produits de la pêche. La première partie de ce travail a porté sur la mise au point d'une méthode de séparation des principales espèces arséniées couramment retrouvées dans les produits de la pêche par couplage entre la chromatographie d'échanges d'ions (IEC) et la détection par ICPMS. La méthodologie des plans d'expériences utilisée dans ces travaux, a permis, en un minimum d'essais, d'une part d'évaluer l'influence des différents facteurs et de leurs interactions éventuelles sur la séparation de 7 à 9 espèces arséniées et d'autre part, de déterminer les conditions analytiques optimales tout en minimisant le temps d'analyse (moins de 15 minutes), en conservant des résolutions satisfaisantes et en améliorant les sensibilités des composés considérés. La deuxième partie de ces travaux a concerné le développement de la mise en solution des espèces arséniées dans les produits de la pêche par extraction assistée par micro-ondes (MAE). L'optimisation des conditions d'extraction sur différents matériaux de référence certifiés a montré clairement qu'un solvant uniquement composé d'eau était suffisant pour obtenir des taux de récupération satisfaisants en As total et en spéciation. L'évaluation des critères analytiques a démontré que la méthode était pratiquement validée pour la spéciation de l'arsenic dans les produits de la pêche, même si la reproductibilité interne devra nécessairement être affinée en l'évaluant à plus long terme. La méthode validée a pu ensuite être appliquée à la spéciation de l'As dans des échantillons aqueux, ainsi qu'à la certification d'un échantillon de foie d'aiguillat organisée par le NRC canadien. La dernière partie de ces travaux a concerné le développement d'une méthode in vitro rapide et pragmatique d'évaluation de la bioaccessibilité maximale de l'arsenic et des formes arséniées dans les produits de la pêche, en combinant une méthode de lixiviation en continu (pour la mesure en temps réel par ICP-MS de la part d'As libérée par des fluides gastrointestinaux artificiels) et la méthode de spéciation validée. Les résultats montrent que la totalité de l'As bioaccessible (environ 50 % de l'As total présent dans les échantillons) est libérée très rapidement (en moins de 5 min) par la salive sans que rien d'autre ne soit ensuite libéré par les sucs gastrointestinaux. D'autre part, ces travaux ont mis en évidence que la bioaccessibilité des espèces arséniées inorganiques apparaît moins importante que celle des espèces organiques dans les produits de la pêche.
12

OPTIMISATION STATISTIQUE DU RENDEMENT PARAMETRIQUE DE MICROSYSTEMES (MEMS)

Delauche, Flavien 23 May 2003 (has links) (PDF)
Les microsystèmes ou MEMS (Micro Electro Mechanical Systems) entrent dans une phase industrielle. Habituellement conçus à partir de procédés utilisés classiquement en microélectronique, ils peuvent aussi inclurent des parties non électroniques : mécaniques, optiques, etc. Leur complexité technologique et la difficulté à modéliser ces applications multi-physiques ont retardé leur industrialisation, mais cette phase est aujourd'hui atteinte. En parallèle se développent donc des contraintes de coût de fabrication et de rendement dans le milieu très concurrentiel du semiconducteur. Les travaux réalisés dans le cadre de cette thèse visent à développer un logiciel implémentant un algorithme original d'optimisation statistique du rendement paramétrique qui tente de s'affranchir des principales limites associées aux méthodes courantes. Il se présente comme un module aisément insérable dans un flot de conception de circuit intégré ou de MEMS. Il s'agit d'optimiser les dimensions des structures réalisées afin de limiter les variations et dégradations des performances des microsystèmes qui sont dues aux fluctuations inéluctables des paramètres technologiques lors de leur fabrication, et sont causes de mauvais rendement.
13

EXPLOITATION DES SPECTRES GAMMA PAR METHODE NON PARAMETRIQUE ET INDEPENDANTE D'A PRIORI FORMULES PAR L'OPERATEUR

Vigineix, Thomas 04 November 2011 (has links) (PDF)
La spectrométrie gamma est une des mesures non destructives passives la plus utilisée pour la quantification des radionucléides dans les déchets nucléaires. Le travail de thèse a pour but l'amélioration de l'exploitation du spectre gamma (c'est-à-dire après l'étape d'acquisition du spectre). L'exploitation des spectres se faisant en deux étapes (restituer les énergies et les surfaces nettes des pics contenus dans le spectre et déterminer le rendement de détection de la mesure), le travail de thèse s'est divisé en deux parties. Dans un premier temps, nous avons mis en place un procédé de validation qui quantifie les incertitudes engendrées par l'extraction des énergies et des surfaces et qui est applicable à n'importe quel logiciel de déconvolution. Avec ce procédé, nous avons étudié les performances de la déconvolution effectuée par le logiciel SINBAD. Le travail de thèse a ainsi permis de disposer d'un outil automatisé d'extraction des énergies et des surfaces nettes des pics d'absorption validé et dont les incertitudes sont quantifiées. Enfin, la deuxième partie de la thèse a permis de définir une méthode automatisée de calcul du rendement de détection, applicable à n'importe quel objet mesuré. La faisabilité de la méthode sur des cas simples a été attestée par le travail de thèse. L'extrapolation à des cas plus complexes devra faire l'objet d'études supplémentaires.
14

Optimisation de dispositifs électromagnétiques dans un contexte d'analyse par la méthode des éléments finis

Caldora Costa, Mauricio 28 June 2001 (has links) (PDF)
Dans ce travail, nous proposons des solutions à la problématique constituée par les difficultés rencontrées dans l'optimisation de dispositifs électromagnétiques analysés par des méthodes de simulation numérique, notamment la Méthode des Eléments Finis. Parmi les difficultés, nous avons la grande diversité des problèmes, la recherche d'une solution globale, l'échange des données entre l'outil de simulation et l'outil d'optimisation et le temps de calcul onéreux pour atteindre une solution. Nous commençons par une description des méthodes les plus utilisées dans la résolution de problèmes d'optimisation, dans laquelle nous mettons en évidence leurs particularités et les principales caractéristiques qu'elles ont en commun. Après cette récapitulation, nous présentons l'architecture logiciel d'un outil d'optimisation idéalisée en s'appuyant sur les concepts de la Programmation Orientée Objet. Dans l'implémentation de cette architecture, nous considérons les difficultés issues des problèmes liés à la simulation numérique et nous proposons une nouvelle approche d'optimisation basée sur la Méthode des Plans d'Expérience. Pour valider cette nouvelle approche, nous présentons trois différentes applications en électrotechnique : l'optimisation d'un moteur à reluctance variable, l'optimisation d'un contacteur électromagnétique et la résolution du problème 25 du TEAM Worshop.
15

Caractérisation des variabilités Matériaux/ Process pour une convergence produit de fonderie par approche prédictive / Characterization of variability Materials / Process for foundry product convergence by predictive approach

Outmani, Imane 16 March 2017 (has links)
Les alliages Al-Si sont largement utilisés dans l’industrie automobile en fonderie sous pression, en particulier pour la fabrication des blocs moteurs, en raison de leurs bon rapport résistance/ poids et leurs excellentes propriétés mécaniques. Du fait de l’internationalisation de la production, la composition chimique de ces alliages et les paramètres du procédé HPDC peuvent varier d’un pays à l’autre, ils peuvent même varier d’un site de fabrication à l’autre dans le même pays. Or, les conceptions des pièces automobiles sont aujourd’hui de type déterministe et elles sont réalisées sur la base des matériaux et procédés européens, ce qui peut affecter les propriétés de ces pièces dans le cas d’une localisation hors Europe. Ainsi, il est important de pouvoir adapter les conceptions rapidement et à moindre coût en prenant en compte les contraintes matériau/ process locales. Dans cette thèse, nous avons proposé une approche méthodologique permettant de prédire les caractéristiques mécaniques en fonction de la variabilité matériaux/ process en s'appuyant sur une étude expérimentale/ statistique de l’effet de la variabilité des principaux éléments d’alliage (Si, Cu, Mg) et des paramètres procédé (température de la coulée et pression d’injection) sur les propriétés mécaniques des alliages d’Al-Si moulés sous pression. La microstructure et le taux de porosités ont également été évalués. Cette méthodologie a abouti à la construction d’un outil de conception produit permettant de prédire les caractéristiques mécaniques dans le cas du changement de l’un (ou des) paramètres Matériau/ Process. / Secondary Al-Si alloys are widely used in automotive industry for engine blocks because they offer a considerable weight reduction whilst maintaining good mechanical properties. The ever-expanding internationalisation of production, with same stages of production processes spread across a number of countries to produce locally, causes however high variability in the casting products. The chemical composition of the same alloys and the working variables of the unchanged high-pressure die casting process (HPDC) may change for the same casting parts from one country to another, they can even sometimes vary from one manufacturing site to another within the same country. Designing for aluminium automotive components does call today for new deterministic design methods that are often achieved from European material and casting process databases, which can affect the properties of these parts in the case of a location outside Europe. Thus, it is important to adapt the design of die casting parts quickly and inexpensively by taking into account the material and process local constraints. In this work, a methodological approach which permits to predict mechanical properties as a function of material and process variability based on an experimental/ statistical study on the effect of the variability of the primary factors of alloying elements contents (Si, Cu and Mg) and HPDC process parameters (casting temperature and injection pressure) on mechanical properties of die cast aluminium alloys has been proposed. The microstructural features and the porosity level were also investigated and assessed. This approach has resulted in statistical design tool that will allow designers to make changes to the design of their casting and to industrialize them outside Europe.
16

Système à base de connaissances pour le processus de plan d'expériences numériques / Knowledge-based system for the numerical design of experiments process

Blondet, Gaëtan 09 June 2017 (has links)
Le besoin de compétitivité des entreprises, dans un contexte économique mondialisé, repose sur l'amélioration de la qualité des produits et la réduction des coûts et du temps de mise sur le marché. Pour atteindre ces objectifs, la simulation numérique est couramment utilisée pour la conception de produits complexes et mobilise des expertises diverses. Les Plans d'Expériences Numériques (PEN) sont de plus en plus utilisés pour simuler les variabilités des propriétés et de l’environnement du produit. Un processus de PEN apporte des méthodes de planification et d'analyse d'un ensemble de simulations, pour mieux maîtriser les performances du produit. La problématique traitée repose sur deux points. D'une part, la définition d'un processus de PEN repose sur de nombreux choix et l'utilisation de méthodes complexes, nécessitant une expertise avancée. Cette définition est d'autant plus complexe que le modèle de simulation est complexe et coûteux à exécuter. D'autre part, l'utilisation de PEN conduit à une production de grands volumes de données en multipliant les simulations. Ces travaux portent sur l'obtention rapide de la configuration optimale du processus de PEN pour raccourcir la préparation et l’exécution d’un PEN. Ces travaux se sont orientés vers la réutilisation des connaissances en entreprise pour un système à base de connaissances, composé d'une ontologie spécifique, pour capitaliser et partager les connaissances, et d'un moteur d'inférences, basé sur les réseaux bayésiens, pour proposer aux concepteurs des configurations efficaces et innovantes. Cette proposition est illustrée par une application sur un produit industriel issue du secteur automobile. / In order to improve industrial competitiveness, product design relies more and more on numerical tools, such as numerical simulation, to develop better and cheaper products faster. Numerical Design of Experiments (NDOE) are more and more used to include variabilities during simulation processes, to design more robust, reliable and optimized product earlier in the product development process. Nevertheless, a NDOE process may be too expensive to be applied to a complex product, because of the high computational cost of the model and the high number of required experiments. Several methods exist to decrease this computational cost, but they required expert knowledge to be efficiently applied. In addition to that, NDoE process produces a large amount of data which must be managed. The aim of this research is to propose a solution to define, as fast as possible, an efficient NDoE process, which produce as much useful information as possible with a minimal number of simulations, for complex products. The objective is to shorten both process definition and execution steps. A knowledge-based system is proposed, based on a specific ontology and a bayesian network, to capitalise, share and reuse knowledge and data to predict the best NDoE process definition regarding to a new product. This system is validated on a product from automotive industry.
17

Développement d'une méthodologie de conception de bâtiments à basse consommation d'énergie

Chlela, Fadi 05 February 2008 (has links) (PDF)
En France, le secteur du bâtiment est le plus gros consommateur d'énergie parmi les secteurs économique, avec 43% de l'énergie finale totale et 25% des émissions de CO2. Il s'avère donc nécessaire de réduire l'impact environnemental de ce secteur en promouvant la construction des bâtiments neufs et la rénovation thermique des bâtiments existants, selon les critères des bâtiments à basse consommation d'énergie.<br /><br />L'objectif de ce travail est de développer une méthodologie pour réaliser des études de conception de bâtiments à basse consommation d'énergie. La méthodologie consiste à déterminer des modèles polynômiaux pour l'évaluation des performances énergétique et du confort thermique d'été des bâtiments, à l'aide de la méthode des plans d'expériences et des outils de simulation numérique. Ces modèles polynômiaux permettent de simplifier les études paramétriques, en apportant une réponse alternative aux outils de simulations numériques pour la recherche de solutions afin de concevoir des bâtiments à basse consommation d'énergie. La méthodologie est appliquée sur un bâtiment tertiaire à savoir un immeuble de bureaux.<br /><br />Dans le premier chapitre, nous présentons l'état de l'art des bâtiments à basse consommation d'énergie et à énergie positive, dans le but de dresser un bilan de connaissances sur le contexte énergétique français, sur les labels mis en place en France et à l'étranger, sur les projets réalisés et sur les techniques utilisées pour concevoir des bâtiments à basse consommation d'énergie.<br /><br />Ensuite, nous nous focalisons dans le second chapitre, sur le développement de modèles numérique nécessaires à l'élaboration de la méthodologie. Les modèles sont développés dans l'environnement MATLAB/SIMULINK et intégrés dans la bibliothèque SIMBAD, dédiée à la simulation numérique en thermique du bâtiment afin de participer à son développement. De plus, nous présentons des études d'évaluation énergétiques de systèmes spécifiques aux bâtiments à basse consommation d'énergie qui illustrent l'utilisation des modèles numériques développés.<br /><br />Un cas d'étude est défini dans le troisième chapitre ainsi que les contextes climatiques à considérer, les principes de base de la méthode des plans d'expériences et un exemple de son application. Le cas d'étude considéré est un immeuble de bureaux, nommé Beethoven, dont les caractéristiques de base seront choisies selon les exigences de la réglementation thermique. Ces caractéristiques constituent la configuration de référence qui est améliorée en suivant la méthodologie développée. L'analyse des huit zones climatiques définies par la réglementation thermique et l'évaluation des performances énergétiques du bâtiment pour la configuration de référence par rapport à ces climats, permettent de sélectionner trois climats représentatifs pour la suite du travail. Enfin, un exemple d'application de la méthode des plans d'expériences pour une optimisation énergétique de la configuration de référence permet de justifier le choix de cette méthode.<br /><br />Le début du quatrième chapitre est consacré au développement des modèles polynômiaux pour l'évaluation des performances énergétique et du confort thermique d'été du bâtiment Beethoven. Nous débutons ce chapitre par une évaluation des limites de la méthode des plans d'expériences pour déterminer ces modèles polynômiaux. Il en découle une méthodologie générale d'application de la méthode des plans d'expériences afin de développer des modèles polynômiaux pour réaliser des études de conception de bâtiment à basse consommation d'énergie. Ensuite, nous effectuons, à l'aide de ces modèles, une étude de sensibilité pour le bâtiment Beethoven et une analyse de solutions pour concevoir un bâtiment à basse consommation d'énergie selon divers critères énergétiques.<br /><br />Dans le dernier chapitre, nous présentons un exemple d'application des modèles polynômiaux développés pour identifier des solutions pour la conception de l'enveloppe et des systèmes du bâtiment Beethoven, afin d'obtenir un bâtiment à basse consommation d'énergie, selon les critères du label Français Effinergie et du label Allemand Passivhaus. Les configurations basse consommation d'énergie obtenues sont comparées par rapport à la configuration de référence en termes de performances énergétiques, de confort thermique d'été et d'émissions CO2.<br /><br />La méthodologie que nous proposons permet d'identifier, de manière simple et rapide, des solutions pour concevoir des bâtiments à basse consommation d'énergie. Les solutions sont sélectionnées à l'aide d'abaques définis avec les modèles polynomiaux développés. Le niveau de précision constaté par rapport à la simulation numérique est appréciable. Le choix des solutions est effectué parmi des millions de configurations de facteurs, déterminées à l'aide des modèles polynômiaux. La détermination de toutes ces configurations serait difficile voire impossible à réaliser directement à l'aide de la simulation numérique, sans avoir recours à des modèles polynomiaux, d'où l'avantage d'une telle méthodologie.<br /><br />Enfin, cette méthodologie constitue une base robuste pour le développement d'outils d'aide à la décision, destinés aux différents acteurs du secteur du bâtiment pour la conception des bâtiments neufs et la rénovation thermique des bâtiments existants, selon les critères des bâtiments à basse consommation d'énergie.
18

MODELISATION ET OPTIMISATION PAR PLANS D'EXPERIENCES D'UN MOTEUR A COMMUTATIONS ELECTRONIQUES

Gillon, frédéric 20 December 1997 (has links) (PDF)
Les machines BDC (Brushless Direct Current) apportent une solution intéressante pour la réalisation de ventilateurs industriels à courant continu. Ces machines présentent deux avantages décisifs : d'une part elles possèdent une durée de vie élevée, et d'autre part permettent l'ajout de nouvelles fonctionnalités grâce à l'utilisation de composants électroniques. Dans un premier temps, les principaux phénomènes agissant sur le fonctionnement de ces machines sont étudiés à partir de quelques formules analytiques simples. Ensuite, une modélisation plus fine mais également plus globale est réalisée à l'aide de la méthode des éléments finis. Tout d'abord, une modélisation tridimensionnelle statique met en évidence un phénomène bénéfique de concentration de flux au sein du stator. Ceci nous amène à définir un coefficient de concentration qui sera étudié en détails pour toute une gamme de moteurs. A partir de ces résultats, une modélisation éléments finis dynamique bidimensionnelle incluant un couplage magnétique, électrique, mécanique est réalisée afin d'obtenir un modèle fiable, robuste et malléable, soit un véritable prototype virtuel. Un tel modèle est absolument indispensable pour aborder toute optimisation significative. De plus, les effets tridimensionnels sont intégrés dans ce modèle plan par l'intermédiaire du coefficient de concentration précédemment établi. La méthode des plans d'expériences est présentée comme un outil d'aide à la conception et à l'optimisation. Cette méthode consiste à organiser la démarche expérimentale et l'analyse décisionnelle en appliquant des règles rigoureuses basées sur l'exploitation des propriétés algébriques et statistiques des matrices décrivant les expériences. En définitive, une démarche basée sur l'utilisation de la méthode des plans d'expériences est proposée pour aborder les problèmes d'optimisation. Une recherche des seuls paramètres influents est faite par l'intermédiaire des plans fractionnaires afin que seuls les facteurs les plus influents soient gardés lors de l'optimisation. Puis, une méthode directe d'optimisation par plans d'expériences successifs a été testée et comparée avec d'autres méthodes d'optimisation plus classiques. Grâce à ce travail, Etri a pu acquérir certaines compétences dans les machines BDC et réaliser de nouveaux produits.
19

Stratégies d'optimisation par la méthode des Plans d'Expériences, et Application aux dispositifs électrotechniques modélisés par Eléments Finis

VIVIER, Stéphane 11 July 2002 (has links) (PDF)
Les travaux présentés dans ce mémoire portent sur l'application de la Méthode des Plans d'Expériences (MPE) à l'étude et à l'optimisation de dispositifs électrotechniques. La modélisation éléments finis est l'outil d'analyse privilégié, fournissant les prototypes virtuels des dispositifs étudiés. La MPE, introduite dans le premier chapitre, est un ensemble homogène d'outils et de méthodes algébro-statistiques visant à établir et à analyser les relations existant entre les grandeurs étudiées (réponses) et leurs sources de variations supposées (facteurs). Cette analyse peut être qualitative afin de déterminer des facteurs influents, ou bien quantitative pour établir les variations des réponses en fonction des facteurs significatifs. L'opération de modélisation est toujours fondamentale. Elle est opérée à l'issue de séries de simulations définies par les plans d'expériences (PE). Le deuxième chapitre présente plusieurs algorithmes utilisant les PE de façon exclusive, pour la modélisation des réponses ainsi que pour la recherche des conditions optimales. Des particularités apparaissent alors, telle que la possibilité de partager certaines expériences par plusieurs plans. Le caractère virtuel des expériences justifie la création et la mise au point d'un superviseur d'optimisation, afin d'automatiser et de faciliter l'application de la MPE et celle des stratégies d'optimisation par PE à partir de simulations informatiques. Le troisième chapitre présente les principales caractéristiques de ce nouvel outil : Sophemis. Enfin, le quatrième chapitre met en œuvre l'ensemble de ces développements, en appliquant les algorithmes d'optimisation présentés, à l'étude de trois systèmes électrotechniques. Le premier est un moteur brushless à aimants permanents, le second correspond au cas test n°22 du T.E.A.M. Workshop, et le dernier se rapporte à un frein linéaire à courants de Foucault pour usage ferroviaire.
20

Plans d'expériences optimaux et application à l'estimation des matrices de trafic dans les grands réseaux : programmation conique du second ordre et sous-modularité

Sagnol, Guillaume 13 December 2010 (has links) (PDF)
Nous abordons le problème de l'optimisation des mesures dans les grands réseaux Internet par la théorie des plans d'expériences optimaux. Cette approche donne lieu d'étudier des problèmes de grande taille en conception optimale d'expériences, pour lesquels nous développons une méthode de résolution fondée sur l' Optimisation Conique du Second Ordre. Le cœur de notre méthode est un théorème de réduction du rang en optimisation semi-définie. Certains aspects combinatoires sont également étudiés. L'application à l'inférence des matrices de trafic dans les réseaux IP fait l'objet de la seconde partie de ce manuscrit. Nous développons une méthode où l'on optimise l'estimation de plusieurs combinaisons linéaires (tirées de façon aléatoire) des demandes de trafic. Nous comparons notre approche aux précédentes au travers de simulations sur des données réelles. En particulier, nous traitons des instances pour lesquelles les approches précédentes étaient incapables de fournir une solution.

Page generated in 0.0728 seconds