• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 4
  • 2
  • Tagged with
  • 31
  • 31
  • 12
  • 11
  • 8
  • 8
  • 7
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Optimisation de l'utilisation d'un spectromètre proche infrarouge pour le suivi de l'humidité d'une poudre pharmaceutique lors du séchage dans un lit fluidisé

Demers, Anne-Marie January 2011 (has links)
Le contrôle de la qualité est une étape critique lors de la fabrication de produits pharmaceutiques. Pour accomplir cette tâche, différentes méthodes de laboratoire peuvent être utilisées, mais celles-ci sont habituellement coûteuses et exigent beaucoup de temps. Une alternative suggérée par l'agence réglementaire Food and Drug Administration est l'utilisation d'outils permettant l'analyse en continu, dont entre autres les outils spectroscopiques comme le proche infrarouge par exemple. Une des applications de cette technologie est le suivi de l'humidité d'une poudre pharmaceutique lors de son séchage dans un lit fluidisé. Une sonde à réflectance, qui est attachée au spectromètre, est insérée dans le bol du lit fluidisé et des spectres sont acquis tout au long du procédé. L'interprétation des spectres obtenus nécessite toutefois l'application de l'analyse multivariée et l'utilisation de plusieurs tests statistiques. Une courbe de calibration peut ainsi être construite et être utilisée au lieu des tests réalisés au laboratoire. Néanmoins, les paramètres critiques du spectromètre peuvent influencer la performance de la courbe de calibration bâtie. Par ailleurs, les articles publiés sur le sujet d'intérêt mentionnent que l'emplacement de la sonde, c'est-à-dire son angle et sa hauteur dans le bol, est critique pour l'obtention d'une acquisition spectrale de qualité. Or, aucun article n'a été publié sur la détermination de cet emplacement optimal et aussi sur le type d'embout à utiliser pour s'assurer d'une bonne lecture spectrale. Tout d'abord, des courbes de calibration ont été construites pour deux produits différents, soient un supplément vitaminé et un anti-inflammatoire. La méthodologie utilisée pour ces modélisations chimiométriques était innovatrice, car seulement des échantillons provenant de l'usine étaient utilisés et les spectres acquis avec le spectromètre étaient répliqués pour chaque échantillon collecté. Par la suite, un embout permettant une acquisition spectrale de qualité a été conçu et le nombre moyen de scans/spectre a été déterminé. En ayant fixé ces deux paramètres, la performance de la courbe de calibration construite pour le supplément vitaminé a été évaluée dans le lit fluidisé dans un environnement de production. Enfin, des plans d'expériences réalisés dans le lit fluidisé au laboratoire avec les deux produits ont permis d'évaluer l'effet des paramètres critiques du spectromètre sur les performances des courbes de calibration. Les tests statistiques effectués sur les deux courbes de calibration montrent de bonnes corrélations entre les prédictions par le spectromètre et les valeurs de référence. Par ailleurs, les essais réalisés dans un environnement de production ont démontré qu'un embout comportant une cavité permettant à la poudre de se stabiliser ainsi qu'un faible nombre de scans/spectre assurent une acquisition spectrale de qualité. Uniquement la courbe de calibration construite pour le supplément vitaminé a été évaluée dans un environnement de production ; le modèle chimiométrique réussit à bien prédire la fin de séchage. Enfin, les conclusions obtenues suite aux plans d'expériences réalisés dans le lit fluidisé au laboratoire ne peuvent pas être généralisées à différents produits. Il a aussi été démontré qu'il est difficile d'acquérir des spectres en mode dynamique et d'interpréter les résultats associés aux réplicas d'essais. Des travaux futurs sont suggérés pour investiguer certaines questions suscitées par cette recherche.
2

Lipase Mucor miehei immobilisée dans des matériaux poreux silicatés : bioréacteurs pour la synthèse d'esters méthyliques à partir d'huiles végétales / Mucor miehei lipase immobilized into silicate porous materials : bioreactors for synthesis of methyl esters from vegetable oils

Jacoby, Jonathan 05 December 2013 (has links)
Ce travail a consisté à préparer des catalyseurs en immobilisant la lipase Mucor miehei dans des matériaux silicatés poreux pour la production de biodiesel à partir d'huiles végétales. Pour développer cette étude, plusieurs systèmes à base de tensioactifs ont été utilisés afin de synthétiser des matériaux silicatés à porosité contrôlée en empruntant des protocoles décrits dans la littérature ou mis au point au laboratoire. Le point commun de ces matériaux, qu'ils soient mésoporeux ou méso-macroporeux est l'organisation hexagonale de leurs mésopores. Les matériaux méso-macroporeux ont été préparés à partir d'émulsions huile dans eau (H/E) et à partir de doubles émulsions (E/H/E) ou encore de nanoparticules solides lipidiques (SLN). Ces différentes matrices ont servi de support pour l'immobilisation de la lipase. Ainsi, plusieurs méthodes ont été investiguées. Premièrement, la lipase a été fixée au support par physisorption en immergeant le matériau dans une solution enzymatique. Deuxièmement, la lipase a été liée de façon covalente à la matrice par des liaisons urée. Pour cela, le matériau a du être fonctionnalisé après sa synthèse. Enfin, l'encapsulation de l'enzyme a été effectuée uniquement avec les supports préparés à partir de doubles émulsions et de SLN. L'ensemble de ces bioréacteurs a été testé en effectuant une réaction de transestérification de l'huile de colza en présence de méthanol. Les conditions de cette méthanolyse ont été optimisées à l'aide d'un plan d'expériences / This work was to prepare catalysts by immobilizing Mucor miehei lipase into silicate porous materials for the biodiesel production from vegetable oils. To develop this study, several systems based on surfactants were used to synthesize silicate materials with controlled porosity by taking protocols described in the literature or developed in the laboratory. The common point of these materials, whether mesoporous or meso-macroporous, is a hexagonal organization of their mesopores. Meso-macroporous materials were prepared from oil-in- water emulsions (O/W) and from double emulsions (W/O/W) or from solid lipid nanoparticles(SLN). These different materials served as a matrix for immobilization of the lipase. Several methods of immobilization were investigated. Firstly, the lipase was fixed into support by physisorption by immersing material in an enzymatic solution. Secondly, the lipase was linked covalently to matrix with urea bonds. In our case, the material had to be functionalized after this synthesis. Finally, the encapsulation method of the enzyme was carried out only with materials prepared form double emulsions and SLN. All bioreactors were tested by performing a transesterification reaction with methanol. The conditions of this methanolysis were optimized with an experimental design
3

Méthodes stochastiques de modélisation de données : application à la reconstruction de données non régulières. / Stochastic methods of data modeling : application to the reconstruction of non-regular data

Buslig, Leticia 06 October 2014 (has links)
Pas de résumé / Pas de résumé
4

Contribution à la modélisation expérimentale du comportement transitoire des pneumatiques / Transient tire behavior experimental modelling contribution

Alarcon, Laura 02 July 2015 (has links)
La voiture de demain semble prendre forme. Elle sera connectée et autonome, c'est à dire qu'elle se substituera complètement à l'être humain. Quelques milliers de véhicules communicants devraient être mis en circulation dès 2016. Par le biais du développement de multiples fonctions avancées d'aide à la conduite et de sécurité active, il est déjà possible de parler d'autonomie partielle de conduite. En effet, ces dernières années, un grand nombre de systèmes sont apparus dans les véhicules, comme par exemple le contrôle adaptatif de vitesse, l'alerte de franchissement de ligne, l'aide au stationnement ... Ils utilisent des technologies de plus en plus perfectionnées qui induisent ainsi des coûts de développement important. Les constructeurs automobiles sont actuellement très nombreux sur le marché. Ils doivent faire face à une concurrence accrue, ce qui influe fortement sur la phase de conception. Ainsi, les délais entre la phase de conception des véhicules et celle de fabrication sont de plus en plus restreints afin d'accroître la compétitivité. A cet effet, la simulation numérique se développe afin de diminuer les coûts liés au prototypage et le temps de mise au point des véhicules . Elle fait appel à des modèles génériques et fins permettant de simuler le comportement du véhicule ou des systèmes présents dans le véhicule. La modélisation de la dynamique des véhicules en régime statique est aujourd'hui chose acquise. En ce qui concerne le régime transitoire, la caractérisation dynamique du comportement du véhicule ou des phénomènes physiques ressentis par les occupants du véhicule a fait depuis longtemps l'objet d'études, mais possède encore des lacunes. Tel est précisément le cas des modèles de pneumatiques actuels qui ne retranscrivent pas correctement le comportement transitoire de cet organe, notamment lors de manœuvres d'urgence.Ces travaux s'inscrivent ainsi dans cette problématique d'amélioration de la représentativité des modèles de pneumatiques en régime transitoire. / The car of tomorrow is taking form. It will be connected and autonomous, i.e. it will substitute for human being. A few thousand of communicating vehicles should be put in circulation by 2016. Through the development of multiple advanced functions of driver assistance and active safety, it is already possible to speak of partial autonomy of conduct. Indeed, these last years, a large number of systems have appeared in vehicles such as adaptive speed control, lane departure warning, parking assistance ... They use technologies more and more sophisticated that lead to significant development costs. Actually, car manufacturers are very numerous on the market. They face increased competition, which strongly influences the design phase. Thus, the time limit between the phase of vehicle design and manufacturing are becoming smaller in order to increase competitiveness. For that purpose, the numerical simulation is developed to reduce prototyping costs and development time of vehicles. It uses generic and accurate models allowing the simulation of the vehicle behavior or the behavior of the other systems in the vehicle. Dynamic modeling of vehicle static behavior is now an acquired thing. As regards the transient behavior, the dynamic characterization of the vehicle behavior or the physical phenomena experienced by the vehicle occupants has long been studied, but still has gaps. This is precisely the case of current tire models that do not correctly transcribe the transient behavior of this body, in particular during emergency maneuvers. This work is inscribed in this problem of transient tire models representativeness improvement.
5

Comment améliorer la dérive des résonateurs à quartz pour applications spatiales ?

Bruno, Delmas 09 November 2009 (has links) (PDF)
Depuis près d'un siècle, les résonateurs à quartz à ondes de volume sont utilisés pour stabiliser les oscillateurs électriques. Cette longévité est due aux propriétés exceptionnelles du quartz et aux progrès constants de la technique. Pour les applications spatiales, il n'est généralement pas possible d'intervenir sur le composant. La dérive en fréquence doit alors être réduite et contrôlée sur des dizaines d'années. Cette variation systématique de la fréquence de résonance au cours du temps est due à l'évolution de plusieurs phénomènes physiques dont nous avons fait la synthèse et une analyse quantitative. Le premier de nos deux axes d'études porte sur l'étude des contraintes mécaniques dans la lame de quartz. Un travail bibliographique nous a permis d'étudier les spécificités de différentes formes de résonateur pour comprendre l'effet des contraintes mécaniques et les moyens de limiter la variation de fréquence induite. Les outils de modélisation actuels nous ont aidés à mettre au point une géométrie apportant une nette réduction de l'effet force-fréquence, confirmée par les mesures des premiers prototypes. L'autre axe d'étude est expérimental et porte sur un procédé essentiel communément appelé ''pré-vieillissement''. Les nombreuses contraintes de cette étude, telles que le temps, nous ont imposé une organisation méthodique de l'expérimentation. Ainsi, les plans factoriels fractionnaires nous ont permis de limiter les moyens techniques tout en obtenant les effets de chaque paramètre définissant le pré-vieillissement. Les résultats convergent vers la même conclusion que celle faite lors de l'étude quantitative des phénomènes physiques produisant le vieillissement.
6

Optimisation des procédés d'emboutissage par caractérisation géométrique et essais numériques

Ledoux, Yann 12 December 2005 (has links) (PDF)
L'emboutissage est un procédé de mise en forme des matériaux métalliques en feuille. En général, plusieurs étapes d'emboutissage sont nécessaires et les phénomènes mis en jeux lors de la déformation plastique du matériau sont complexes. Ainsi, la conception d'un nouvel outillage est une opération longue et délicate. La technique d'«essai - erreur» est habituellement employée par les industriels. Cette méthode est sans garantie de succès, coûteuse et mobilise une machine de production ( presse ). Cette thèse propose une méthode d'optimisation qui est basée sur des simulations numériques. Le po%int% de départ est la définition d'un outillage initial dont la simulation est réalisée. Selon la géométrie numérique obtenue, nous paramétrons les défauts à corriger. Les paramètres du procédé qui modifient sensiblement la géométrie de la \pièce sont choisis ainsi que leur plage de variation respective. Un plan d'%exp%ériences est construit pour tester différentes configurations des paramètres du procédé. L'ensemble des %exp%ériences est simulé, puis, les paramètres géométriques sont mesurés sur chacune d'elles. Ces résultats permettent de calculer des relations polynomiales liant les paramètres du procédé aux paramètres géométriques de la \pièce. A%vec% ces relations, nous cherchons, par la technique d'optimisation de Newton, la configuration optimale du procédé donnant la géométrie désirée. La simulation correspondante est effectuée et valide l'optimum trouvé. Trois cas d'application sont présentés. Deux concernent des \pièces embouties en une étape, et enfin, nous présentons l'étude d'une \pièce réalisée en plusieurs étapes.
7

Recherche et développement dans le domaine des substances chimiques : préparation aux réponses du sytème REACH

Baugros, Jean-Baptiste 18 December 2008 (has links) (PDF)
L'environnement et la santé des populations sont devenus des préoccupations majeures aussi bien au niveau national qu'au niveau européen. REACH (Registration, Evaluation and Authorization of CHemicals) est un système adopté par l'Union Européenne qui regroupe plus de quarante directives afin d'éliminer et de remplacer les substances chimiques les plus toxiques. Dans ce contexte, la mise en place d'un tel système requiert des méthodes d'analyse robuste, fiables et reproductibles dans le but d'évaluer et de détecter à l'état d'ultra-traces les molécules prioritaires persistantes dans les eaux et les sols.<br />Après avoir ciblé plusieurs substances listées sur l'annexe XVII de REACH, nous avons complété cette sélection par des polluants prioritaires de l'environnement Rhône Alpin tels les pesticides. Ainsi, la méthode d'analyse proposée permet de détecter et de quantifier par CPG-SM et CPL-SM/SM 33 substances (10 alkylphénols, 5 fongicides triazole, 1 fongicide morpholine, <br />1 acaricide pyridazinone, 2 phtalates, bisphénol A, 2 insecticides carbamates, un résidu des pesticides dithiocarbamates, 2 pesticides organophosphorés et 8 organochlorés) dans des matrices environnementales aussi complexes que des effluents et des boues de station épuration. <br />L'extraction des analytes est menée par Extraction sur Phase Solide (SPE) pour les échantillons aqueux et par Extraction par Solvant Accélérée (ASE) qui a été entièrement optimisée par étude statistique des paramètres. Les extraits sont ensuite purifiés de la même manière par SPE. La préparation à la validation de ma méthode nous a permis de confirmer des limites de détection basses comprises entre 7,2 ppt et 1,27 ppb dans les eaux et entre 5 ppb et 1,7 ppm dans les boues/sols
8

Optimisation bâtiment/système pour minimiser les consommations dues à la climatisation

Filfli, Sila 12 1900 (has links) (PDF)
La consommation annuelle totale moyenne en France dans le secteur tertiaire varie entre 300 et 380 kWh/m². Cette consommation se rapporte à l'ensemble des usages énergétiques du bâtiment: chauffage, climatisation, ventilation, éclairage, bureautique, auxiliaires et ECS. Ce travail a donné une méthode pour déterminer les meilleures combinaisons de solutions techniques existantes ou émergentes permettant de réduire les consommations énergétiques dans les bâtiments climatisés du secteur tertiaire. La réduction obtenue est d'un facteur 4 à 5. Une typologie représentative a été mise en place pour chaque secteur et les scénarios nécessaires pour effectuer les simulations définis. Une matrice de sélection du type de système par type de bâtiment a été fixée. Un niveau simplifié de modélisation des systèmes compatible avec les outils de prévision d'énergie a été employé. Vu le très grand nombre de variables à étudier, le nombre de simulations à effectuer et le traitement des résultats nécessite un temps énorme. Ce problème a été résolu par l'emploi de plans d'expériences fractionnaires. Cette méthode est nouvelle dans le domaine du bâtiment et répond à la question fréquente de réduction du nombre de simulation. Un modèle paramétrique de consommation a ainsi été élaboré. Il permet d'évaluer l'effet de chaque paramètre étudié sur les différentes postes consommateurs et la consommation annuelle totale. Ce modèle pourra servir à déduire la rentabilité des solutions et contribuer à une optimisation économique. La thèse traite la question d'un effet contradictoire possible de l'isolation sur la minimisation des consommations de refroidissement et de chauffage. Deux secteurs principaux du tertiaire sont étudiés: bâtiments de bureaux et bâtiments de santé. Le premier secteur est présenté dans l'intégralité de ses aspects tandis que le deuxième est traité brièvement. Le travail a permis d'élaborer une méthodologie complète pour minimiser les consommations énergétiques annuelles et pour étudier l'effet de chaque paramètre sur cette consommation.
9

Analyse statistique d'expériences simulées : Modélisation adaptative de réponses non régulières par krigeage et plans d'expériences, Application à la quantification des incertitudes en ingénierie des réservoirs pétroliers

Scheidt, Céline 25 September 2006 (has links) (PDF)
La quantification des incertitudes est essentielle à la bonne maîtrise de la production des réservoirs pétroliers. Ce problème est complexe car l'impact des paramètres incertains sur la production est souvent non-régulier. Du fait du coût important d'une simulation numérique d'écoulement, les méthodes traditionnelles d'analyse de risque sont basées sur un modèle approché du modèle d'écoulement. Ce modèle, construit à partir de plans d'expériences supposant un comportement polynomial de la réponse, ignore les non-régularités. L'objectif de cette thèse est la mise en place d'un formalisme de modélisation de réponses non-régulières. Nous proposons de construire des plans évolutifs afin d'intégrer graduellement les non-régularités. Cette approche est inspirée conjointement de méthodes géostatistiques et de plans d'expériences. En partant d'une surface de réponse initiale, la méthodologie consiste à déterminer itérativement de nouvelles simulations afin d'enrichir le dispositif expérimental et ainsi améliorer l'approximation de la réponse. Différents critères d'ajout de simulations sont proposés. Nous préconisons l'intégration de l'information apportée par les extrema et les points de dérivée partielle nulle de l'approximation. De plus, l'ajout d'information fictive par points pilotes permet une optimisation de la prédictivité de l'approximation ainsi que la détermination de nouveaux points candidats à la simulation. Cette méthodologie originale d'ajustement de surfaces complexes a montré son efficacité, en terme de modélisation comme en terme de réduction du nombre de simulations, notamment pour une quantification d'incertitudes pour deux cas de réservoir pétrolier.
10

Développement de nouvelles stratégies utilisant l'électrophorèse capillaire pour la caractérisation physico-chimique des nitrocelluloses en vue de leur identification dans des prélèvements pré-ou post-attentat / New strategies for the physico-chemical characterization of nitrocellulose employing capillary electrophoresis in view of their identification in pre or post-blast residues

Alinat, Elodie 27 October 2014 (has links)
La nitrocellulose (NC) est un ester nitrique de cellulose dont le taux de nitration détermine ses propriétés physiques et chimiques ainsi que ses applications industrielles. En effet, les NC ayant des taux de nitration inférieurs à 12,5% sont utilisées dans des produits courants (encres, peintures, vernis et membranes) alors que les NC présentant des taux de nitration supérieurs à 12,5% sont utilisées dans la fabrication de produits explosifs (dynamites et poudres propulsives). Il est donc nécessaire du point de vue forensique de disposer de méthodes permettant d’une part, d’identifier la présence de NC, d’autre part, de les discriminer. Les méthodes existantes sont très anciennes, lourdes, voire dangereuses, quand elles ne font pas totalement défaut. Par conséquent, il y a un réel besoin de disposer de méthodes plus modernes, moins lourdes et plus sûres, permettant d’identifier la présence de NC et de les discriminer. Dans une première partie, le rendement de dénitration des NC obtenu après hydrolyse alcaline a été optimisé à l’aide d’un plan d’expériences. Les ions nitrite et nitrate libérés après hydrolyse ont été quantifiés par électrophorèse capillaire (CE). Ensuite, une nouvelle méthode permettant de déterminer le taux de nitration des NC a été développée. Cette méthode est basée sur une relation linéaire entre le ratio molaire des concentrations en ions nitrite et nitrate libérés et le taux de nitration de la NC. Ces différentes méthodes ont été appliquées avec succès à l’analyse de NC contenues dans différentes matrices. Dans une seconde partie, les produits obtenus après dépolymérisation en milieu acide de la NC ont été étudiés dans l’objectif d’obtenir une empreinte électrophorétique présentant un intérêt forensique. Pour cela, les produits de dépolymérisation acide partielle de la NC ont été dérivés par le 8-aminopyrène-1,3,6-trisulfonate (APTS), détectés par fluorescence induite par laser, puis identifiés à l’aide d’étalons de cellodextrines, eux-mêmes dérivés par l’APTS. Les produits de dépolymérisation de la NC pourront également être analysés par une nouvelle méthode électrophorétique utilisant un électrolyte très basique avec une détection UV directe impliquant une réaction de photo-oxydation dans la fenêtre de détection. Enfin, la miniaturisation et l’automatisation de l’instrumentation de la CE a été mise à profit afin de déterminer les viscosités intrinsèques d’échantillons de NC. Après avoir déterminé les paramètres de la relation de Mark-Houwink, les masses moléculaires moyennes en poids d’échantillons de NC pourront être déterminées. / Nitrocellulose (NC) is a nitrate cellulose ester polymer whose nitrogen content determines its physical and chemical properties, and its industrial applications. Indeed, NCs with a nitrogen content less than 12.5% are widely used as raw material in daily use products (printing inks, paints, lacquers, varnishes and filter membranes), whereas highly-nitrated NCs (nitrogen content > 12.5%) are employed in the manufacturing of explosive materials (smokeless gunpowders and dynamites). Therefore, and also for regulation reasons, methods for the determination of nitrogen content in NCs are needed , and there is a strong need in developing more modern, simpler, faster, and safer methods. In a first part, the denitration yield obtained after alkaline hydrolysis of NCs was optimized by means of an experimental design. Capillary electrophoresis (CE) was used to follow the reaction through the quantitation of nitrite and nitrate ions released during hydrolysis. Then, a new method to determine the nitrogen content of NCs, based on a linear relationship between it and the molar ratio of nitrite to nitrate ions released after alkaline hydrolysis was developed. These methods were successfully applied to various explosive and non-explosive NC-containing samples. The second part aimed at studying the products obtained after partial acid depolymerization in an attempt to generate a mixture of oligosaccharides retaining information on the initial NC sample and/or the cellulose used to prepare it, which would be of forensic interest. To this end, NC fingerprinting was achieved by CE with laser induced fluorescence detection (LIF) after acid depolymerization, and derivatization with 8-aminopyrene-1,3,6-trisulfonic acid (APTS). The resulting derivatized oligomers were identified using APTS-derivatized cellodextrin standards. These depolymerization products can also be analyzed with a new CE method with a high-alkaline background electrolyte containing sodium chloride and detection was performed by mid-UV absorbance after photo-oxidation in the detection window. Finally, the advantages of CE instrumentation (miniaturization of the assay and automation) were used to determine the intrinsic viscosity of various NC samples. Thanks to the calculation of Mark Houwink parameters, the weight-average molecular weight of unknown NC samples could be determined.

Page generated in 0.1104 seconds