Spelling suggestions: "subject:"analyse multivariable""
11 |
Authenticite des produits agroalimentaires par spectroscopie rmn 1h et outils chimiometriquesCuny, Marion 07 March 2008 (has links) (PDF)
La spectroscopie RMN 1H est une technique largement utilisée en analyse et qui se développe en authenticité des produits agroalimentaires. Cependant, l'utilisation des techniques d'analyse multivariée des données RMN 1H n'est pas encore aussi développée que dans le cas d'autres spectroscopies comme le Proche Infrarouge. Dans cette étude, nous avons utilisé différentes méthodes chimiométriques sur différents jeux de données issues de la spectroscopie RMN 1H, ayant pour but de tester le potentiel de cette méthode pour établir l'authenticité des produits. Tout d'abord, nous avons montré que l'utilisation de l'analyse en composantes indépendantes était un meilleur choix que l'analyse en composantes principales lors de l'analyse des spectres. En effet, les composantes indépendantes par leur nature expliquent mieux les phénomènes physico-chimiques mis en exergue lors de l'analyse spectrale. De plus, il a été possible de retrouver par cette méthode les signaux « purs » de composés, extraits des données brutes. Ensuite, nous avons testé différents prétraitements tel que l'ourdissage (« warping ») des données qui s'est révélé utile lorsque les données présentées des décalages de pics. De même, la transformation logarithmique des données a montré son intérêt pour l'analyse globale du spectre étant donné les larges variations d'intensité rencontrées. Puis, nous avons testé différentes méthodes de sélection de variables. Les premières méthodes se basaient sur des critères relatifs aux données comme la variance et la covariance pour CLV (Clustering of variables). Le deuxième type de méthode sélectionnait des intervalles de données - ce qui permet de prendre en compte le lien entre variables successives dans un signal. Nous avons comparé une méthode reconnue, Interval_PLS (iPLS), avec des méthodes plus novatrices : Evolving Windows Zone Selection et Interval-PLS_Cluster. Ces techniques de sélection de variables ont permis de repérer des marqueurs connus de l'authenticité des jus d'orange et de pamplemousse : hespéridine et naringine, mesurées en HPLC par la méthode IFU 58. De plus, les zones sélectionnées sur le vinaigre balsamique traditionnel rendent compte du vieillissement du vinaigre et permettent de discriminer le vinaigre balsamique commun du vinaigre traditionnel qui est un produit à forte valeur ajoutée. Enfin sur les yaourts, ce sont des composés aromatiques ainsi que des solvants de l'arôme qui ont été détectés et ont permis de séparer les différents types de yaourts aromatisés, aux fruits, à la pulpe de fruit et à différentes concentrations. Cette étude a montré l'intérêt du développement des techniques d'analyses spectrales en RMN pour prendre en compte ses spécificités par rapport aux autres techniques spectrales : les différences d'intensité dans les différentes zones du spectre, la taille importante des données initiales, ainsi que la redondance de l'information.
|
12 |
Multivariate statistical modeling of an anode backing furnace : Modélisation statistique multivariée du four à cuisson des anodes utilisées dans la fabrication d'aluminium primaireDufour, Amélie 24 April 2018 (has links)
La stratégie actuelle de contrôle de la qualité de l’anode est inadéquate pour détecter les anodes défectueuses avant qu’elles ne soient installées dans les cuves d’électrolyse. Des travaux antérieurs ont porté sur la modélisation du procédé de fabrication des anodes afin de prédire leurs propriétés directement après la cuisson en utilisant des méthodes statistiques multivariées. La stratégie de carottage des anodes utilisée à l’usine partenaire fait en sorte que ce modèle ne peut être utilisé que pour prédire les propriétés des anodes cuites aux positions les plus chaudes et les plus froides du four à cuire. Le travail actuel propose une stratégie pour considérer l’histoire thermique des anodes cuites à n’importe quelle position et permettre de prédire leurs propriétés. Il est montré qu’en combinant des variables binaires pour définir l’alvéole et la position de cuisson avec les données routinières mesurées sur le four à cuire, les profils de température des anodes cuites à différentes positions peuvent être prédits. Également, ces données ont été incluses dans le modèle pour la prédiction des propriétés des anodes. Les résultats de prédiction ont été validés en effectuant du carottage supplémentaire et les performances du modèle sont concluantes pour la densité apparente et réelle, la force de compression, la réactivité à l’air et le Lc et ce peu importe la position de cuisson. / The aluminum manufacturing process is highly influenced by the anode quality. Several factors affect the anode quality and the actual quality control strategy is inadequate to detect faulty anodes before setting them in the electrolytic cells. A soft-sensor model developed from historical carbon plant data and multivariate statistical methods was proposed in past work to obtain quick predictions of individual anode properties right after baking for quality control purposes. It could only be used for anodes baked at the coldest and hottest positions within the furnace due to the core sampling strategy used at the partner’s plant. To complement the soft-sensor, this work proposes a method for taking into account the thermal history of anodes baked at eventually any position and to allowing for the prediction of properties for all anodes. It is shown that combining categorical variables for pit and baking positions and routinely available firing equipment data is sufficient for predicting the temperature profiles of anodes baked in different positions (measured during pit surveys) and account for its impact on anode properties. Prediction results were validated using core sampling and good performance was obtained for LC, apparent and real density, compressive strength and air reactivity.
|
13 |
Spécifications multivariées avancées sur les propriétés de la matière première et optimisation dans l'espace latentParis, Adéline 12 August 2024 (has links)
Plusieurs industries font face actuellement à un problème commun, soit la variabilité entre les lots de matières premières qu'elles utilisent. Cette dernière a un impact non négligeable sur la qualité du produit puisqu'elle rend l'atteinte des seuils de qualité plus ardue et occasionne une production moins uniforme. La mise en place d'un bon contrôle de qualité peut favoriser la réduction de sa propagation par l'usage de spécifications multivariées sur les propriétés de la matière première et par l'optimisation des conditions opératoires. Cette thèse vise à fournir de nouveaux outils pour réduire l'impact de la variabilité de la matière première sur le produit fini. Elle s'attarde à la généralisation de l'approche permettant de définir des spécifications multivariées construites à partir de modèles à variables latentes tels que la régression des moindres carrés partiels (PLS) ainsi qu'à l'optimisation dans l'espace latent. Elle débute par une analyse des deux techniques utilisées pour la définition des spécifications multivariées sur les propriétés de la matière première, soit l'inversion d'un modèle PLS et l'ajustement de limites dans l'espace latent discriminant les indices de qualité du produit fini. Celle-ci a permis de développer un outil d'aide à la décision facilitant la sélection de la méthode à utiliser en se basant sur leurs avantages et inconvénients. L'analyse de l'impact de la colinéarité entre les propriétés du produit fini a permis d'observer une perte de performances lorsque le degré de corrélation est élevé. Afin de comprendre cette dégradation, différentes causes ont été examinées telles que le conditionnement de la matrice à inverser et le positionnement des prédictions des indices de qualité dans l'espace de *scores*. En présence de forte corrélation, il est suggéré d'effectuer au préalable une analyse en composantes principales pour obtenir des variables indépendantes. Selon leurs définitions originales, les spécifications multivariées ne considèrent pas l'ajustement des conditions opératoires. Une méthodologie permettant le développement d'un outil d'aide à la décision utilisant une projection des structures latentes multiblocs séquentiels (SMB-PLS) a été élaborée afin d'accroître la zone d'acceptabilité de la matière première menant à l'atteinte des seuils de qualité du produit fini. Elle couple le concept de spécifications multivariées avec la résolution d'un problème d'optimisation dans l'espace latent qui tient compte de l'impact économique des modifications suggérées. Ainsi, l'utilisateur peut déterminer s'il est économiquement justifiable d'acheter un lot de matière première de moins bonne qualité. À partir d'un cas d'étude basé sur un procédé de broyage-flottation d'un minerai de plomb, les tests en simulation ont démontré que cette approche permet d'accepter correctement 7.3% plus de lots que l'opération normale. Comme elle requiert un processus en deux étapes, une méthode simplifiée a aussi été proposée. Cet outil se base uniquement sur un ensemble d'inégalités et ne nécessite pas la résolution du problème d'optimisation lors de la prise de décision. Ses performances sont similaires à l'approche globale. Finalement, dans certains cas, l'option d'accepter ou de rejeter un lot n'est pas possible puisque la matière première est déjà en stock et qu'elle ne peut être écartée. La réduction de l'impact de la variabilité repose donc uniquement sur l'ajustement des conditions opératoires. La structure du problème d'optimisation défini à partir d'un modèle SMB-PLS est utilisée pour proposer une solution d'optimisation en temps réel. Elle suggère les conditions opératoires nécessaires pour maximiser la rentabilité d'un procédé continu chaque fois qu'un nouveau lot de matière y est introduit. Sa structure inclut la mise à jour du modèle et un fonctionnement en boucle fermée pour minimiser l'effet des perturbations paramétriques. Le cas d'étude a montré qu'il est possible d'augmenter d'au moins 1.5% le gain semestriel comparativement à l'opération nominale. / A common problem currently faced by many industries is the lot-to-lot variability in incoming raw materials. This has a significant impact on product quality, since it is harder to reach quality targets, and results in a less uniform production. Carrying out proper quality control can help to reduce its propagation by using raw material multivariate specifications and optimization of operating conditions. This thesis aims to provide new tools to reduce the impact of raw material variability on the final product. It focuses on the generalization of the approach for defining multivariate specifications based on latent variable models such as the projection to latent space structure (PLS), as well as optimization in latent space. It begins with an analysis of the two techniques used to define raw material multivariate specifications, i.e. a PLS model inversion and direct mapping (fitting limits in the latent space that discriminates the final product quality indices). This helps to develop a decision-support tool facilitating the selection of the method to be used, based on their advantages and disadvantages. Analysis of the impact of collinearity between end-product properties revealed a loss of performance when the degree of correlation is high. In order to understand this degradation, various causes were examined, such as the condition number of the invertible matrix and the position of the prediction of the quality indices in the score space. In presence of strong correlation, it is suggested to perform a principal component analysis beforehand to obtain independent variables. In their original definitions, raw material multivariate specifications do not consider the adjustment of operating conditions. In order to increase the raw material acceptance region leading to the achievement of the final quality thresholds, a methodology is proposed to develop a decision support tool using sequential multi-block partial least squares model (SMB-PLS). It couples the concept of multivariate specifications with the resolution of an optimization problem in latent space, which takes into account the economic impact of suggested modifications. In this way, the user can determine whether it is economically justifiable to purchase a lower-quality raw material lot. Using a case study based on a lead ore milling flotation process, simulation tests demonstrated that this approach correctly accepts 7.3% more lots using multivariate specifications and operating the process at nominal conditions. As the framework considers two steps, a simplified method is also proposed. This tool is based only on a set of inequalities and does not require solving the optimization problem at the decision-making stage. Its performance is similar to that of the global approach. Finally, in some cases, it is impossible to determine the acceptability of a lot before purchasing it since the raw material is already in stock and cannot be discarded. Reducing the impact of variability relies therefore solely on adjusting operating conditions. The structure of the optimization problem defined from an SMB-PLS model is used to propose a real-time optimization solution. It suggests the operating conditions needed to maximize the profitability of a continuous process each time a new lot of raw material is introduced. Its structure includes model updating and closed-loop operation to minimize the effect of parametric disturbances. The case study showed that it is possible to increase the biannual gain by at least 1.5% compared to the nominal operation.
|
14 |
L'engagement organisationnel : dimensions, déterminants et impactsHenri, Georgette 01 June 2000 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal. / Durant les trente dernières années, le concept de l'engagement organisationnel a reçu une attention considérable, l'abondance de publications répertoriées dans ce domaine font état d'une évolution marquée de ce concept.
Les premières définitions et mesures, élaborées avant les années 80, avaient une approche unidimensionnelle de l'engagement. En effet, les écrits définissaient l'engagement organisationnel en terme d'attachement affectif ou en faisant référence à la dimension échangiste, mieux connue sous le nom de la théorie du 'side-bet'. L'engagement était alors défini comme étant le lien purement raisonné qui reliait l'individu à son organisation.
En 1984, Meyer et Allen, relevant une certaine confusion dans la conceptualisation de l'engagement proposent un modèle bidimensionnel de l'engagement organisationnel. La première dimension, l'engagement affectif, reprend la définition de l'approche affective. La deuxième dimension, l'engagement raisonné, est définie en terme de pertes et de coûts qui pourraient être subis par un employé advenant son retrait de l'organisation. Quelques années plus tard, en 1990, Allen et Meyer ajoutent une troisième dimension, l'engagement moral, qui se rapporte à l'obligation que peut ressentir un employé de rester dans l'organisation.
Le but de cette étude est de vérifier la tri-dimensionnalité du concept d'engagement organisationnel, de déterminer les facteurs individuels qui influencent les trois composantes de l'engagement organisationnel et de relever les conséquences éventuelles de ces trois composantes. Une enquête menée auprès des employés d'un ministère fédéral en 1997 a pemus de construire la base de données nécessaire à notre analyse. Près de 5 090 questionnaires comportant 240 questions ont été distribués aux employés du ministère. De ce nombre, 972 répondants ont répondu au questionnaire. Nous procédons, en trois étapes, à l'analyse des données à l'aide du logiciel SPSS. En premier lieu, nous faisons des analyses descriptives de la variable engagement organisationnel, des caractéristiques individuelles et des conséquences pour déterminer le profil des répondants. En second lieu, nous faisons des analyses bivariées pour identifier d'une part, les liens entre la variable engagement organisationnel et les caractéristiques individuelles, et d'autre part les liens existant entre l'engagement organisationnel et les conséquences. En dernier lieu, des analyses multivariées sont exécutées afin de relever les caractéristiques individuelles susceptibles d'expliquer chacune des composantes de l'engagement organisationnel
Les résultats obtenus révèlent que notre population manifeste les trois dimensions de l'engagement organisationnel, soit la dimension affective, raisonnée et morale. Les profils des employés diffèrent selon qu'il s'agit d'un type d'engagement ou d'un autre. Ainsi les employés qui sont cadres, qui ont une ancre de carrière identité, qui sont volontaristes et qui sont en plus motivés, satisfaits et attachés à leur travail, sont ceux qui manifestent le plus d'engagement affectif. Ceux qui sont engagés moralement sont ceux qui ont comme ancres de carrière sécurité et identité, qui sont volontaristes, qui sont motivés et attachés à leur travail. Enfin, les fonctionnaires dont l'engagement raisonné est le plus fort sont ceux qui sont des agents et qui ont une ancre de carrière sécurité.
Les conséquences des différentes dimensions de l'engagement organisationnel sont variables. Ainsi, c'est l'engagement affectif qui engendre les conséquences les plus favorables. Les répondants qui sont engagés affectivement sont plus perfonnants et s'absentent moins de leur travail. Le modèle d'explication le plus important est celui de l'engagement affectif.
Nos résultats nous pennettent de mieux cerner les déterminants et les conséquences des différents types d'engagement organisationnel. Il faut toutefois relever les limites de l'étude. D'une part, notre population provenant d'un ministère risque par son homogénéité de biaiser certains résultats. L'incorporation de variables supplémentaires notamment psychologiques, structurelles et organisationnelles lors des recherches futures, pourrait amener des résultats plus complets.
|
15 |
Contrôle de qualité des anodes de carbone à partir de méthodes statistiques multivariéesParis, Adéline 10 February 2024 (has links)
L’aluminium primaire est produit à partir du procédé électrolytique Hall-Héroult qui nécessite des anodes de carbone pour véhiculer le courant et fournir la source de carbone pour la réaction. La qualité des anodes influence les performances dans les cuves. Or, l’augmentation de la variabilité des matières premières rend la fabrication d’anodes de bonne qualité de plus en plus difficile. L’objectif de ce projet est d’améliorer le contrôle de qualité des anodes avant la cuisson à l’aide de mesures de résistivité électrique. À partir de méthodes statistiques multivariées, les mesures ont été utilisées dans deux optiques différentes : prédictive et explicative. L’optimum de brai qui est défini comme étant la quantité optimale de brai menant aux meilleures propriétés de l’anode pour un mélange d’agrégats donné change plus fréquemment avec l’accroissement de la variabilité de la matière première. Le dépassement de l’optimum peut engendrer des problèmes de collage lors de la cuisson. Un capteur virtuel conçu à partir d’un modèle d’analyse en composantes principales a permis de montrer qu’un bris dans la structure de corrélation mesuré par l’erreur de prédiction (SPE) semble se produire lorsque les anodes ont un risque de coller lors de la cuisson. Son application sur des données d’optimisation de brai a aussi été réalisée. Afin d’améliorer la compréhension des paramètres influençant la résistivité de l’anode, un modèle par projection des moindres carrés partiels en blocs séquentiels (SMB-PLS) a été développé. Il a permis d’expliquer 54 % des variations contenues dans les mesures de résistivité à partir des données opératoires, de matières premières et de formulation. Son interprétation a montré que la variabilité de la résistivité de l’anode verte est principalement causée par les matières premières utilisées et que les relations observées sont conformes avec la littérature et les connaissances du procédé. / Primary aluminum is produced through the Hall-Héroult process. Carbon anodes are used in this electrolytic process to provide the carbon source for the reaction and to distribute electrical current across the cells. Anode quality influences cell performance. However,increasing raw material variability has rendered the production of high-quality anodes more difficult. The objective of this project is to improve carbon anode quality control before baking by using anode electrical resistivity measurements. Multivariate statistical methods were applied to create two types of models: predictive and explanatory. For a given aggregate, the optimum pitch demand (OPD) is the amount of pitch that yields the best anode properties. High raw material variability causes the OPD to change more frequently, which makes it difficult to add the correct amount of pitch. This can lead to post-baking sticking problems when the optimum is exceeded. A soft sensor was developed based on a principal component analysis (PCA). The integrity of the correlation structure,as measured by the Squared Prediction Error (SPE), appears to break down during high-risk periods for anode sticking. The soft sensor was also tested on data collected during pitch optimization experiments.A sequential multi-block PLS model (SMB-PLS) was developed to determine which parameters influence anode resistivity. Raw material properties, anode formulation and process parameters collectively explain 54 % of the variability in the anode resistivity measurements.The model shows that coke and pitch properties have the greatest impact on green anode electrical resistivity. In addition, the main relationships between process variables implied by the model agree with the relevant literature and process knowledge.
|
16 |
Quality control of complex polymer materials using hyperspectral imaging associated with multivariate statistical analysisGhasemzadeh-Barvarz, Massoud 23 April 2018 (has links)
Dans la première étape de ce travail, des composites formulés à partir d'anhydride maléique greffé polyéthylène (MAPE) et de différentes charges de fibres de chanvre (entre 0 et 60%) ont été produits et analysés par imagerie NIR. Trois méthodes chimiométriques ont été utilisées puis comparées pour la prédiction des propriétés mécaniques, cartographier la distribution des constituants et détecter les défauts physiques des matériaux: la calibration multivariée traditionnelle basée sur la régression PLS, la résolution multivariée de courbes (MCR) et l’analyse d’images et la régression sur les images multivariées (MIA/MIR). Dans la deuxième partie de ce projet, une série de films multicouches complexes (échantillons industriels) ont été étudiés par imagerie NIR combinée à l’analyse d’images multivariée. Le potentiel et l'efficacité de la méthode proposée pour détecter les défauts causés par la (les) couche(s) manquant(es) ont été étudiés pour des films non imprimés et imprimés. Dans la dernière partie, les composites hybrides polypropylène (PP) / fibre de verre / fibre de lin ont été étudiés. L'effet de la teneur en fibres (0 à 40% en volume) et de la composition sur les propriétés mécaniques ont été investigués, ainsi que l’effet de l’exposition à l’eau et la dégradation thermique et aux rayons UV (vieillissement accéléré des matériaux). Les images de microscopie électronique à balayage (MEB) des composites non vieillis ont été analysées en combinant des méthodes d’analyse de texture et des méthodes multivariées. Enfin, l'imagerie NIR a été mise en œuvre sur des composites non vieillis et vieillis afin de prédire leurs propriétés finales ainsi que pour modéliser les variations de composition chimique et celles dues au vieillissement accéléré. En résumé, les résultats montrent que la combinaison de l'imagerie hyperspectrale et des méthodes statistiques multivariées est un outil puissant pour le contrôle de la qualité des composites polymères complexes. De plus, la méthode proposée est rapide et non destructive, elle peut être mise en œuvre en ligne, pour le contrôle de la qualité des matériaux composites. D'autre part, il a été démontré que l'analyse de la texture des images peut être appliquée à la quantification de la dispersion et du degré d’homogénéité de la distribution des charges dans des matériaux composites. / In the first step of this work, maleic anhydride grafted polyethylene (MAPE)/hemp fiber composites with different filler concentration between 0 to 60% were analyzed by NIR imaging. Three chemometrics methods including Partial Least Squares (PLS), Multivariate Curve Resolution (MCR) and Multivariate Image Analysis/Multivariate Image Regression (MIA/MIR) were implemented and compared for predicting mechanical properties as well as mapping chemical compositions and material physical variations. In the second part of this project, a series of complex multilayer films (industrial samples) were investigated using NIR hyperspectral imaging and Multivariate Image Analysis (MIA). The potential and effectiveness of the proposed method for detecting defects caused by missing layer(s) were studied for unprinted and printed films. In the final part, polypropylene (PP)/glass/flax hybrid composites were studied. The effect of composition (fiber content between 0 and 40 vol%), as well as water, thermal and UV aging on mechanical properties was investigated. Then, Scanning Electron Microscopy (SEM) images of unaged hybrid composites were analyzed using texture analysis and multivariate methods. Finally, NIR imaging was implemented on unaged and aged composites to predict their final properties as well as to capture chemical composition and aging variations. In summary, the results show that combining hyperspectral imaging and multivariate statistical methods is a powerful tool for quality control of complex polymer composites. Since the proposed method is rapid and nondestructive, one can implement it for on-line quality control of finished plastic products. On the other hand, texture analysis and multivariate methods can be applied for quantifying the mixing aspects of composites.
|
17 |
Profilage protéomique par analyse multivariée de signaux LCMS appliqué en ingénierie cellulaireMichaud, François-Thomas 16 April 2018 (has links)
La recherche en protéomique s' est développée en étant intimement liée à l' apparition d' outils analytiques sophistiqués et à haut débit tels que les spectromètres de masse (MS). Cependant, des méthodes permettant l'analyse rapide et efficace de ces données, telle que l'analyse multivariée, pourrait procurer des outils intéressants pour tout laboratoire de bioprocédés se spécialisant dans la production de protéines recombinantes. Ces travaux représentent une percée technologique en suivi et contrôle de bioprocédé. En effet, l'emploi de l'analyse multivariée sur des données de chromatographie liquide couplée à un spectromètre de masse (LCMS) afin d'identifier des isoformes protéiques et de suivre la production de protéines constitue une innovation significative pouvant mener à de nombreuses applications industrielles. Ces techniques procurent de nouvelles avenues pour l' optimisation et le contrôle de qualité pour des procédés de production de protéines recombinantes par culture cellulaire. Trois modèles expérimentau, x furent employés et analysés pour cette thèse. Des albumines purifiées de différentes origines animales ayant des similarités de séquence variant de 69,6 % à 92,4% et des masses moléculaires à l'intérieur de marges de ± 0,7% furent employées afin de démontrer la capacité de l'analyse multivariée à correctement distinguer des isoformes. Le suivi d'une culture cellulaire (HEK293) infectée par un adénovirus (Ad5- CMV-GFPsg25) par analyse multivariée des signaux LCMS fut aussi exécuté. Ce suivi permit d'identifié automatiquement les protéines produites au cours du processus et d'effectuer directement leur quantification. Finalement, ces techniques furent aussi appliquées à l'analyse de signaux provenant d'un spectromètre de mase en tandem (MS/MS) de type quadrupôle temps d'envol (Quadrupole Time Of Flight QTOF) pour l'étude de mélanges protéiques dans un contexte de recherche de biomarqueurs. Étant donné la capacité des algorithmes développés dans cette thèse de distinguer de petites différences entre des spectres de protéines, de directement identifier et quantifier une protéine d'intérêt dans un contexte de bio production et également de sélectionner les zones corrélées avec des peptides d'intérêt pour augmenter la sensibilité des études protéomiques, nos résultats indiquent que l'analyse multivariée des signaux LCMS ou LCMSIMS peut contribuer significativement au suivi, contrôle de qualité et diagnostic des bioprocédés lors de production de protéines recombinantes par des cultures cellulaires. 1
|
18 |
Développement d'un appareil spectrofluorométrique pour l'analyse quantitative en-ligne d'un mélange particulaire pharmaceutiqueGuay, Jean-Maxime January 2014 (has links)
La réalité d’amélioration de la qualité par le design de procédé (QdB) ainsi que l’apprentissage et le contrôle des variables critiques devient de plus en plus prédominant dans le milieu pharmaceutique. En effet, les risques associés à la mentalité d’analyse traditionnelle sur le produit fini uniquement et l’avènement des techniques d’analyse de procédés (PAT) ouvrent la voie à un contrôle plus complet et en temps réel de la qualité, tel que recommandé par les instances règlementaires. Ceci implique des économies d’échelle pour l’industrie étant donné la réduction des efforts (temps et argent) associés à l’analyse laboratoire par les techniques conventionnelles.
Les appareils spectroscopiques constituent une technologie très utile pour l’analyse d’une formulation étant donné qu’ils sont généralement non-invasifs et non-destructifs. Dans le cadre de ce projet de recherche, il sera question de l’évaluation et du développement de la technique light-induced fluorescence spectroscopy (LIFS) afin de déterminer en-ligne la faible concentration d’un ingrédient actif dans une étape de mélange. Pour se faire, il sera tout d’abord nécessaire d’établir des modèles de calibration et d’évaluer l’impact des facteurs environnementaux et physico-chimiques sur les performances de ceux-ci, ainsi que sur le phénomène de photoblanchiment. Suite à une analyse de sensibilité, il sera possible d’élaborer un modèle optimisé et robuste.
La méthodologie pour atteindre ces objectifs est la suivante : détermination des longueurs d’onde d’opération (excitation et émission); acquisition de spectres en mode dynamique, mais aussi en mode statique en faisant varier les paramètres de concentration, d’humidité, de taille de particule et de pression appliquée; traitement des données par analyse multivariée; établissement d’un modèle de calibration et validation de celui-ci par des essais à l’échelle pilote.
La technologie LIFS, mais surtout son utilisation comme PAT, est très novatrice. De plus, les instruments développés antérieurement n’ont pas donné les résultats escomptés, ce qui renforce la pertinence de continuer les efforts de développement. Plus encore, le phénomène de photoblanchiment est encore mal défini et très peu d’études ont été faites sur des mélanges de poudres. En établissant de façon claire l’impact des différents facteurs sur la justesse, la précision, la répétabilité et la robustesse du modèle et de l’appareil, il sera possible de développer une technologie fiable permettant de quantifier des molécules fluorescentes en faible concentration dans un mélange particulaire.
|
19 |
Contribution au développement d'un dispositif robuste de détection-diffusion d'huiles essentielles à concentration contrôlée / Development of a robust detection-diffusion system for essential oils concentration controlAhmadou, Mohamed Diaa 04 December 2015 (has links)
Ce travail contribue à la conception d’un système de détection-diffusion contrôlant en temps réel la concentration en huile essentielle dans un espace confiné. L’objectif est d’assurer la reproductibilité des conditions d’exposition aux stimuli olfactifs de sujets vivants, afin de tester les impacts neurosensoriels provoqués. La principale contrainte est de pouvoir mesurer, avec de bonnes qualités de rapidité et précision, la concentration odorante d’une atmosphère. Pour la détection gazeuse, le choix s’est porté sur un dispositif basé sur des capteurs de gaz commerciaux à base d’oxyde métalliques (nez électronique), couplé à un étalonnage préalable sous concentrations fixes d’huile essentielle de pin. Un équipement expérimental a été mis au point afin d’étudier, de caractériser et surtout d’optimiser les performances de ce dispositif. De premières études ont permis de classer les capteurs selon la rapidité, la sensibilité et le niveau de dérives, et d’optimiser la procédure de mesures : cycle d’exposition gazeuse de 75sec suivie de 350sec de régénération des capteurs sous air pur. Une caractérisation a été menée à partir de mesures systématiques réalisées sous diverses variations (croissantes, décroissantes, aléatoires) de concentration, prenant ainsi en compte toutes les formes possibles de dérive. Afin de réduire les erreurs dues à ces dérives, un prétraitement original a été initié en normalisant les signaux de réponse, grâce à la réponse de chaque capteur prise en fin de régénération. Deux descripteurs normalisés (conductance moyenne et maximale) ainsi que la valeur maximale de la courbe dérivée de chaque réponse temporelle ont été définis pour chaque capteur. L’exploitation de la base de données constituée à l’aide de ces trois paramètres par des méthodes de classification ACP et AFD montrent la difficulté de différencier les hautes concentrations, même en éliminant les deux capteurs les moins performants. Une toute nouvelle approche est alors proposée en combinant la technique de correction orthogonale des signaux (OSC), conduisant à la suppression des informations non pertinentes de la base de données, suivie d’une régression des moindres carrés partiels (PLS) adaptée aux problèmes de multi-colinéarité et au nombre élevé de variables. L’association de ces méthodes permet une meilleure discrimination des fortes concentrations, tout en garantissant le maximum de stabilité au modèle de régression et la précision d’estimation requise des concentrations gazeuses. Enfin, cette discrimination a été optimisée en remplaçant les trois paramètres représentatifs précédents par l’intégralité des signaux de réponse, le temps de calcul nécessaire restant modique. Une très bonne évaluation de la concentration gazeuse dans toute la gamme utilisée a alors été obtenue. Nous avons ainsi élaboré un modèle robuste et précis pour l’étalonnage de notre système, grâce à des méthodes d’analyse et de prétraitement judicieux, qui permet d’entreprendre la réalisation du prototype. / ControlThis work contributes to the design of a gas diffusion-sensing system controlling in real time the essential oil concentration in a confined atmosphere. The objective is to create reproducible exposure conditions of olfactory stimuli on living beings to test their neurosensory impacts. The main constraint is to measure with good accuracy and rapidity the odor concentration of a global atmosphere. We decided to use a gaseous detection device (electronic nose) based on commercial resistive metal oxide sensors coupled to a prior learning at fixed concentrations of pine essential oil. Experimental equipment was first developed in order to study, characterize and especially optimize the device performances to be achieved. Initially, the study of time gas sensor responses was used to optimize working measurement conditions: cycle of 75s gas exposure phase, followed by 350s pure air regeneration phase. First results allowed the classification of our sensors in terms of rapidity, sensitivity and drift levels. A systematic characterization measurement was made under various concentration variations: increasing, decreasing or random ones taking account of all possible forms of response drifts. To reduce errors due to the drifts, an original pretreatment was initiated by normalizing each sensor response value in relation with its corresponding conductance value at the end of regeneration phase. Two normalized features and also the maximum value of the derivative curve were defined for each time sensor response. The analysis by ACP and AFD classification methods of the database created using these three features show the difficulty in differentiating high concentrations, even by eliminating the two least efficient sensors. So, a completely new approach was proposed by combining the orthogonal signal correction technique (OSC) allowing to remove irrelevant information, and the Partial Linear Square regression method PLS, adapted in case of multi-collinearity and a large number of parameters. Using these two methods yields a much better discrimination of the high concentrations, maintaining the concentration prediction accuracy with a maximum stability of the regression model. Finally, the concentration prediction has been optimized by substituting representative parameters with the full response signal, the calculation time remaining low. A very good assessment of the gas concentration in all the used range was obtained. So we have developed a robust and accurate model for the calibration of our system thanks to a combination of original processing and analysis methods, allowing to achieve a reliable detection-diffusion prototype
|
20 |
Etude exclusive des collisions centrales Ni+Ni et Ni+Au: coexistence de phase et décomposition spinodaleGUIOT, Benoit 13 December 2002 (has links) (PDF)
Les collisions Ni+Ni à 32A MeV et Ni+Au à 52A MeV ont été étudiées grâce aux données recueillies par le multidétecteur INDRA. Nous avons isolé des ensembles de collisions centrales menant à la formation de sources uniques de "quasi-fusion". Ce travail a été accompli par l'emploi de techniques d'analyses multidimensionnelles: Analyse Factorielle Discriminante et Analyse en Composantes Principales. La comparaison avec un modèle statistique montre que les événements sont compatibles avec l'équilibre thermodynamique. Les énergies d'excitation thermiques moyennes sont les mêmes (5A MeV). Nous avons montré que la désexcitation des sources chaudes est reliée à une transition de phase de type liquide-gaz de la matière nucléaire par des calculs de capacités calorifiques. Celles-ci présentent une branche négative comme il est attendu pour une transition de phase d'un système fini. La dynamique de cette transition de phase a ensuite été précisée en appliquant la méthode des corrélations en charge. La surproduction d'événements favorisant des fragments de charges égales a été mise en évidence pour Ni+Au à 52A MeV. Ce signal est compatible avec un scénario de décomposition spinodale d'un système nucléaire fini. Il est absent pour Ni+Ni à 32A MeV. Nous avons ensuite amélioré cette technique de corrélations en intégrant la contrainte de conservation de la charge totale. Le signal persiste, plus clairement, pour Ni+Au à 52A MeV, mais est ambigu pour Ni+Ni à 32A MeV. Le chemin parcouru dans le diagramme d'état, ou les temps mis en jeu, semblent donc différents pour les deux systèmes.
|
Page generated in 0.0908 seconds