• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 21
  • 4
  • Tagged with
  • 103
  • 79
  • 47
  • 35
  • 22
  • 17
  • 14
  • 13
  • 11
  • 10
  • 8
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Apports de la chimiométrie à la spectroscopie de Résonance Paramagnétique Electronique : nouvelles perspectives de traitement de données spectrales à dimensions spatiales (imagerie) et/ou temporelles / Chemometric contributions to electron paramagnetic resonance spectroscopy : new perspectives for processing of spectral data with spatial dimension (Imaging) and/or time evolution

Abou Fadel, Maya 03 December 2015 (has links)
La spectroscopie de Résonance Paramagnétique Electronique (RPE) est incontestablement devenue une technique de choix pour la caractérisation des matériaux complexes quand ceux-ci possèdent des électrons non appariés (ions de transitions, terres rares, défauts, radicaux organiques…). A l’instar de la résonnance magnétique nucléaire, la RPE génère des données spectrales multidimensionnelles (2D, 3D…) et depuis peu une imagerie spatiale mais aussi spectrale/spatiale. Il est ainsi étonnant de voir que malgré la grande quantité de données spectrales à explorer et la complexité des signaux RPE, il n’existe quasiment pas au niveau international d’exploitation des méthodes de traitements de données multivariées, méthodes largement proposées en chimiométrie. L’objectif de cette thèse est ainsi de développer de nouveaux outils pour le traitement de ces données spectrales RPE, d’établir de nouvelles méthodologies d’analyse et d’en évaluer leurs performances. Les deux axes principalement étudiés seront l’imagerie spectroscopique et la spectroscopie résolue en temps. Nous démontrerons dans ce travail que la mise en œuvre de méthodes dites de «résolutions multivariées de courbes» permet d’extraire simultanément et sans a priori toutes les cartographies chimiques et les spectres associés des composés purs présents dans l’échantillon étudié. Cette méthodologie sera aussi exploitée afin d’extraire les spectres RPE d’espèces intermédiaires lors d’un suivi cinétique. / Electron Paramagnetic Resonance (EPR) Spectroscopy has undoubtedly become the first-choice technique for the characterization of complex materials containing some unpaired electrons (transition metal ions, rare earth ions, defects, organic radicals ...). Similarly to nuclear magnetic resonance spectroscopy, EPR generates multidimensional (2D, 3D…) spectral and recently also spatial (imaging) data as well as spectral/spatial ones. It is thus, surprising that despite the large amount of spectral data to be explored and complexity of the EPR signals, there hardly exist at the international level of exploitation the multivariate data processing methods that are widely available in chemometrics. The objective of this thesis is thus, to develop new tools for the treatment of these EPR spectral data, to establish new analytical methodologies and to evaluate their performance. The two main areas that will be studied are spectroscopic imaging and time-resolved spectroscopy. In this work, we will show that the implementation of the methods known as "multivariate curve resolutions" can extract, simultaneously, and without a priori all chemical maps and their corresponding spectra of pure compounds present in the studied sample. This methodology will also be exploited to extract the EPR spectra of intermediate species during a kinetic monitoring.
2

Méthodes de prévision en régression linéaire multivariée

Gueorguieva, Ana January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
3

Méthodes de regroupement et de découverte de motifs pour les données fonctionnelles

Conte, Pathe January 2022 (has links)
Ce mémoire propose des outils d'analyse des données fonctionnelles (ADF). Cette analyse s'applique aux données dont la structure peut être considérée comme une fonction. Dans ce travail, nous avons fait, avec des exemples pratiques sous R, un parcours sur une partie des méthodes existantes. D'abord, nous avons commencé par une petite introduction générale sur l'ADF où nous avons parlé non seulement des différentes bases classiques (base de Fourier, base polynomiale, base spline) qui permettent de représenter les données fonctionnelles en les rapprochant avec une combinaison linéaire de fonctions de base, mais aussi du lissage qui permet de convertir des données observées discrètes en courbes coutinues (par les moindres carrés ou par la pénalisation). Au vu du problème de variabilité en phase des données fonctionnelles, nous avons parlé des différentes méthodes d'alignement des courbes (par points de repère et alignement continu). Ensuite, nous avons étudié le clustering de données fonctionnelles. Il s'agit du processus qui permet de regrouper en cluster des fonctions similaires. Plusieurs méthodes de clustering exitent, mais nous nous sommes focalisés principalement sur les méthodes basées sur la distance, plus particulièrement sur la méthode K-moyennes. Également, le K-moyennes combinant simultanément l'alignement de manière globale et le clustering des courbes a été présentée. Et à travers des exemples pratiques, nous avons pu trouver la structure sous-jacente de données (identification de certaines tendances des données). Enfin, nous avons terminé par présenter le K-moyennes probabiliste avec alignement local qui prend en compte la forme locale des courbes, ce qui n'est pas le cas avec les méthodes susmentionnées qui traitent les courbes dans leur intégralité. Cette méthode, développée par Cremona et Chiaromonte, permet le regroupement local des courbes et la découverte de motifs fonctionnels ("formes" typiques) dans ces courbes. Sous R, cette méthode est fournit par le package probKMA.FMD (ProbKMA-based Functional Motif Discovery) qui est en construction. Des exemples pratiques ont été montrés afin de bien tester les codes et les fonctions du package. / This thesis proposes tools for functional data analysis (FDA). FDA is used on data whose structure can be considered as a function. In this work, we have looked at some of the existing methods using practical examples with R. First, we started with a short general introduction on FDA in which we discussed the different classical bases (Fourier basis, polynomial basis, Spline basis) which allow to represent functional data through a linear combination of basis functions. We also considered smoothing, which allows the conversion of discrete observed data into continuous curves (by least squares or by rougghness penalty). Regarding the problem of phase variability of functional data, we discussed different methods of curve alignment (by landmarks and continuous alignment). Second, we studied the clustering of functional data, which permits to group similar functions into clusters. Several clustering methods exist, but we mainly focused on distance-based methods, particularly on the K-means. Moreover, we considered a K-means combining simultaneously global alignment and clustering of curves. Through practical examples, we were able to find the underlying structure of the data (identification of certain patterns in the data). Finally, we presented the probabilistic K-means with local alignment which takes into account the local shape of the curves,as opposed to the previously mentioned methods which treat the curves in their entirety. This method, developed by Cremona and Chiaromonte, allows the local clustering of curves and the discovery of functional motifs ("shapes") in these curves. In R, this method is provided by the probKMA.FMD (ProbKMA-based Functional Motif Discovery) package which is under construction. Practical examples have been shown to test the codes and functions of the package.
4

Résolution et modélisation chimiométrique en spectroscopie moléculaire

Ruckebusch, Cyril 09 June 2008 (has links) (PDF)
Cette Habilitation à Diriger des Recherches présente les concepts et développements en chimiométrie pour la description, la résolution ou la modélisation des données des systèmes physico-chimiques étudiés par spectroscopie moléculaire. Les algorithmes de chimiométrie seront d'abord redéfinis dans un contexte mathématique et<br />statistique pour justifier l'utilisation qui en est faite en spectroscopie. L'accent sera mis ensuite sur les travaux de recherche et les activités de valorisation autour des deux axes suivants :<br /><br />- l'analyse des systèmes chimiques et physico-chimiques évolutifs, tels que les processus réactionnels photoinduits. L'idée est la description des données spectro-cinétiques par un modèle de structure algébrique bilinéaire, le problème consistant à estimer les contributions cinétiques et spectrales des constituants purs du système chimique. Nous montrons l'intérêt des méthodes multivariées de résolution de courbes pour l'analyse globale des données des systèmes multi-expériences et pour l'intégration d'informations physico-chimiques lors de la résolution. Le résultat<br />est une description adaptée et robuste des données permettant la caractérisation moléculaire des espèces transitoires inconnues. Nous envisageons également les développements vers les méthodes hybrides ou semiparamétriques, en lien avec les approches statistiques développées en traitement du signal.<br /><br />- l'analyse qualitative ou quantitative d'échantillons complexes, multi-composants et soumis à de nombreux facteurs d'influence, tels que les échantillons naturels ou manufacturés. L'idée est la modélisation d'une grandeur obtenue par une méthode de référence à partir d‘observations spectroscopiques des échantillons. L'objectif du modèle construit est la prédiction de cette grandeur lors d'observations ultérieures, pour bénéficier des caractéristiques métrologiques des techniques de spectroscopie. Nous montrons le potentiel des méthodes issues de l'apprentissage statistique. Les développements sont liés à l'écriture de termes de pénalisation de l'erreur empirique, notamment pour le contrôle de la complexité des modèles. Nous insistons sur les méthodes non-paramétriques telles que les machines à vecteurs de support à fonctions noyaux, pour nos applications en spectroscopie, lorsque la dimension des données est problématique.
5

Utilisation de l'analyse multicritère comme outil stratégique de choix des matériaux en construction usinée

Cabral, Matheus Roberto 22 November 2022 (has links)
La construction usinée est un marché en pleine croissance en Amérique du Nord. Cependant, le choix des matériaux a un impact sur leurs coûts, leur temps de production et leur qualité. Par conséquent, l'objectif principal de cette thèse est de faciliter le choix des matériaux d'enveloppe et des structures des bâtiments usinés en bois au Canada et aux États-Unis, à partir de l'utilisation d'un outil de décision multicritères. Pour atteindre les objectifs, une stratégie de recherche a été conçue en trois étapes. À la première étape, une revue systématique a été réalisée pour identifier qu'elles sont les critères et les sous-critères pour sélectionner des matériaux d'enveloppe et de structure. Quant à la seconde étape, le raffinement et la validation des critères et sous-critères ont été effectués à l'aide de mesures du consensus et de l'indice de gravité (IG) à travers une étude réalisée auprès d'un groupe de vingt panélistes de la construction bois (Canada et États-Unis). À la troisième étape, l'analyse hiérarchique des procédés (AHP) a été réalisée. L'AHP s'est composé de deux phases, dans la première, la collecte de données, a été réalisée à l'aide d'enquêtes comparatives par paires. La deuxième a été la construction et l'exécution de l'AHP. Un groupe de panélistes composés de dix professionnels (Canada et des États-Unis) avec un positionnement stratégique dans le choix des matériaux pour la construction en bois a été consulté. Grâce aux résultats de la première étape, il a été possible d'obtenir les critères de choix des matériaux. Outre les critères, à partir de l'analyse documentaire, il a également été possible de relever des lacunes de recherche sur la construction en bois et l'efficacité énergétique. Des recommandations générales pour le développement de bâtiments moins énergivores ont été discutées. Quant aux critères obtenus, vingt-cinq sous-critères ont été extraits et divisés en sept critères principaux : (1) propriétés techniques; (2) matériaux durables; (3) efficacité énergétique; (4) économies de matériaux; (5) conditions du site et la logistique; (6) documentation et standardisation et (7) bénéfice social. À la deuxième étape, pour le raffinement et la validation, une plus grande importance a été accordée aux critères propriétés techniques, conditions du site et la logistique et bénéfice social. Quinze sous-critères ont été validés où seulement douze ont obtenu une priorité élevée par l'IG. Il s'agit des sous-critères (1ᵉʳ) étanchéité, (2ᵉ) facilité de mise en œuvre, (3ᵉ) santé des occupants, (4ᵉ) emplacement, forme et hauteur du bâtiment, (5ᵉ) résistance aux intempéries, (6ᵉ) performance au feu, (7ᵉ) disponibilité des matériaux, (8ᵉ) confort et bienêtre des occupants, (9ᵉ) sûreté et sécurité des occupants, (10ᵉ) esthétique, (11ᵉ) performance mécanique et (12ᵉ) documentation et standardisation. Les résultants de la troisième étape ont montré que le bénéfice social a la plus haute priorité pour la sélection des matériaux de structure et d'enveloppe, suivi des conditions du site et de la logistique et des propriétés techniques. Les cinq principaux sous-critères pour choisir des matériaux de structures étaient la sûreté et la sécurité des occupants du bâtiment, l'emplacement, la forme et la hauteur du bâtiment, le confort, la satisfaction et le bien-être du bâtiment, la santé des occupants et la disponibilité des matériaux, avec des poids globaux de 0,234, 0,218, 0,155, 0,121 et 0,098, respectivement. Pour la sélection des matériaux d'enveloppe, les cinq principaux sous-critères étaient le confort, la satisfaction et le bien-être du bâtiment, la sûreté et la sécurité des occupants du bâtiment, l'emplacement, la forme et la hauteur du bâtiment, la santé des occupants, la disponibilité des matériaux avec des poids globaux de 0,252, 0,206, 0,178, 0,132 et 0,078 respectivement. Cette étude suggère que l'AHP pourrait être une voie décisionnelle pour faciliter la sélection des matériaux de structure et d'enveloppe des bâtiments en bois au Canada et aux États-Unis. Nos résultats suggèrent que le choix des matériaux devrait prendre en compte les matériaux qui offrent des bénéfices sociaux et qui s'adaptent à la condition du site et à la logistique, plus précisément ceux liés au confort, à la satisfaction et au bien-être des occupants pour l'enveloppe. Pour la structure, ceux liés au sous-critère sûreté et sécurité des travailleurs et des occupants pour les matériaux de structure. / Prefabricated construction is a growing market in North America. However, the choice of materials has an impact on their costs, production time, and quality. The main objective of this thesis is to facilitate the choice of envelope materials and structures of manufactured wood buildings in Canada and the United States, from the use of a multi-criteria decision tool. To achieve the objectives, a research methodology was designed in three steps. In the first step, a systematic review was performed to identify what are the criteria and sub-criteria for selecting the envelope and structural materials. For the second step, the refinement and validation of the criteria and sub-criteria were carried out, using consensus measurements and the severity index (SI) through a study carried out with a group of twenty panelists of wood construction (Canada and the United States). In the third step, the Analytic hierarchy process (AHP) was performed. The AHP consisted of two phases, in the first, data collection was carried out using pairwise comparative surveys. The second was the construction and execution of the AHP. A group of panelists composed of ten professionals (Canada and the United States) with a strategic positioning in the choice of materials for wood construction was consulted. Thanks to the results from the first step, it was possible to obtain the criteria for choosing the materials. In addition to the criteria, from the literature review, it was also possible to identify research gaps on wood construction and energy efficiency. General recommendations for the development of less energy-intensive buildings were discussed. As for the criteria obtained, twenty-five sub-criteria were extracted and divided into seven main criteria: (1) technical properties, (2) durable materials, (3) energy efficiency, (4) material savings, (5) conditions site and logistics, (6) documentation and standardization, and (7) social benefit. In the second step, for refinement and validation, greater importance was given to the criteria technical properties, site conditions and logistics, and social benefit. Seventeen sub-criteria were validated where only thirteen were given high priority by the SI. These are the sub-criteria (1ˢᵗ) watertightness, (2ⁿᵈ) ease of implementation, (3ʳᵈ) health of occupants, (4ᵗʰ) location, building shape and height, (5ᵗʰ) weather resistance, (6ᵗʰ) fire performance, (7ᵗʰ) availability of materials, (8ᵗʰ) comfort and well-being of occupants, (9ᵗʰ) safety and security of occupants, (10ᵗʰ) aesthetics, (11ᵗʰ) mechanical performance, and (12ᵗʰ) documentation and standardization. The results of the third step showed that social benefit has the highest priority for the selection of structural and envelope materials, followed by site conditions and logistics as well as technical properties. The five main sub-criteria to choose structural materials were building occupant safety and security, building location, shape and height, building comfort, satisfaction and well-being, occupant health, and availability of materials, with overall weights of 0.234, 0.218, 0.155, 0.121, and 0.098, respectively. For the selection of envelope materials, the five main sub-criteria were comfort, satisfaction and well-being of the building, safety and security of the occupants of the building, location, shape and height of the building, occupant health, and material availability, with overall weights of 0.252, 0.206, 0.178, 0.132 and 0.078 respectively. This study suggests that AHP could be a decision-making pathway to facilitate the selection of structural and envelope materials for wood buildings in Canada and the United States. Our results suggest that a material choice pathway should take into account materials that provide social benefits and suit the site condition and logistics, more specifically, those related to the comfort, satisfaction, and well-being of the occupants for the envelope. For the structure, those related to the safety and security of workers and occupant's sub-criterion for structural materials.
6

Schéma stepped wedge : modélisation et analyse de données

Messaoudi, Ghizlane 02 February 2021 (has links)
Ce mémoire a pour objectif principal de présenter des méthodes pour analyser les données provenant d'un essai clinique stepped wedge. On introduit des méthodes qui traitent les données individuelles ainsi que les données agrégées. Chaque méthode est illustrée avec des données provenant d'un essai clinique qui porte sur l'implantation d'un programme de formation à la prise de décision partagée dans une équipe interprofessionnelle. L'objectif secondaire de ce mémoire est d'évaluer la performance des tests de comparaison des deux traitements étudiés dans un stepped wedge à l'aide des méthodes de Monte Carlo. À cette n, des simulations ont été réalisées sous le logiciel R. Les résultats indiquent qu'il n'y a pas une méthode qui est supérieure à l'autre. Le choix de la méthode dépend du contexte de l'étude. / This research paper aims initially to present methods to analyse data from a stepped wedged clinical trial. We introduce methods that process both individual and aggregated data. Each method is exposed using data taken from a clinical trial based on the implementation of shared decision-making training program within an interprofessional team. As its secondary objective, this research paper provides a performance assessment on the comparison tests of two treatments studied within a stepped wedge using the Monte Carlo methods. On this note, simulations were executed using the R software. The results indicate that there is no method that is universally superior to the other. The choice of method depends on the context of the study
7

Sur l'estimation d'un vecteur moyen sous symétrie sphérique et sous contrainte

Kortbi, Othmane January 2011 (has links)
Ce travail est essentiellement centré sur l'estimation, du point de vue de la théorie de la décision, de la moyenne d'une distribution multidimensionnelle à symétrie sphérique. Sous coût quadratique, nous nous sommes concentrés à développer des classes d'estimateurs au moins aussi bons que les estimateurs usuels, puisque ces derniers tendent à perdre leur performance en dimension élevée et en présence de contraintes sur les paramètres. Dans un premier temps, nous avons considéré les distributions de mélange (par rapport à [sigma][indice supérieur 2]) de lois normales multidimensionnelles N ([théta], [sigma][indice supérieur 2]I[indice inférieur p]), en dimension p supérieure ou égale à 3. Nous avons trouvé une grande classe de lois a priori (généralisées), aussi dans la classe des distributions de mélange de lois normales, qui génèrent des estimateurs de Bayes minimax. Ensuite, pour étendre nos résultats, nous avons considéré les distributions à symétrie sphérique (pas nécessairement mélange de lois normales) avec paramètre d'échelle connu, en dimension supérieure ou égale à 3 et en présence d'un vecteur résiduel. Nous avons obtenu une classe d'estimateurs de Bayes généralisés minimax pour une grande classe de distributions sphériques incluant certaines distributions mélange de lois normales. Dans l'estimation de la moyenne [théta] d'une loi N[indice inférieur p]([théta], I[indice inférieur p]) sous la contrainte [double barre verticale][théta][double barre verticale] [inférieur ou égal] m avec m > 0, une analyse en dimension finie pour comparer les estimateurs linéaires tronqués [delta][indice inférieur a] (0 [plus petit ou égal] a < 1) avec l'estimateur du maximum de vraisemblance [delta][indice inférieur emv] est donnée. Un cadre asymptotique est développé, ceci nous permet de déduire la sous-classe des estimateurs [delta][indice inférieur a] qui dominent [delta][indice inférieur emv] et de mesurer avec précision le degré d'amélioration relative en risque. Enfin, dans l'estimation de la moyenne [théta] d'une loi N[indice inférieur p]([théta], [sigma][indice supérieur 2]I[indice inférieur p]) où [sigma] est inconnu et sous la contrainte [Special characters omitted.] [plus petit ou égal] m avec m > 0, des résultats de dominance de l'estimateur X et de l'estimateur du maximum de vraisemblance [delta][indice inférieur emv] sont développés. En particulier, nous avons montré que le meilleur estimateur équivariant [delta][indice inférieur m] (x , s) = h[indice inférieur m] ([Special characters omitted.]) x pour = [Special characters omitted.] = m domine [delta][indice inférieur emv] lorsque m [plus petit ou égal] [racine carrée]p et que sa troncature [delta][Special characters omitted.] domine [delta][indice inférieur emv] pour tout (m , p).
8

Développement d'une méthode PAT basée sur la technique NIR pour le suivi de l'uniformité d'un mélange particulaire pharmaceutique et l'évaluation de la taille moyenne des particules

Lapointe-Garant, Pierre-Philippe January 2009 (has links)
En 1992, le cas de Barr Laboratories vs. US Food and Drug Administration (FDA) est le sujet de l'heure dans l'industrie pharmaceutique. La FDA poursuit le manufacturier contractuel de produit pharmaceutique pour ses mauvaises pratiques de validation de procédés et de tests de routine. Le mélange des matières premières est particulièrement visé. Les procédures de validation y sont en effet négligées et les contrôles et évaluations de la qualité du produit fini sont alors restreints aux tests de quelques comprimés sur un lot parfois de plusieurs millions de comprimés. Un besoin est ainsi identifié : mettre en place un nouveau système d'évaluation de la qualité ou de contrôle de la production plus représentatif. C'est ainsi qu'en 2004 est lancée l'initiative des technologies d'analyse des procédés, ou"Process Analytical Technologies" ou PAT. Cette initiative, chapeautée par la FDA, prend rapidement de l'ampleur bien que restant à ce jour une recommandation plus qu'une loi. Dans la même veine, le projet de Recherche et Développement Coopératif (RDC) entre l'Université de Sherbrooke et Wyeth Pharmaceutiques sur l'étude des phénomènes granulaires d'écoulement et de ségrégation identifie ce même besoin important pour la continuation des travaux. C'est ainsi que naquit ce présent projet de maîtrise. Afin de faire suite aux recommandations de la FDA et afin de continuer les études sur les systèmes particulaires, un outil de suivi de la qualité en ligne doit être développé pour les mélangeurs utilisés dans l'industrie pharmaceutique. Cet outil devra éventuellement être viable pour la production de l'entreprise et servira de critère de relâche des produits finis. La technologie de la spectroscopie en proche infrarouge (NIR) a rapidement été identifiée pour ce besoin. Cette technologie possède les avantages nécessaires afin d'être installée sur le mélangeur et suivre la qualité de mélange en temps réel. Les travaux ici présentés ont été effectués entre janvier 2006 et septembre 2008 sur une véritable formulation pharmaceutique et ont été appliqués à l'échelle laboratoire tout comme à l'échelle de production conventionnelle. Les travaux ont permis d'identifier trois techniques d'analyse statistique viables pour le suivi de l'homogénéité de mélange en ligne : l'analyse de la variance, l'analyse de la distance et l'analyse quantitative. Ces trois techniques possèdent toutes leurs avantages et désavantages et le choix d'une de ces techniques dépend de la formule visée et du besoin du client. De plus, grâce à l'application d'un Design d'Expérience (DoE), les paramètres critiques ayant une influence sur le spectre NIR ont été évalués. La distribution de tailles de particules est un de ces facteurs ayant une influence importante. Son influence a été évaluée grâce à l'application du modèle de Kubelka-Munk. Les recommandations de ces travaux ont été transmises à l'entreprise Wyeth Pharmaceutiquess à Montréal et seront appliquées pour la future implantation de la technologie NIR pour le suivi de l'homogénéité de mélange lors des procédés de mélanges granulaires pharmaceutiques.
9

Calibration of multivariate predictive models the study of factors influencing the prediction ability of Raman spectroscopy applied to pharmaceutical tablets / Calibration des modèles prédictifs multivariés : étude des facteurs influant sur la prédiction de concentration de comprimés pharmaceutiques avec la spectroscopie Raman

Salvas, Joanny January 2010 (has links)
The use of Process Analytical Technology (PAT) is nowadays well spread throughout the pharmaceutical industry, mostly because they allow gaining useful process insight, better monitoring throughout the manufacturing steps, lowering costs associated with the use of wet-chemistry based testing method, and increasing overall efficiency. Most of the PAT methods are based on multivariate predictive models (MVPM).The calibration of such MVPM is a step crucial to the success of the MVPM-based PAT method development. From what could be gathered of today's practices in MVPM calibration, the current trends are aligned on the mantra"the more the better". This means that best-practices suggest that using more calibration points, with more samples, manufactured as closely as possible to the commercial samples, with more precise measuring reference methods, will lead to a more precise, better performing MVPM-based PAT methods. Obviously, it also leads to a costlier and longer to develop method, thus limiting the potential applications as well as lowering the overall gain to expense ratio of these methods.The aim of this work was to investigate the development protocol of MVPM-based PAT methods in order to identify the factors that were most susceptible to influence the performances of the developed method, with the ultimate goal to propose an optimized protocol. A base case of MVPM-based PAT method was used to perform the assessment: the use of Raman spectra collected from intact pharmaceutical tablets to predict their content in 4 minerals and 1 vitamin. From this development case study, two minerals were chosen to be part of the investigation: one that was in high concentration in the product and one that was in low concentration. Eight (8) factors were identified and tested separately on the two data sets created.The tests were guided by a design of experiment that allowed optimizing the total number of predictive models that needed to be made, all the while retaining sufficient data to allow minimal confusions within second-order factorial interactions. Analysis of results gathered from more than 85 multivariate predictive models allowed identifying factors that had an influence on both type of calibration (high and low raw material concentration).The type of equipment and batch size used for calibration samples manufacturing, as well as the number of points and replicates use (to a certain extent) or the calibration algorithm and reference method did not influence the MVPM accuracy when dealing with highly concentrated raw material. For a low-concentration raw material, the significant factors were the type of equipment and number of calibration points used. In both cases, the distribution of the calibration points along the chosen concentration span showed a significant influence on the method performances. Having identified the factors influencing the MVPM-based PAT method, an optimized protocol for future development could be proposed. Using this alternate approach should reduce the required invested man- and lab-time by approximately 30 %. A 31 % reduction in development-related costs is also expected. These results can be achieved with a manageable accuracy decrease varying between 0 and less than 2 % (absolute values), depending on the type of raw material concentration monitored. This study fills a gap in the published literature. No extensive and comprehensive studies had been made, to the author's knowledge, regarding the overall development process of such MVPM-based methods. Several hints for future research and developments are also proposed to follow-up with this project.
10

Optimisation de l'utilisation d'un spectromètre proche infrarouge pour le suivi de l'humidité d'une poudre pharmaceutique lors du séchage dans un lit fluidisé

Demers, Anne-Marie January 2011 (has links)
Le contrôle de la qualité est une étape critique lors de la fabrication de produits pharmaceutiques. Pour accomplir cette tâche, différentes méthodes de laboratoire peuvent être utilisées, mais celles-ci sont habituellement coûteuses et exigent beaucoup de temps. Une alternative suggérée par l'agence réglementaire Food and Drug Administration est l'utilisation d'outils permettant l'analyse en continu, dont entre autres les outils spectroscopiques comme le proche infrarouge par exemple. Une des applications de cette technologie est le suivi de l'humidité d'une poudre pharmaceutique lors de son séchage dans un lit fluidisé. Une sonde à réflectance, qui est attachée au spectromètre, est insérée dans le bol du lit fluidisé et des spectres sont acquis tout au long du procédé. L'interprétation des spectres obtenus nécessite toutefois l'application de l'analyse multivariée et l'utilisation de plusieurs tests statistiques. Une courbe de calibration peut ainsi être construite et être utilisée au lieu des tests réalisés au laboratoire. Néanmoins, les paramètres critiques du spectromètre peuvent influencer la performance de la courbe de calibration bâtie. Par ailleurs, les articles publiés sur le sujet d'intérêt mentionnent que l'emplacement de la sonde, c'est-à-dire son angle et sa hauteur dans le bol, est critique pour l'obtention d'une acquisition spectrale de qualité. Or, aucun article n'a été publié sur la détermination de cet emplacement optimal et aussi sur le type d'embout à utiliser pour s'assurer d'une bonne lecture spectrale. Tout d'abord, des courbes de calibration ont été construites pour deux produits différents, soient un supplément vitaminé et un anti-inflammatoire. La méthodologie utilisée pour ces modélisations chimiométriques était innovatrice, car seulement des échantillons provenant de l'usine étaient utilisés et les spectres acquis avec le spectromètre étaient répliqués pour chaque échantillon collecté. Par la suite, un embout permettant une acquisition spectrale de qualité a été conçu et le nombre moyen de scans/spectre a été déterminé. En ayant fixé ces deux paramètres, la performance de la courbe de calibration construite pour le supplément vitaminé a été évaluée dans le lit fluidisé dans un environnement de production. Enfin, des plans d'expériences réalisés dans le lit fluidisé au laboratoire avec les deux produits ont permis d'évaluer l'effet des paramètres critiques du spectromètre sur les performances des courbes de calibration. Les tests statistiques effectués sur les deux courbes de calibration montrent de bonnes corrélations entre les prédictions par le spectromètre et les valeurs de référence. Par ailleurs, les essais réalisés dans un environnement de production ont démontré qu'un embout comportant une cavité permettant à la poudre de se stabiliser ainsi qu'un faible nombre de scans/spectre assurent une acquisition spectrale de qualité. Uniquement la courbe de calibration construite pour le supplément vitaminé a été évaluée dans un environnement de production ; le modèle chimiométrique réussit à bien prédire la fin de séchage. Enfin, les conclusions obtenues suite aux plans d'expériences réalisés dans le lit fluidisé au laboratoire ne peuvent pas être généralisées à différents produits. Il a aussi été démontré qu'il est difficile d'acquérir des spectres en mode dynamique et d'interpréter les résultats associés aux réplicas d'essais. Des travaux futurs sont suggérés pour investiguer certaines questions suscitées par cette recherche.

Page generated in 0.0614 seconds