• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 13
  • Tagged with
  • 63
  • 63
  • 27
  • 26
  • 15
  • 11
  • 11
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Méthodes de regroupement et de découverte de motifs pour les données fonctionnelles

Conte, Pathe January 2022 (has links)
Ce mémoire propose des outils d'analyse des données fonctionnelles (ADF). Cette analyse s'applique aux données dont la structure peut être considérée comme une fonction. Dans ce travail, nous avons fait, avec des exemples pratiques sous R, un parcours sur une partie des méthodes existantes. D'abord, nous avons commencé par une petite introduction générale sur l'ADF où nous avons parlé non seulement des différentes bases classiques (base de Fourier, base polynomiale, base spline) qui permettent de représenter les données fonctionnelles en les rapprochant avec une combinaison linéaire de fonctions de base, mais aussi du lissage qui permet de convertir des données observées discrètes en courbes coutinues (par les moindres carrés ou par la pénalisation). Au vu du problème de variabilité en phase des données fonctionnelles, nous avons parlé des différentes méthodes d'alignement des courbes (par points de repère et alignement continu). Ensuite, nous avons étudié le clustering de données fonctionnelles. Il s'agit du processus qui permet de regrouper en cluster des fonctions similaires. Plusieurs méthodes de clustering exitent, mais nous nous sommes focalisés principalement sur les méthodes basées sur la distance, plus particulièrement sur la méthode K-moyennes. Également, le K-moyennes combinant simultanément l'alignement de manière globale et le clustering des courbes a été présentée. Et à travers des exemples pratiques, nous avons pu trouver la structure sous-jacente de données (identification de certaines tendances des données). Enfin, nous avons terminé par présenter le K-moyennes probabiliste avec alignement local qui prend en compte la forme locale des courbes, ce qui n'est pas le cas avec les méthodes susmentionnées qui traitent les courbes dans leur intégralité. Cette méthode, développée par Cremona et Chiaromonte, permet le regroupement local des courbes et la découverte de motifs fonctionnels ("formes" typiques) dans ces courbes. Sous R, cette méthode est fournit par le package probKMA.FMD (ProbKMA-based Functional Motif Discovery) qui est en construction. Des exemples pratiques ont été montrés afin de bien tester les codes et les fonctions du package. / This thesis proposes tools for functional data analysis (FDA). FDA is used on data whose structure can be considered as a function. In this work, we have looked at some of the existing methods using practical examples with R. First, we started with a short general introduction on FDA in which we discussed the different classical bases (Fourier basis, polynomial basis, Spline basis) which allow to represent functional data through a linear combination of basis functions. We also considered smoothing, which allows the conversion of discrete observed data into continuous curves (by least squares or by rougghness penalty). Regarding the problem of phase variability of functional data, we discussed different methods of curve alignment (by landmarks and continuous alignment). Second, we studied the clustering of functional data, which permits to group similar functions into clusters. Several clustering methods exist, but we mainly focused on distance-based methods, particularly on the K-means. Moreover, we considered a K-means combining simultaneously global alignment and clustering of curves. Through practical examples, we were able to find the underlying structure of the data (identification of certain patterns in the data). Finally, we presented the probabilistic K-means with local alignment which takes into account the local shape of the curves,as opposed to the previously mentioned methods which treat the curves in their entirety. This method, developed by Cremona and Chiaromonte, allows the local clustering of curves and the discovery of functional motifs ("shapes") in these curves. In R, this method is provided by the probKMA.FMD (ProbKMA-based Functional Motif Discovery) package which is under construction. Practical examples have been shown to test the codes and functions of the package.
2

Utilisation de l'analyse multicritère comme outil stratégique de choix des matériaux en construction usinée

Cabral, Matheus Roberto 22 November 2022 (has links)
La construction usinée est un marché en pleine croissance en Amérique du Nord. Cependant, le choix des matériaux a un impact sur leurs coûts, leur temps de production et leur qualité. Par conséquent, l'objectif principal de cette thèse est de faciliter le choix des matériaux d'enveloppe et des structures des bâtiments usinés en bois au Canada et aux États-Unis, à partir de l'utilisation d'un outil de décision multicritères. Pour atteindre les objectifs, une stratégie de recherche a été conçue en trois étapes. À la première étape, une revue systématique a été réalisée pour identifier qu'elles sont les critères et les sous-critères pour sélectionner des matériaux d'enveloppe et de structure. Quant à la seconde étape, le raffinement et la validation des critères et sous-critères ont été effectués à l'aide de mesures du consensus et de l'indice de gravité (IG) à travers une étude réalisée auprès d'un groupe de vingt panélistes de la construction bois (Canada et États-Unis). À la troisième étape, l'analyse hiérarchique des procédés (AHP) a été réalisée. L'AHP s'est composé de deux phases, dans la première, la collecte de données, a été réalisée à l'aide d'enquêtes comparatives par paires. La deuxième a été la construction et l'exécution de l'AHP. Un groupe de panélistes composés de dix professionnels (Canada et des États-Unis) avec un positionnement stratégique dans le choix des matériaux pour la construction en bois a été consulté. Grâce aux résultats de la première étape, il a été possible d'obtenir les critères de choix des matériaux. Outre les critères, à partir de l'analyse documentaire, il a également été possible de relever des lacunes de recherche sur la construction en bois et l'efficacité énergétique. Des recommandations générales pour le développement de bâtiments moins énergivores ont été discutées. Quant aux critères obtenus, vingt-cinq sous-critères ont été extraits et divisés en sept critères principaux : (1) propriétés techniques; (2) matériaux durables; (3) efficacité énergétique; (4) économies de matériaux; (5) conditions du site et la logistique; (6) documentation et standardisation et (7) bénéfice social. À la deuxième étape, pour le raffinement et la validation, une plus grande importance a été accordée aux critères propriétés techniques, conditions du site et la logistique et bénéfice social. Quinze sous-critères ont été validés où seulement douze ont obtenu une priorité élevée par l'IG. Il s'agit des sous-critères (1ᵉʳ) étanchéité, (2ᵉ) facilité de mise en œuvre, (3ᵉ) santé des occupants, (4ᵉ) emplacement, forme et hauteur du bâtiment, (5ᵉ) résistance aux intempéries, (6ᵉ) performance au feu, (7ᵉ) disponibilité des matériaux, (8ᵉ) confort et bienêtre des occupants, (9ᵉ) sûreté et sécurité des occupants, (10ᵉ) esthétique, (11ᵉ) performance mécanique et (12ᵉ) documentation et standardisation. Les résultants de la troisième étape ont montré que le bénéfice social a la plus haute priorité pour la sélection des matériaux de structure et d'enveloppe, suivi des conditions du site et de la logistique et des propriétés techniques. Les cinq principaux sous-critères pour choisir des matériaux de structures étaient la sûreté et la sécurité des occupants du bâtiment, l'emplacement, la forme et la hauteur du bâtiment, le confort, la satisfaction et le bien-être du bâtiment, la santé des occupants et la disponibilité des matériaux, avec des poids globaux de 0,234, 0,218, 0,155, 0,121 et 0,098, respectivement. Pour la sélection des matériaux d'enveloppe, les cinq principaux sous-critères étaient le confort, la satisfaction et le bien-être du bâtiment, la sûreté et la sécurité des occupants du bâtiment, l'emplacement, la forme et la hauteur du bâtiment, la santé des occupants, la disponibilité des matériaux avec des poids globaux de 0,252, 0,206, 0,178, 0,132 et 0,078 respectivement. Cette étude suggère que l'AHP pourrait être une voie décisionnelle pour faciliter la sélection des matériaux de structure et d'enveloppe des bâtiments en bois au Canada et aux États-Unis. Nos résultats suggèrent que le choix des matériaux devrait prendre en compte les matériaux qui offrent des bénéfices sociaux et qui s'adaptent à la condition du site et à la logistique, plus précisément ceux liés au confort, à la satisfaction et au bien-être des occupants pour l'enveloppe. Pour la structure, ceux liés au sous-critère sûreté et sécurité des travailleurs et des occupants pour les matériaux de structure. / Prefabricated construction is a growing market in North America. However, the choice of materials has an impact on their costs, production time, and quality. The main objective of this thesis is to facilitate the choice of envelope materials and structures of manufactured wood buildings in Canada and the United States, from the use of a multi-criteria decision tool. To achieve the objectives, a research methodology was designed in three steps. In the first step, a systematic review was performed to identify what are the criteria and sub-criteria for selecting the envelope and structural materials. For the second step, the refinement and validation of the criteria and sub-criteria were carried out, using consensus measurements and the severity index (SI) through a study carried out with a group of twenty panelists of wood construction (Canada and the United States). In the third step, the Analytic hierarchy process (AHP) was performed. The AHP consisted of two phases, in the first, data collection was carried out using pairwise comparative surveys. The second was the construction and execution of the AHP. A group of panelists composed of ten professionals (Canada and the United States) with a strategic positioning in the choice of materials for wood construction was consulted. Thanks to the results from the first step, it was possible to obtain the criteria for choosing the materials. In addition to the criteria, from the literature review, it was also possible to identify research gaps on wood construction and energy efficiency. General recommendations for the development of less energy-intensive buildings were discussed. As for the criteria obtained, twenty-five sub-criteria were extracted and divided into seven main criteria: (1) technical properties, (2) durable materials, (3) energy efficiency, (4) material savings, (5) conditions site and logistics, (6) documentation and standardization, and (7) social benefit. In the second step, for refinement and validation, greater importance was given to the criteria technical properties, site conditions and logistics, and social benefit. Seventeen sub-criteria were validated where only thirteen were given high priority by the SI. These are the sub-criteria (1ˢᵗ) watertightness, (2ⁿᵈ) ease of implementation, (3ʳᵈ) health of occupants, (4ᵗʰ) location, building shape and height, (5ᵗʰ) weather resistance, (6ᵗʰ) fire performance, (7ᵗʰ) availability of materials, (8ᵗʰ) comfort and well-being of occupants, (9ᵗʰ) safety and security of occupants, (10ᵗʰ) aesthetics, (11ᵗʰ) mechanical performance, and (12ᵗʰ) documentation and standardization. The results of the third step showed that social benefit has the highest priority for the selection of structural and envelope materials, followed by site conditions and logistics as well as technical properties. The five main sub-criteria to choose structural materials were building occupant safety and security, building location, shape and height, building comfort, satisfaction and well-being, occupant health, and availability of materials, with overall weights of 0.234, 0.218, 0.155, 0.121, and 0.098, respectively. For the selection of envelope materials, the five main sub-criteria were comfort, satisfaction and well-being of the building, safety and security of the occupants of the building, location, shape and height of the building, occupant health, and material availability, with overall weights of 0.252, 0.206, 0.178, 0.132 and 0.078 respectively. This study suggests that AHP could be a decision-making pathway to facilitate the selection of structural and envelope materials for wood buildings in Canada and the United States. Our results suggest that a material choice pathway should take into account materials that provide social benefits and suit the site condition and logistics, more specifically, those related to the comfort, satisfaction, and well-being of the occupants for the envelope. For the structure, those related to the safety and security of workers and occupant's sub-criterion for structural materials.
3

Schéma stepped wedge : modélisation et analyse de données

Messaoudi, Ghizlane 02 February 2021 (has links)
Ce mémoire a pour objectif principal de présenter des méthodes pour analyser les données provenant d'un essai clinique stepped wedge. On introduit des méthodes qui traitent les données individuelles ainsi que les données agrégées. Chaque méthode est illustrée avec des données provenant d'un essai clinique qui porte sur l'implantation d'un programme de formation à la prise de décision partagée dans une équipe interprofessionnelle. L'objectif secondaire de ce mémoire est d'évaluer la performance des tests de comparaison des deux traitements étudiés dans un stepped wedge à l'aide des méthodes de Monte Carlo. À cette n, des simulations ont été réalisées sous le logiciel R. Les résultats indiquent qu'il n'y a pas une méthode qui est supérieure à l'autre. Le choix de la méthode dépend du contexte de l'étude. / This research paper aims initially to present methods to analyse data from a stepped wedged clinical trial. We introduce methods that process both individual and aggregated data. Each method is exposed using data taken from a clinical trial based on the implementation of shared decision-making training program within an interprofessional team. As its secondary objective, this research paper provides a performance assessment on the comparison tests of two treatments studied within a stepped wedge using the Monte Carlo methods. On this note, simulations were executed using the R software. The results indicate that there is no method that is universally superior to the other. The choice of method depends on the context of the study
4

Sur l'estimation d'un vecteur moyen sous symétrie sphérique et sous contrainte

Kortbi, Othmane January 2011 (has links)
Ce travail est essentiellement centré sur l'estimation, du point de vue de la théorie de la décision, de la moyenne d'une distribution multidimensionnelle à symétrie sphérique. Sous coût quadratique, nous nous sommes concentrés à développer des classes d'estimateurs au moins aussi bons que les estimateurs usuels, puisque ces derniers tendent à perdre leur performance en dimension élevée et en présence de contraintes sur les paramètres. Dans un premier temps, nous avons considéré les distributions de mélange (par rapport à [sigma][indice supérieur 2]) de lois normales multidimensionnelles N ([théta], [sigma][indice supérieur 2]I[indice inférieur p]), en dimension p supérieure ou égale à 3. Nous avons trouvé une grande classe de lois a priori (généralisées), aussi dans la classe des distributions de mélange de lois normales, qui génèrent des estimateurs de Bayes minimax. Ensuite, pour étendre nos résultats, nous avons considéré les distributions à symétrie sphérique (pas nécessairement mélange de lois normales) avec paramètre d'échelle connu, en dimension supérieure ou égale à 3 et en présence d'un vecteur résiduel. Nous avons obtenu une classe d'estimateurs de Bayes généralisés minimax pour une grande classe de distributions sphériques incluant certaines distributions mélange de lois normales. Dans l'estimation de la moyenne [théta] d'une loi N[indice inférieur p]([théta], I[indice inférieur p]) sous la contrainte [double barre verticale][théta][double barre verticale] [inférieur ou égal] m avec m > 0, une analyse en dimension finie pour comparer les estimateurs linéaires tronqués [delta][indice inférieur a] (0 [plus petit ou égal] a < 1) avec l'estimateur du maximum de vraisemblance [delta][indice inférieur emv] est donnée. Un cadre asymptotique est développé, ceci nous permet de déduire la sous-classe des estimateurs [delta][indice inférieur a] qui dominent [delta][indice inférieur emv] et de mesurer avec précision le degré d'amélioration relative en risque. Enfin, dans l'estimation de la moyenne [théta] d'une loi N[indice inférieur p]([théta], [sigma][indice supérieur 2]I[indice inférieur p]) où [sigma] est inconnu et sous la contrainte [Special characters omitted.] [plus petit ou égal] m avec m > 0, des résultats de dominance de l'estimateur X et de l'estimateur du maximum de vraisemblance [delta][indice inférieur emv] sont développés. En particulier, nous avons montré que le meilleur estimateur équivariant [delta][indice inférieur m] (x , s) = h[indice inférieur m] ([Special characters omitted.]) x pour = [Special characters omitted.] = m domine [delta][indice inférieur emv] lorsque m [plus petit ou égal] [racine carrée]p et que sa troncature [delta][Special characters omitted.] domine [delta][indice inférieur emv] pour tout (m , p).
5

Développement d'une méthode PAT basée sur la technique NIR pour le suivi de l'uniformité d'un mélange particulaire pharmaceutique et l'évaluation de la taille moyenne des particules

Lapointe-Garant, Pierre-Philippe January 2009 (has links)
En 1992, le cas de Barr Laboratories vs. US Food and Drug Administration (FDA) est le sujet de l'heure dans l'industrie pharmaceutique. La FDA poursuit le manufacturier contractuel de produit pharmaceutique pour ses mauvaises pratiques de validation de procédés et de tests de routine. Le mélange des matières premières est particulièrement visé. Les procédures de validation y sont en effet négligées et les contrôles et évaluations de la qualité du produit fini sont alors restreints aux tests de quelques comprimés sur un lot parfois de plusieurs millions de comprimés. Un besoin est ainsi identifié : mettre en place un nouveau système d'évaluation de la qualité ou de contrôle de la production plus représentatif. C'est ainsi qu'en 2004 est lancée l'initiative des technologies d'analyse des procédés, ou"Process Analytical Technologies" ou PAT. Cette initiative, chapeautée par la FDA, prend rapidement de l'ampleur bien que restant à ce jour une recommandation plus qu'une loi. Dans la même veine, le projet de Recherche et Développement Coopératif (RDC) entre l'Université de Sherbrooke et Wyeth Pharmaceutiques sur l'étude des phénomènes granulaires d'écoulement et de ségrégation identifie ce même besoin important pour la continuation des travaux. C'est ainsi que naquit ce présent projet de maîtrise. Afin de faire suite aux recommandations de la FDA et afin de continuer les études sur les systèmes particulaires, un outil de suivi de la qualité en ligne doit être développé pour les mélangeurs utilisés dans l'industrie pharmaceutique. Cet outil devra éventuellement être viable pour la production de l'entreprise et servira de critère de relâche des produits finis. La technologie de la spectroscopie en proche infrarouge (NIR) a rapidement été identifiée pour ce besoin. Cette technologie possède les avantages nécessaires afin d'être installée sur le mélangeur et suivre la qualité de mélange en temps réel. Les travaux ici présentés ont été effectués entre janvier 2006 et septembre 2008 sur une véritable formulation pharmaceutique et ont été appliqués à l'échelle laboratoire tout comme à l'échelle de production conventionnelle. Les travaux ont permis d'identifier trois techniques d'analyse statistique viables pour le suivi de l'homogénéité de mélange en ligne : l'analyse de la variance, l'analyse de la distance et l'analyse quantitative. Ces trois techniques possèdent toutes leurs avantages et désavantages et le choix d'une de ces techniques dépend de la formule visée et du besoin du client. De plus, grâce à l'application d'un Design d'Expérience (DoE), les paramètres critiques ayant une influence sur le spectre NIR ont été évalués. La distribution de tailles de particules est un de ces facteurs ayant une influence importante. Son influence a été évaluée grâce à l'application du modèle de Kubelka-Munk. Les recommandations de ces travaux ont été transmises à l'entreprise Wyeth Pharmaceutiquess à Montréal et seront appliquées pour la future implantation de la technologie NIR pour le suivi de l'homogénéité de mélange lors des procédés de mélanges granulaires pharmaceutiques.
6

Calibration of multivariate predictive models the study of factors influencing the prediction ability of Raman spectroscopy applied to pharmaceutical tablets / Calibration des modèles prédictifs multivariés : étude des facteurs influant sur la prédiction de concentration de comprimés pharmaceutiques avec la spectroscopie Raman

Salvas, Joanny January 2010 (has links)
The use of Process Analytical Technology (PAT) is nowadays well spread throughout the pharmaceutical industry, mostly because they allow gaining useful process insight, better monitoring throughout the manufacturing steps, lowering costs associated with the use of wet-chemistry based testing method, and increasing overall efficiency. Most of the PAT methods are based on multivariate predictive models (MVPM).The calibration of such MVPM is a step crucial to the success of the MVPM-based PAT method development. From what could be gathered of today's practices in MVPM calibration, the current trends are aligned on the mantra"the more the better". This means that best-practices suggest that using more calibration points, with more samples, manufactured as closely as possible to the commercial samples, with more precise measuring reference methods, will lead to a more precise, better performing MVPM-based PAT methods. Obviously, it also leads to a costlier and longer to develop method, thus limiting the potential applications as well as lowering the overall gain to expense ratio of these methods.The aim of this work was to investigate the development protocol of MVPM-based PAT methods in order to identify the factors that were most susceptible to influence the performances of the developed method, with the ultimate goal to propose an optimized protocol. A base case of MVPM-based PAT method was used to perform the assessment: the use of Raman spectra collected from intact pharmaceutical tablets to predict their content in 4 minerals and 1 vitamin. From this development case study, two minerals were chosen to be part of the investigation: one that was in high concentration in the product and one that was in low concentration. Eight (8) factors were identified and tested separately on the two data sets created.The tests were guided by a design of experiment that allowed optimizing the total number of predictive models that needed to be made, all the while retaining sufficient data to allow minimal confusions within second-order factorial interactions. Analysis of results gathered from more than 85 multivariate predictive models allowed identifying factors that had an influence on both type of calibration (high and low raw material concentration).The type of equipment and batch size used for calibration samples manufacturing, as well as the number of points and replicates use (to a certain extent) or the calibration algorithm and reference method did not influence the MVPM accuracy when dealing with highly concentrated raw material. For a low-concentration raw material, the significant factors were the type of equipment and number of calibration points used. In both cases, the distribution of the calibration points along the chosen concentration span showed a significant influence on the method performances. Having identified the factors influencing the MVPM-based PAT method, an optimized protocol for future development could be proposed. Using this alternate approach should reduce the required invested man- and lab-time by approximately 30 %. A 31 % reduction in development-related costs is also expected. These results can be achieved with a manageable accuracy decrease varying between 0 and less than 2 % (absolute values), depending on the type of raw material concentration monitored. This study fills a gap in the published literature. No extensive and comprehensive studies had been made, to the author's knowledge, regarding the overall development process of such MVPM-based methods. Several hints for future research and developments are also proposed to follow-up with this project.
7

Optimisation de l'utilisation d'un spectromètre proche infrarouge pour le suivi de l'humidité d'une poudre pharmaceutique lors du séchage dans un lit fluidisé

Demers, Anne-Marie January 2011 (has links)
Le contrôle de la qualité est une étape critique lors de la fabrication de produits pharmaceutiques. Pour accomplir cette tâche, différentes méthodes de laboratoire peuvent être utilisées, mais celles-ci sont habituellement coûteuses et exigent beaucoup de temps. Une alternative suggérée par l'agence réglementaire Food and Drug Administration est l'utilisation d'outils permettant l'analyse en continu, dont entre autres les outils spectroscopiques comme le proche infrarouge par exemple. Une des applications de cette technologie est le suivi de l'humidité d'une poudre pharmaceutique lors de son séchage dans un lit fluidisé. Une sonde à réflectance, qui est attachée au spectromètre, est insérée dans le bol du lit fluidisé et des spectres sont acquis tout au long du procédé. L'interprétation des spectres obtenus nécessite toutefois l'application de l'analyse multivariée et l'utilisation de plusieurs tests statistiques. Une courbe de calibration peut ainsi être construite et être utilisée au lieu des tests réalisés au laboratoire. Néanmoins, les paramètres critiques du spectromètre peuvent influencer la performance de la courbe de calibration bâtie. Par ailleurs, les articles publiés sur le sujet d'intérêt mentionnent que l'emplacement de la sonde, c'est-à-dire son angle et sa hauteur dans le bol, est critique pour l'obtention d'une acquisition spectrale de qualité. Or, aucun article n'a été publié sur la détermination de cet emplacement optimal et aussi sur le type d'embout à utiliser pour s'assurer d'une bonne lecture spectrale. Tout d'abord, des courbes de calibration ont été construites pour deux produits différents, soient un supplément vitaminé et un anti-inflammatoire. La méthodologie utilisée pour ces modélisations chimiométriques était innovatrice, car seulement des échantillons provenant de l'usine étaient utilisés et les spectres acquis avec le spectromètre étaient répliqués pour chaque échantillon collecté. Par la suite, un embout permettant une acquisition spectrale de qualité a été conçu et le nombre moyen de scans/spectre a été déterminé. En ayant fixé ces deux paramètres, la performance de la courbe de calibration construite pour le supplément vitaminé a été évaluée dans le lit fluidisé dans un environnement de production. Enfin, des plans d'expériences réalisés dans le lit fluidisé au laboratoire avec les deux produits ont permis d'évaluer l'effet des paramètres critiques du spectromètre sur les performances des courbes de calibration. Les tests statistiques effectués sur les deux courbes de calibration montrent de bonnes corrélations entre les prédictions par le spectromètre et les valeurs de référence. Par ailleurs, les essais réalisés dans un environnement de production ont démontré qu'un embout comportant une cavité permettant à la poudre de se stabiliser ainsi qu'un faible nombre de scans/spectre assurent une acquisition spectrale de qualité. Uniquement la courbe de calibration construite pour le supplément vitaminé a été évaluée dans un environnement de production ; le modèle chimiométrique réussit à bien prédire la fin de séchage. Enfin, les conclusions obtenues suite aux plans d'expériences réalisés dans le lit fluidisé au laboratoire ne peuvent pas être généralisées à différents produits. Il a aussi été démontré qu'il est difficile d'acquérir des spectres en mode dynamique et d'interpréter les résultats associés aux réplicas d'essais. Des travaux futurs sont suggérés pour investiguer certaines questions suscitées par cette recherche.
8

Intégration de données pour la qualité de la viande chez le porc : Méta-analyse et analyse multidimensionnelle / Data integration for pig meat quality traits : Meta-analysis and multidimensional analysis

Salmi-Boukhari, Btissam 02 December 2011 (has links)
La qualité de la viande englobe des critères d'importance différente suivant l'espèce animale considérée. Chez le porc, la qualité de la viande a un impact économique important et de nombreux travaux ont pu montrer que les interactions entre le type génétique (particulièrement les gènes halothane et Rendement Napole), les conditions d'élevage et les conditions d'abattage des animaux déterminent la qualité de la viande de porc. L'Europe, longtemps leader du marché mondial des produits de la viande de porc, se trouve aujourd'hui confronté à la concurrence d'autres pays, notamment le Brésil, les Etats-unis et la Chine. Ce projet de thèse s'inscrit dans le cadre d'un projet européen multidisciplinaire portant sur l'amélioration de la qualité de la viande de porc et des produits dérivés pour le consommateur. Un des modules est dédié à l'intégration des connaissances passées et celles à venir afin de construire des modèles de prédiction des qualités technologiques et sensorielles de la viande de porc à partir des données se rapportant à l'animal, ainsi qu'aux conditions d'élevage et de pré-abattage. L'objectif de la thèse est d'intégrer l'ensemble des données bibliographiques et expérimentales relatives aux principaux facteurs influençant la qualité de viande dans le cadre d'une méta-analyse, qui est une démarche statistique combinant les résultats d'une série d'études indépendantes sur un problème donné. Les résultats obtenus ont permis de préciser l'effet du gène halothane, des temps de jeûne, de transport et de repos à l'abattoir sur les principaux paramètres d'évaluation de la qualité technologique de la viande de porc. En effet, nos résultats ont pu confirmer l'effet significatif du gène halothane sur l'ensemble des paramètres de qualité étudiés. Cependant, l'effet significatif du gène halothane a été associé à celui de la race uniquement pour expliquer les variations des paramètres suivants : L* (la réflectance), b* (indice de jaune) et les pertes d'exsudat (DL). La méta-régression a permis de mettre en évidence l'effet du poids à l'abattage sur les différences de pH ultime (pHu) entre les génotypes homozygotes NN et nn. Parmi les facteurs de pré-abattage analysés, nos résultats indiquent que le temps de jeûne affecte le pHu et le DL mesurés au niveau du muscle longissimus, alors que le temps de repos à l'abattoir affecte le pHu du muscle semimembranosus. Le transport et l'interaction transport x temps de jeûne n'avaient d'effet significatif que sur les variations de DL. L'effet significatif de l'apport en vitamine E sur le processus d'oxydation des lipides pendant la conservation de la viande, et par conséquent, sur la qualité technologique de la viande a pu être démontré en utilisant un modèle de régressionméta-analytique non linéaire. D'un point de vue statistique, la comparaison des méthodes statistiques de méta-analyse par approche bayésienne et fréquentiste a permis de mettre en évidence l'avantage de la première quant à l'obtention de résultats plus probants lorsqu'il s'agit de méta-analyse sur un nombre de données relativement limité. Parallèlement à l'approche méta-analytique, une étude exploratoire par analyse multivariée a été réalisée afin d'identifier les corrélations qui existent entre un très grand nombre de variables structurées en groupes distincts. Nos résultats ont montré que les variables discriminant les cinq classes de race (Large White et Basque) x système d'élevage (conventionnel, alternatif et extensif) étaient les mêmes que celles qui discriminaient les individus entre eux, en l'occurrence les variables transcriptomiques, chimiques et technologiques. Le groupe composé des variables relatives à la réactivité à l'abattage discriminaient principalement les systèmes d'élevage, en particulier la classe des porcs basques élevés dans le système extensif. / Meat quality includes criteria of different importance depending on the animal species. Meat quality is a significant economic factor in pork production, and numerous publications have shown that it is strongly influenced by the interaction between genetic type (especially the halothane gene (Hal) and Napole yield gene (RN)), breeding conditions, and pre-slaughter and slaughter conditions of animals. The European Union, longtime leader of the globalmarket of pork and pork products, now faces increasing competition from other countries,including Brazil, the United States and China. This thesis project is part of a multidisciplinary European project on improving the quality of pork and pork products for the consumer. One of the modules of this project is dedicated to the integration of existing and upcoming data to produce a model for predicting technological and sensory pork quality, based on animal,production, and slaughter information. The objective of this thesis is to synthesize existing knowledge derived from bibliographic and experimental data relating to the main factors influencing meat quality within a meta-analysis, which is a statistical approach combining the results of a series of independent studies on a given problem. The results of this work have confirmed the effect of the halothane gene, as well as fasting, transport and lairage times on most of the analyzed parameters of technological pork meat quality. Indeed, our meta-analysis confirmed the significant effect of the halothane gene on all the analyzed meat quality attributes. However, the halothane gene effect was associated with the breed effect only for the following variables: L*-value (reflectance), b*-value (yellowness) and DL (drip loss). Slaughter weight contributed significantly only to the explanation of differences in ultimate pH between homozygous genotypes: NN and nn. Regarding the preslaughter conditions, the results of our meta-analysis showed that fasting time had a significant effect on pHu and DL measured in longissimus muscle. While, lairage affected only the pHu in semimembranosusmuscle. Interestingly, we found that DL was the lonely attribute significantly affected by transport time and its interaction with fasting time. The significant effect of the vitamin E supplementation on lipid oxidation process in pork and, therefore, affect the technological meat quality, was demonstrated by using a non linear meta-analytic regression model. Statistically, the comparison between the Bayesian and frequentist meta-analytic approaches has highlighted the ability of the hierarchical Bayesian model to reduce uncertainty in parameter estimates, especially when the number of studies included in the meta-analysis is relatively limited. In addition to the meta-analytic approach, an exploratory study by multivariate analyses was performed to identify the correlations among a large number of variables structured into separate groups. Our results showed that the variables which discriminated the five classes of breed (Large White and Basque pigs) x rearing system (conventional, alternative and extensive) were the same as those discriminating individuals. Indeed, a first group composed of transcriptomic, chemical and technological variables discriminated breeds. Slaughter reactivity variables discriminated rearing systems, especially the Basque pigs reared in the extensive system.
9

Classification automatique de données IRMf : application à l'étude des réseaux de l'émotion / Automatic classification of fMRI data : application to the study of emotion networks

Fournel, Arnaud 11 September 2013 (has links)
Depuis une quinzaine d'années, l'Imagerie par Résonance Magnétique fonctionnelle (IRMf) permet d'extraire de l'information sur le fonctionnement cérébral et particulièrement sur la localisation des processus cognitifs. L'information contenue par les acquisitions en IRMf est extraite à l'aide du modèle linéaire général et du processus d'inférence statistique. Bien que cette méthode dite « classique » ait permis de valider la plupart des modèles lésionnels de manière non invasive, elle souffre de certaines limites. Pour résoudre ce problème, différentes techniques d'analyse ont émergé et proposent une nouvelle façon d'interpréter les données de la neuroimagerie. Nous présentons deux nouvelles méthodes multivariées basées sur les cartes de Kohonen. Nos méthodes analysent les données IRMf avec le moins d'a priori possibles. En parallèle, nous tentons d'extraire de l'information sur les réseaux neuronaux impliqués dans les émotions. La première de ces méthodes s'intéresse à l'information de spécialisation fonctionnelle et la seconde à l'information de connectivité fonctionnelle. Nous présentons les résultats qui en découlent, puis chacune des méthodes est comparée à l'analyse dite classique en termes d'informations extraites. De plus, notre attention s'est focalisée sur la notion de valence émotionnelle et nous tentons d'établir l'existence d'un éventuel réseau partagé entre valence positive et valence négative. La constance de ce réseau est évaluée à la fois entre modalités perceptives et entre catégories de stimuli. Chacune des méthodes proposées permet de corroborer l'information recueillie par la méthode classique, en apportant de nouvelles informations sur les processus étudiés. Du point de vue des émotions, notre travail met en lumière un partage du réseau cérébral pour les va-lences négative et positive ainsi qu'une constance de cette information dans certaines régions cérébrales entre modalités perceptives et entre catégories. / In the last fifteen years, functional magnetic resonance imaging (fMRI) have been used to extract information about cognitive processes location. The information contained in fMRI acquisitions is usually extracted using the general linear model coupled to the statistical inference process. Although this classical method has validated noninvasively most of the lesional models, it suffers from some limitations. To solve this problem, various analysis techniques have emerged and propose a new way of interpreting neuroimaging data. In this thesis, we present two multivariate methods to analyze fMRI data with the least possible a priori. In parallel, we are trying to extract information about brain emotion processing. The first method focuses on the brain functional specialization and the second method on the brain functional connectivity. After results presentation, each method is compared to the so-called classical analysis in terms of extracted information. In addition, emphasis was put on the concept of emotional valence. We try to establish the existence of a possible split between positive and negative valence networks. The consistency of the network is evaluated across both perceptual modalities and stimuli categories. Each of the proposed methods are as accurate as the conventional method and provide new highlights on the studied processes. From the perspective of emotions, our work highlights a shared brain network for positive and negative valences and a consistency of this information in some brain regions across both perceptual modalities and stimuli categories.
10

Authenticite des produits agroalimentaires par spectroscopie rmn 1h et outils chimiometriques

Cuny, Marion 07 March 2008 (has links) (PDF)
La spectroscopie RMN 1H est une technique largement utilisée en analyse et qui se développe en authenticité des produits agroalimentaires. Cependant, l'utilisation des techniques d'analyse multivariée des données RMN 1H n'est pas encore aussi développée que dans le cas d'autres spectroscopies comme le Proche Infrarouge. Dans cette étude, nous avons utilisé différentes méthodes chimiométriques sur différents jeux de données issues de la spectroscopie RMN 1H, ayant pour but de tester le potentiel de cette méthode pour établir l'authenticité des produits. Tout d'abord, nous avons montré que l'utilisation de l'analyse en composantes indépendantes était un meilleur choix que l'analyse en composantes principales lors de l'analyse des spectres. En effet, les composantes indépendantes par leur nature expliquent mieux les phénomènes physico-chimiques mis en exergue lors de l'analyse spectrale. De plus, il a été possible de retrouver par cette méthode les signaux « purs » de composés, extraits des données brutes. Ensuite, nous avons testé différents prétraitements tel que l'ourdissage (« warping ») des données qui s'est révélé utile lorsque les données présentées des décalages de pics. De même, la transformation logarithmique des données a montré son intérêt pour l'analyse globale du spectre étant donné les larges variations d'intensité rencontrées. Puis, nous avons testé différentes méthodes de sélection de variables. Les premières méthodes se basaient sur des critères relatifs aux données comme la variance et la covariance pour CLV (Clustering of variables). Le deuxième type de méthode sélectionnait des intervalles de données - ce qui permet de prendre en compte le lien entre variables successives dans un signal. Nous avons comparé une méthode reconnue, Interval_PLS (iPLS), avec des méthodes plus novatrices : Evolving Windows Zone Selection et Interval-PLS_Cluster. Ces techniques de sélection de variables ont permis de repérer des marqueurs connus de l'authenticité des jus d'orange et de pamplemousse : hespéridine et naringine, mesurées en HPLC par la méthode IFU 58. De plus, les zones sélectionnées sur le vinaigre balsamique traditionnel rendent compte du vieillissement du vinaigre et permettent de discriminer le vinaigre balsamique commun du vinaigre traditionnel qui est un produit à forte valeur ajoutée. Enfin sur les yaourts, ce sont des composés aromatiques ainsi que des solvants de l'arôme qui ont été détectés et ont permis de séparer les différents types de yaourts aromatisés, aux fruits, à la pulpe de fruit et à différentes concentrations. Cette étude a montré l'intérêt du développement des techniques d'analyses spectrales en RMN pour prendre en compte ses spécificités par rapport aux autres techniques spectrales : les différences d'intensité dans les différentes zones du spectre, la taille importante des données initiales, ainsi que la redondance de l'information.

Page generated in 0.4654 seconds