• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 21
  • 4
  • Tagged with
  • 103
  • 79
  • 47
  • 35
  • 22
  • 17
  • 14
  • 13
  • 11
  • 10
  • 8
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Phénoménologie des neutrinos dans une théorie de matrices aléatoires

Giasson, Nicolas January 2019 (has links)
Le mécanisme permettant d’expliquer l’origine de la masse des neutrinos demeure, encore aujourd’hui, un mystère complet dont la résolution est susceptible de modifier considérablement la structure du modèle standard en physique des particules élémentaires. Dans la littérature, plusieurs candidats potentiels sont donc proposés afin de combler cette lacune et, ainsi, faire la lumière sur certaines des propriétés les plus étranges des neutrinos. Parmi ceux-ci, les mécanismes seesaw de type I, II et III constituent sans doute les approches les plus attrayantes et les plus étudiées. Cependant, bien que ces mécanismes offrent un cadre de travail simple et élégant pour expliquer la faible masse des neutrinos (l’ordre de grandeur), ceux-ci n’offrent aucune prédiction sur les paramètres fondamentaux caractérisant le phénomène d’oscillation, soit les angles de mélange, les phases complexes et la hiérarchie des masses. Afin d’obtenir des prédictions concrètes sur la phénoménologie des neutrinos, certaines hypothèses de travail supplémentaires doivent donc être formulées pour contraindre la structure des matrices de masse obtenue. Dans ce travail, l’hypothèse anarchique propre au secteur des neutrinos est adoptée. Les matrices de masse générées par les trois mécanismes seesaw dans la limite des basses énergies sont traitées dans le contexte d’une théorie de matrices aléatoires, ce qui permet de définir et d’analyser de nouveaux ensembles matriciels aléatoires appelés ensembles seesaw. Un cadre théorique unifié est donc présenté pour la construction de ces ensembles. Grâce au formalisme élaboré, qui repose sur les outils traditionnels relevant de la théorie des matrices aléatoires, les densités de probabilité jointes caractérisant ces ensembles sont obtenues de façon analytique. Une étude détaillée de leurs propriétés est alors réalisée, ce qui permet d’extraire les tendances dominantes propres à ces mécanismes de masse et d’analyser leurs conséquences pour le secteur des neutrinos du modèle standard étendu. En ce qui concerne le spectre de masse, les résultats obtenus indiquent que les mécanismes seesaw de type I et de type III sont plus adéquats pour reproduire les observations expérimentales. De plus, une forte préférence pour la différence de masses associée à la hiérarchie normale est observée. En contrepartie, il est également démontré que pour une différence de masses donnée entre les trois générations, toutes les permutations des masses sont équiprobables, ce qui rend hors de portée toute prédiction concernant la hiérarchie du spectre (normale ou inverse) sous l’hypothèse anarchique. En ce qui concerne les variables du groupe de symétrie (les angles de mélange et les phases complexes), on constate, d’une part, que la notion de mélange quasi-maximal est naturellement favorisée et, d’autre part, que la matrice PMNS peut être décrite comme une matrice unitaire générique tirée au hasard d’un ensemble matriciel caractérisé par la mesure de Haar du groupe de Lie correspondant. Par ailleurs, il est également démontré que ces conclusions sont indépendantes du mécanisme de masse considéré. / The neutrino mass generation mechanism remains, to this day, a complete mystery which is likely to play an important role in understanding the foundations of the Standard Model of particle physics. In an effort to fill this gap and, ultimately, shed some light on some of the most intriguing properties of neutrinos, many theoretical models are proposed in the literature. Among the many candidates, the type I, type II and type III seesaw mechanisms may very well be the most attractive and the most studied propositions. However, despite the fact that these mechanisms provide a simple and elegant framework for explaining the smallness of neutrino masses (the order of magnitude), no prediction can be made on the fundamental parameters governing neutrino oscillations (the mixing angles, the CP-violating phases and the mass differences). Thus, to obtain concrete results regarding neutrino phenomenology, additional working assumptions must be made in order to constrain the structure of the corresponding mass matrices. In this work, the anarchy hypothesis relevant to the neutrino sector is investigated. The mass matrices generated by the three seesaw mechanisms in the low-energy limit are studied within the framework of random matrix theory, which leads to the development and the analysis of the seesaw ensembles. A unified and precise theoretical formalism, based on the usual tools of random matrix theory, is presented for the construction of these new random matrix ensembles. Using this formalism, the joint probability density functions characterizing these ensembles are obtained analytically, thus paving the way for a detailed study of their properties. This study is then carried out, revealing the underlying trends in these ensembles and, thereby, offering a thorough analysis of their consequences for the neutrino sector of the seesaw-extended Standard Model. Regarding the mass spectrum, it is found that the type I and type III seesaw mechanisms are better suited to accommodate experimental data. Moreover, the results indicate a strong preference for the mass splitting associated to normal hierarchy. However, since all permutations of the masses are found to be equally probable for a particular mass splitting between the three generations, predictions concerning the hierarchy of the mass spectrum (normal or inverted) remains out of reach in the framework of anarchy. Regarding the group variables (the mixing angles an CP-violating phases), it is found that near-maximal mixing is naturally favored by these ensembles and, that the PMNS matrix can be described as a generic unitary matrix drawn at random from a matrix ensemble characterized by the Haar measure of the corresponding Lie group. Furthermore, these conclusions are found to be independent of the mass mechanism considered.
42

Analyse et création de modèles prédictifs pour la déshydratation des pâtes à papier dans une presse à vis

El Idrissi, Bouchaib January 2020 (has links) (PDF)
No description available.
43

Attaque par canaux auxillaires multivariées, multi-cibles et d'ordre élevé / Multivariate multitarget high order side-channel attacks

Bruneau, Nicolas 18 May 2017 (has links)
Les analyses par canaux auxiliaires exploitent les fuites physiques des systèmes embarqués. Ces attaques représentent une réelle menace; c’est pourquoi différentes contre-mesures ont été développées. Cette thèse s’intéresse à la sécurité fournie par ces contre-mesures. Nous étudions leur sécurité dans le contexte où de multiples fuites sont présentes. Il arrive que plusieurs fuites de plusieurs variables puissent être exploitées lors d’analyses par canaux auxiliaires. Dans cette thèse nous présentons la méthode optimale pour exploiter les fuites d’une unique variable. Nous étudions ensuite comment de telles méthodes de réduction de dimensionnalité peuvent être appliquées dans le cas d’implémentations protégées. Nous montrons que ces méthodes voient leur efficacité augmentée avec le niveau de sécurité de l’implémentation. Nous montrons dans cette thèse comment exploiter les fuites de multiples variables pour améliorer les résultats d’analyses par canaux auxiliaires. Nous améliorons en particulier les attaques contre les schémas de masquage avec recalcul de table. Dans ce contexte nous présentons l’attaque optimale. Dans le cas où les schémas avec recalcul de table sont protégés nous montrons que le principal paramètre pour évaluer la sécurité des schémas de masquage, c’est-à-dire l’ordre n’est pas suffisant. Pour finir nous étudions de façon théorique la meilleure attaque possible en présence de masquage et de « shuffling » ce qui généralise le précédent cas d’étude. Dans ce cas nous montrons que l’attaque optimale n’est pas calculable. Pour y remédier, nous présentons une version tronquée de l’attaque optimale avec une meilleure efficacité calculatoire. / Side Channel Attacks are a classical threat against cryptographic algorithms in embedded systems. They aim at exploiting the physical leakages unintentionally emitted by the devices during the execution of their embedded programs to recover sensitive data. As such attacks represent a real threat against embedded systems different countermeasures have been developed. In thesis we investigate their security in presence of multiple leakages. Indeed there often are in the leakage measurements several variables which can be exploited to mount Side Channel Attacks. In particular we show in this thesis the optimal way to exploit multiple leakages of a unique variable. This dimensionality reduction comes with no loss on the overall exploitable information. Based on this result we investigate further how such dimensionality reduction methodscan be applied in the case of protected implementations. We show that the impact of such methods increases with the security “level” of the implementation. We also investigate how to exploit the leakages of multiplevariables in order to improve the results of Side Channel Analysis. We start by improving the attacks against masking schemes, with a precomputed table recomputation step. Some protections have been developed to protect such schemes. As a consequence we investigate the security provided by these protections. In this context we present results which show that the main parameter to evaluate the security of the masking schemes is not sufficient to estimate the global security of the implementation. Finally we show that in the context of masking scheme with shuffling the optimal attack is not computable. As a consequence we present a truncated version of this attack with a better effectiveness.
44

La régression non paramétrique multidimensionnelle. Théorie et application à une étude portant sur la densité mammaire

Vandal, Nathalie 11 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2005-2006 / La régression non paramétrique est un outil statistique permettant de décrire la relation entre une variable dépendante et une ou plusieurs variables explicatives, sans spécifier de forme stricte pour cette relation. Dans ce mémoire, on présente d'abord la théorie entourant la régression non paramétrique univariée ainsi que différentes méthodes d'estimation, en mettant l'accent sur les fonctions de lissage loess et les splines de régression. On traite ensuite de l'ajustement de relations multidimensionnelles, en s'intéressant plus particulièrement aux méthodes GAM, polyMARS et MARS. On ap- plique finalement ces dernières à une étude portant sur la relation entre la densité mammaire et deux facteurs de croissance analogues à l'insuline, IGF-I et IGFBP-3, ce qui permet de mettre en évidence les avantages de la régression non paramétrique, mais aussi les difficultés rencontrées lors de son application.
45

Prévision adaptative et désaisonnalisation par le filtre AEP de Carbone-Longini

Bilongo, Robert, Bilongo, Robert 27 March 2024 (has links)
« Nous avons présenté dans cette étude une nouvelle méthodologie pour l'étude des phénomènes saisonniers, basée sur l'approche AEP de Carbone-Longini. On retrouve en général dans la littérature deux réponses aux problèmes posés par la saisonnalité des séries chronologiques: un effort de modélisation en vue de la prévision, et la désaisonnalisation pour fin d'interprétation. Nous avons présenté une nouvelle modélisation, GUNIAEP pour les séries chronologiques, dans laquelle la variation systématique est expliquée par une évaluation associée au long terme, au court terme et à la saisonnalité respectivement. Le modèle est estimé par le filtre adaptatif AEP, et les paramètres en vigueur au dernier point, origine de prévision, servent à calculer les valeurs extrapolées. L'observation de ce modèle sur plusieurs exemples nous a permis de voir qu'il permet de reconnaître l'existence et l'ampleur des variations saisonnières à l'aide des coefficients saisonniers. Cette propriété permet de simplifier la phase d'identification qui peut facilement être programmée, tout en fournissant une performance satisfaisante. C'est dans ces conditions que nous avons appliqué le modèle, pour comparer sa précision à celle des méthodes reconnues les plus précises. Cette comparaison s'est faite sur un échantillon de 111 séries, et a révélé que cette méthode était très compétitive, si non la meilleure. Cette nouvelle formulation est donc meilleure que le modèle auto-régressif simple qui avait initialement exploité le filtre AEP. La robustesse des coefficients saisonniers nous a ensuite encouragés à utiliser ce modèle pour dériver une nouvelle méthode de désaisonnalisation: DESAEP. Une interprétation appropriée des composantes a permis de développer une heuristique pour décomposer une série chronologique en composantes saisonnière, irrégulière et tendance-cycle, puis fournir une série désaisonnalisée. Une étude empirique sur 33 séries réelles impliquant les méthodes Xll-ARIMA et SIGEX a permis de voir que dans le long terme les séries désaisonnalisées produites par DESAEP ne seront pas très différentes de celles des autres méthodes, cependant les différences sont plus fortes pour les valeurs les plus récentes. On a vu que généralement, l'ampleur des révisions augmente avec le niveau de bruit existant dans la série, mais qu'en utilisant DESAEP, ces révisions sont d'une ampleur nettement inférieure à celles produites par les deux autres méthodes. »--Pages i-ii
46

Modélisation de la dépendance à l'aide des mélanges communs et applications en actuariat

Mtalai, Itre 19 December 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2018-2019 / La modélisation de la dépendance entre les risques pour un portefeuille d’une assurance ou d’une entité financière est devenue de plus en plus importante pour la solvabilité des institutions financières et l’examen de solvabilité dynamique et l’analyse financière dynamique des compagnies d’assurance. L’hypothèse d’indépendance entre les risques est parfois réaliste et facilite l’évaluation, l’agrégation et l’allocation des risques. Cependant, dans la majorité des cas, les risques individuels sont influencés par un ou plusieurs facteurs communs, tels que l’environnement économique, les régions géographiques ou les conditions climatiques et il est donc moins réaliste, voire dangereux, de supposer l’indépendance entre les risques d’un même portefeuille. Dans la littérature, un tel cas peut être modélisé par des modèles avec mélange commun. Ces modèles ont de nombreuses applications en assurance et en finance. L’objectif de cette thèse est donc d’explorer les modèles de dépendance construits à l’aide des mélanges communs et de faire sortir, à l’aide de plusieurs applications, la dangerosité de considérer l’indépendance entre les risques au sein d’un portefeuille. En particulier, la focalisation est mise sur un modèle souvent considéré pour modéliser le montant de sinistres, notamment la loi exponentielle mélange. Cette thèse considère les modèles de risque basés sur la loi exponentielle mélange. Le premier chapitre constitue une introduction générale aux modèles avec mélanges communs et introduit les notions qui seront utilisées dans les autres chapitres. Dans le deuxième chapitre, nous considérons un portefeuille de risques représentés par un vecteur de variables aléatoires dont la fonction de répartition conjointe est définie par une copule Archimédienne ou une copule Archimédienne imbriquée. Nous examinons le calcul de la fonction de répartition de la somme ou une variété de fonctions de ces variables aléatoires. En nous basant sur la méthodologie computationnelle présentée dans ce chapitre, nous examinons plusieurs problèmes reliés à différents modèles de risque en actuariat, tels que l’agrégation et l’allocation du capital. De plus, en utilisant une telle structure de dépendance avec des marginales spécifiques, nous obtenons des expressions explicites pour plusieurs quantités relatives au risque agrégé telles que sa fonction de masse de probabilité, sa fonction de répartition, sa TVaR, etc. L’échangeabilité des copules Archimédiennes implique que toutes les marginales sont égales. Afin de généraliser les copules Archimédiennes pour permettre les asymétries, plusieurs chercheurs utilisent une structure hiérarchique obtenue en imbriquant plusieurs copules Archimédiennes. Toutefois, il est difficile de valider la condition d’imbrication permettant d’assurer que la structure résultante est une copule, lorsque les copules impliquées appartiennent à des familles Archimédiennes différentes. Afin de remédier à ce problème, nous présentons, au troisième chapitre, une nouvelle méthode d’imbrication basée sur la construction des lois composées multivariées exponentielles mélange. En introduisant plusieurs paramètres, un large spectre de structures de dépendance peut être couvert par cette nouvelle construction, ce qui semble être très intéressant pour des applications pratiques. Des algorithmes efficients de simulation et d’agrégation sont également présentés. En nous inspirant à la fois des chapitres 2 et 3, nous proposons et examinons en détail au quatrième chapitre une nouvelle extension au modèle collectif de risque en supposant une certaine dépendance entre la fréquence et la sévérité des sinistres. Nous considérons des modèles collectifs de risque avec différentes structures de dépendance telles que des modèles impliquant des lois mélanges d’Erlang multivariées ou, dans un cadre plus général, des modèles basés sur des copules bivariées ou multivariées. Nous utilisons également les copules Archimédiennes et Archimédiennes hiérarchiques afin de modéliser la dépendance entre les composantes de la somme aléatoire représentant le montant de sinistre global. En nous basant encore une fois sur la représentation de notre modèle sous forme d’un mélange commun, nous adaptons la méthodologie computationnelle présentée au chapitre 2 pour calculer la fonction de masse de probabilité d’une somme aléatoire incorporant une dépendance hiérarchique. Finalement, dans le cinquième chapitre, nous soulignons l’utilité des modèles avec mélange commun et nous étudions plus en détail les lois exponentielles mélange dans leurs versions univariée et multivariée et nous expliquons leur lien étroit avec les copules Archimédiennes et Archimédiennes hiérarchiques. Nous proposons également plusieurs nouvelles distributions et nous établissons leurs liens avec des distributions connues. / Risk dependence modelling has become an increasingly important task for the solvency of financial institutions and insurance companies. The independence assumption between risks is sometimes realistic and facilitates risk assessment, aggregation and allocation. However, in most cases individual risks are influenced by at least one common factor, such as the economic environment, geographical regions or climatic conditions, and it is therefore less realistic or even dangerous to assume independence between risks. In the literature, such a case can be modelled by common mixture models. These models have many applications in insurance and finance. The aim of this thesis is to explore the dependence models constructed using common mixtures and to bring out, with the use of several applications, the riskiness of considering the independence between risks within an insurance company or a financial institution. In particular, the focus is on the exponential mixture. Exponential mixture distributions are on the basis of this thesis. The first chapter is a general introduction to models with common mixtures and introduces the concepts that will be used in the other chapters. In the second chapter, we consider a portfolio of risks represented by a vector of random variables whose joint distribution function is defined by an Archimedean copula or a nested Archimedean copula. We examine the computation of the distribution of the sum function or a variety of functions of these random variables. Based on the computational methodology presented in this chapter, we examine risk models regarding aggregation, capital allocation and ruin problems. Moreover, by using such a dependency structure with specific marginals, we obtain explicit expressions for several aggregated risk quantities such as its probability mass function, its distribution function, and its TVaR. The exchangeability of the Archimedean copulas implies that all margins are equal. To generalize Archimedean copulas to allow asymmetries, several researchers use a hierarchical structure obtained by nesting several Archimedean copulas. However, it is difficult to validate the nesting condition when the copulas involved belong to different Archimedean families. To solve this problem, we present, in the third chapter, a new imbrication method via the construction of the multivariate compound distributions. By introducing several parameters, a large spectrum of dependency structures can be achieved by this new construction, which seems very interesting for practical applications. Efficient sampling and aggregation algorithms are also presented. Based on both Chapters 2 and 3, we propose and examine in detail, in the fourth chapter, a new extension to the collective risk model assuming a certain dependence between the frequency and the severity of the claims. We consider collective risk models with different dependence structures such as models based on multivariate mixed Erlang distributions, models involving bivariate or multivariate copulas, or in a more general setting, Archimedean and hierarchical Archimedean copulas. Once again, based on the common mixture representation, we adapt the computational methodology presented in Chapter 2 to compute the probability mass function of a random sum incorporating a hierarchical Archimedean dependency. Finally, in the last chapter, we study, in more details, the exponential mixture distributions in their univariate and multivariate versions and we explain their close relationship to Archimedean and hierarchical Archimedean copulas. We also derive several new distributions, and we establish their links with pre-existent distributions. Keywords : Common mixture models, Exponential mixture, Bernoulli mixture, Archimedean copulas, Nested Archimedean copulas, Compounding, Marshall-Olkin, Hierarchical dependence structures.
47

Characterization of PLA-Talc films using NIR chemical imaging and multivariate image analysis techniques

Amirabadi, Seyedshahabaldin 25 May 2018 (has links)
L’emballage joue un rôle important dans l’industrie alimentaire afin de maintenir la qualité des produits le plus longtemps possible. Les films de polymère sont largement utilisés dans l’emballage alimentaire et sont attrayants pour leurs propriétés exceptionnelles. Puisque les polymères à base de pétrole apportent des préoccupations environnementales, les polymères biodégradables tel que le PLA sont étudiés plus intensivement depuis quelques années considérant leurs propriétés écologiques. L’application de films renforcés permet, comparativement aux films simples, d’atteindre des fonctions spécifiques et d’améliorer leurs propriétés tel que l’étanchéité aux gaz. Toutefois, puisque la structure de ces films est plus complexe, le contrôle de qualité de ces derniers est plus difficile. Dans l’industrie, des méthodes hors-ligne sont très souvent utilisées pour effectuer le contrôle de qualité des films produits. Le contrôle est nécessaire puisque la variabilité de la matière première ainsi que le changement des conditions opératoires amènent des modifications qui changent considérablement les propriétés du film. Par conséquent, une inspection en temps réel ainsi qu’un contrôle des films de polymère est nécessaire sur la ligne de production afin d’obtenir un contrôle de qualité s’approchant de l’analyse en temps réel. Un système d’imagerie proche infrarouge (NIR) rapide et non-destructif est proposé pour caractériser les films biodégradables d’acide polylactique contenant du talc produits par extrusion-soufflage et utilisés pour l’emballage. Le but ultime est d’utiliser le système pour faire un contrôle de qualité sur la ligne d’extrusion ainsi qu’après le post-traitement termique, soit le recuit. Un ensemble d’échantillon de film de PLA contenant différentes concentrations en talc ont été fabriqués. Ces derniers ont ensuite été soumis à différentes conditions de recuit. Des images NIR ont été collectées avant la caractérisation des propriétés physiques et mécaniques ainsi que l’étanchéité aux gaz. Des techniques d’imagerie multivariées ont été appliquées aux images hyperspectrales. Celles-ci ont montré que la quantité de talc peut être déterminée et que l’information du spectre NIR permet de prédire les propriétés du film. Dans tous les cas, la méthode proposée permet de déterminer les variations dans les propriétés du film avec une bonne précision. / Food packaging plays a great role in the food industry to maintain food products quality as long as possible. Polymer films are widely used in food packaging and also attract attention because of their outstanding advantages. Since petroleum-based polymers are known to cause environmental concerns, biodegradable polymers like PLA were studied more intensively in recent years due to their environmentally friendly properties. The application of reinforced films exceeds simple ones in achieving specific functions and enhancing their properties such as barrier properties. Since the films structures are more complex, quality control is more challenging. In industry, off-line methods are vastly used for quality control of the produced films while variability in raw materials and processing conditions substantially change the film specifications. Consequently, real-time inspection and monitoring of polymer films is needed on the production line to achieve a real-time quality control of the films. A fast and non-invasive near-infrared (NIR) imaging system is proposed to characterize biodegradable polylactic acid (PLA) films containing talc, and produced by extrusion film-blowing for packaging applications. The ultimate goal is to use the system for quality control on the extrusion line, and after a post-processing via thermal treatment (annealing). A set of PLA-talc films with varying talc contents were produced and submitted to annealing under different conditions. NIR images of the films were collected after which the samples were characterized for their physical, mechanical, and gas barrier properties. Multivariate imaging techniques were then applied to the hyperspectral images. It is shown that various talc loadings can be distinguished, and the information contained in the NIR spectra allows predicting the film properties. In all cases, the proposed approach was able to track the variation in film properties with good accuracy
48

Extraction des connaissances en imagerie microspectrométrique par analyse chimiométrique : application à la caractérisation des constituants d'un calcul urinaire

Elmi Rayaleh, Waïss 27 June 2006 (has links) (PDF)
L'imagerie spectroscopique classique utilisant la sélection d'une bande spectrale d'absorption spécifique pour chaque composé d'un mélange a atteint ses limites lors d'analyse d'échantillons complexes naturels ou industriels. Les méthodes chimiométriques sont alors un précieux outil pour s'affranchir à la fois des limitations dues aux recouvrements spectraux et certaines limitations instrumentales. Cependant une optimisation et une adaptation des méthodologies de résolution aux cas concrets sous analyse sont nécessaires. Notre étude a ciblé les différents traitements chimiométriques permettant de mieux extraire les images microspectrométriques des constituants d'un mélange. Dans une première étape, une optimisation est effectuée sur des données synthétiques pour un ensemble des méthodes de résolution multivariées. Parmi celles-ci, OPA(var) (Orthogonal Projection Approach par sélection des variables) s'est révélée être le plus efficace qualitativement. Puis, la démarche originale mettant en oeuvre le couplage des méthodes chimiométriques de l'optimisation avec MCR-ALS (Multivariate Curve Resolution - Alternating Least Squares) a été réalisée. La capacité de résolution de MCR-ALS se trouve considérablement renforcée par ce couplage. Ensuite, au niveau du pixel, les contraintes liées au rang local ont été spécifiées et appliquées. La pertinence du couplage réalisé et l'efficacité d'extraction par les contraintes du rang local ont été mises en évidence dans les nombreux cas étudiés. L'application de cette méthodologie d'analyse, mise en place, sur des données réelles issues de la micro- spectrométrie Raman a abouti d'une manière concluante. Les constituants d'un calcul urinaire sont identifiés par leurs spectres respectifs grâce à une bibliothèque de référence. Chaque image extraite indique la répartition du composé correspondant dans la partie analysée par l'intermédiaire d'une échelle de couleur adaptée. En effet, dans ce type de pathologie, une bonne identification de la chronologie de formation de différents constituants permet un meilleur diagnostic et un traitement médical adapté. Dans notre étude, la reproduction efficace des images microspectrométriques de grande qualité par les méthodes chimiométriques est prouvée même dans un cas réel complexe.
49

Méthodes d’analyse fonctionnelle et multivariée appliquées à l’étude du fonctionnement écologique des assemblages phytoplanctoniques de l’étang de Berre

Malkassian, Anthony 03 December 2012 (has links)
L'étude de la relation entre les variations d'abondance du phytoplancton et les facteurs environnementaux (naturels ou anthropiques) dans les zones saumâtres peu profondes est essentielle à la compréhension et à la gestion de cet écosystème complexe. Les relations existant entre les variables physico-chimiques (température, salinité et les nutriments) et les assemblages de phytoplancton de l'étang de Berre ont été analysées à partir d'un suivi écologique mensuel de 16 années (1994-2010). A l'aide des données recueillies par cette étude à long terme, des questions en relation avec la gestion de ce milieu ont été abordées grâce à l'application d'analyses statistiques et à la représentation originale des données. Depuis 2004, la nouvelle politique de relargage d'eau douce a provoqué de forts changements dans la salinité globale de la lagune : une diminution de la stratification et une raréfaction des phénomènes d'anoxie dans sa partie la plus profonde. Un changement dans la structure de la communauté phytoplanctonique a également été observé en association avec l'évolution des conditions environnementales. Une augmentation de la richesse spécifique phytoplanctonique, et plus précisément, l'émergence d'espèces à affinité marine a permis de mettre en évidence la première étape d'une marinisation de la lagune. Ces résultats soulignent l'impact significatif d'un nouvelle politique de gestion de cette zone côtière particulière. Nous nous sommes ensuite intéressés à la dynamique du phytoplancton à l'échelle de la journée reflet des variations rapides de l'environnement. / The study of the relationship between variations in phytoplankton abundance and environmental forces (natural or anthropogenic) in shallow brackish areas is essential to both understanding and managing this complex ecosystem. Over a 16 year (1994-2011) monthly monitoring program the relationships between physicochemical variables (temperature, salinity and nutrients) and phytoplankton assemblages of the Berre Lagoon were analyzed. Using data collected from this long-term study, we have addressed environmental management issues through the application of advanced statistical analyses and original data displays. These analyses and data displays can readily be applied to other data sets related to the environment, with the aim of informing both researcher and practitioner. Since 2004, a new policy for freshwater discharge has induced strong changes in the global salinity of the lagoon : a weakened stratification and a rarefaction of anoxia phenomena in its deepest part. A shift in the structure of the phytoplankton community has been observed in association with changes in environmental conditions. An increase of phytoplanktonic species richness, and more precisely, the emergence of species with marine affinity highlights the first step of a marinization of the lagoon. The results underline the significant impact of a new management policy in this specific coastal zone. We then focused on the response of phytoplankton to quick environmental variations. An original approach for automated high frequency analysis of phytoplankton was adopted with the use of an autonomous flow cytometer (CytoSense).
50

Etude du comportement hydraulique, physico-chimique et microbiologique d'un système de récupération d'eaux de toiture. Evaluation de l'empreinte environnementale / Hydraulic, physicochemical and microbiological study of a roof runoff harvesting system and environmental assessment

Vialle, Claire 21 October 2011 (has links)
L'objectif de ces travaux est de contribuer à augmenter la connaissance sur la réutilisation des eaux de ruissellement de toiture. Une maison individuelle située en zone rurale et équipée d'une toiture en tuiles, et un bâtiment collectif situé en zone périurbaine avec une toiture terrasse bitumée, ont été étudiés. Les eaux de pluie collectées sont réutilisées dans l'habitat pour l'alimentation des chasses d'eau. Un suivi analytique a permis l'étude de la qualité de l'eau en plusieurs points des systèmes. Les eaux stockées sont clairement non potables et révèlent une contamination microbiologique très variable. Des pathogènes ont été quantifiés à plusieurs reprises. La qualité de l'eau distribuée ne peut donc pas être garantie au cours de l'année, d'où la recommandation d'une désinfection de l'eau avant distribution. Un suivi hydraulique a permis de déterminer les volumes d'eau potable substitués et les taux de couverture de besoins en eau. Un modèle du comportement hydraulique a été développé puis utilisé pour discuter le dimensionnement des cuves. En présence d'une désinfection, les installations ne sont économiquement pas rentables. En l'absence de désinfection, le bilan économique est positif mais la période de retour sur investissement supérieure à la durée de vie de l'installation. Une première analyse de cycle de vie a été réalisée pour comparer les deux échelles étudiées. Dans les deux cas, les processus les plus impactants sont liés aux consommations électriques de l'éventuelle désinfection ultra-violet et des pompes. En présence d'une désinfection, l'échelle du bâtiment collectif présente des impacts plus faibles. Une deuxième analyse de cycle de vie a été réalisée pour étudier la pertinence de la substitution de l'eau du réseau d'eau public par de l'eau de pluie à l'échelle d'un particulier. Elle n'est pas probante d'un point de vue environnemental. / The aim of this work is to contribute to knowledge on roof runoff reuse. A private house located in rural area with a tiled sloping roof and a research building located in suburban zone with a bituminous flat roof were studied. The collected rainwater is reused for toilet flushing. An analytical monitoring allowed the study of water quality in several points of the systems. Stored rainwater is clearly non drinkable and reveals a very variable microbiological contamination. Pathogenic agents were quantified on several occasions. Distributed water quality cannot thus be guaranteed over the year and a disinfection before distribution is recommended. A hydraulic follow-up made it possible to determine substituted volumes of drinking water by collected rainwater and water saving efficiencies. A model of the hydraulic behaviour of systems was developed then used to discuss dimensioning of the tanks. In the presence of disinfection, the installations are economically not profitable. In the absence of disinfection, the economic assessment is positive but the payback period is longer than the lifespan of the installation. A first life cycle assessment was carried out to compare the two studied scales. In both cases, the more impacting processes are related to electricity consumptions of possible ultra-violet disinfection and the pumps. In the presence of disinfection, the scale of the building presents weaker impacts. A second life cycle assessment was carried out to study the relevance of the substitution of drinking water by rainwater on a private individual scale. It is not convincing of an environmental point of view.

Page generated in 0.0398 seconds