• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 173
  • 45
  • 14
  • Tagged with
  • 228
  • 68
  • 68
  • 51
  • 28
  • 25
  • 24
  • 19
  • 19
  • 19
  • 18
  • 17
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Modélisation des bi-grappes et sélection des variables pour des données de grande dimension : application aux données d’expression génétique

Chekouo Tekougang, Thierry 08 1900 (has links)
Les simulations ont été implémentées avec le programme Java. / Le regroupement des données est une méthode classique pour analyser les matrices d'expression génétiques. Lorsque le regroupement est appliqué sur les lignes (gènes), chaque colonne (conditions expérimentales) appartient à toutes les grappes obtenues. Cependant, il est souvent observé que des sous-groupes de gènes sont seulement co-régulés (i.e. avec les expressions similaires) sous un sous-groupe de conditions. Ainsi, les techniques de bi-regroupement ont été proposées pour révéler ces sous-matrices des gènes et conditions. Un bi-regroupement est donc un regroupement simultané des lignes et des colonnes d'une matrice de données. La plupart des algorithmes de bi-regroupement proposés dans la littérature n'ont pas de fondement statistique. Cependant, il est intéressant de porter une attention sur les modèles sous-jacents à ces algorithmes et de développer des modèles statistiques permettant d'obtenir des bi-grappes significatives. Dans cette thèse, nous faisons une revue de littérature sur les algorithmes qui semblent être les plus populaires. Nous groupons ces algorithmes en fonction du type d'homogénéité dans la bi-grappe et du type d'imbrication que l'on peut rencontrer. Nous mettons en lumière les modèles statistiques qui peuvent justifier ces algorithmes. Il s'avère que certaines techniques peuvent être justifiées dans un contexte bayésien. Nous développons une extension du modèle à carreaux (plaid) de bi-regroupement dans un cadre bayésien et nous proposons une mesure de la complexité du bi-regroupement. Le critère d'information de déviance (DIC) est utilisé pour choisir le nombre de bi-grappes. Les études sur les données d'expression génétiques et les données simulées ont produit des résultats satisfaisants. À notre connaissance, les algorithmes de bi-regroupement supposent que les gènes et les conditions expérimentales sont des entités indépendantes. Ces algorithmes n'incorporent pas de l'information biologique a priori que l'on peut avoir sur les gènes et les conditions. Nous introduisons un nouveau modèle bayésien à carreaux pour les données d'expression génétique qui intègre les connaissances biologiques et prend en compte l'interaction par paires entre les gènes et entre les conditions à travers un champ de Gibbs. La dépendance entre ces entités est faite à partir des graphes relationnels, l'un pour les gènes et l'autre pour les conditions. Le graphe des gènes et celui des conditions sont construits par les k-voisins les plus proches et permet de définir la distribution a priori des étiquettes comme des modèles auto-logistiques. Les similarités des gènes se calculent en utilisant l'ontologie des gènes (GO). L'estimation est faite par une procédure hybride qui mixe les MCMC avec une variante de l'algorithme de Wang-Landau. Les expériences sur les données simulées et réelles montrent la performance de notre approche. Il est à noter qu'il peut exister plusieurs variables de bruit dans les données à micro-puces, c'est-à-dire des variables qui ne sont pas capables de discriminer les groupes. Ces variables peuvent masquer la vraie structure du regroupement. Nous proposons un modèle inspiré de celui à carreaux qui, simultanément retrouve la vraie structure de regroupement et identifie les variables discriminantes. Ce problème est traité en utilisant un vecteur latent binaire, donc l'estimation est obtenue via l'algorithme EM de Monte Carlo. L'importance échantillonnale est utilisée pour réduire le coût computationnel de l'échantillonnage Monte Carlo à chaque étape de l'algorithme EM. Nous proposons un nouveau modèle pour résoudre le problème. Il suppose une superposition additive des grappes, c'est-à-dire qu'une observation peut être expliquée par plus d'une seule grappe. Les exemples numériques démontrent l'utilité de nos méthodes en terme de sélection de variables et de regroupement. / Clustering is a classical method to analyse gene expression data. When applied to the rows (e.g. genes), each column belongs to all clusters. However, it is often observed that the genes of a subset of genes are co-regulated and co-expressed in a subset of conditions, but behave almost independently under other conditions. For these reasons, biclustering techniques have been proposed to look for sub-matrices of a data matrix. Biclustering is a simultaneous clustering of rows and columns of a data matrix. Most of the biclustering algorithms proposed in the literature have no statistical foundation. It is interesting to pay attention to the underlying models of these algorithms and develop statistical models to obtain significant biclusters. In this thesis, we review some biclustering algorithms that seem to be most popular. We group these algorithms in accordance to the type of homogeneity in the bicluster and the type of overlapping that may be encountered. We shed light on statistical models that can justify these algorithms. It turns out that some techniques can be justified in a Bayesian framework. We develop an extension of the biclustering plaid model in a Bayesian framework and we propose a measure of complexity for biclustering. The deviance information criterion (DIC) is used to select the number of biclusters. Studies on gene expression data and simulated data give satisfactory results. To our knowledge, the biclustering algorithms assume that genes and experimental conditions are independent entities. These algorithms do not incorporate prior biological information that could be available on genes and conditions. We introduce a new Bayesian plaid model for gene expression data which integrates biological knowledge and takes into account the pairwise interactions between genes and between conditions via a Gibbs field. Dependence between these entities is made from relational graphs, one for genes and another for conditions. The graph of the genes and conditions is constructed by the k-nearest neighbors and allows to define a priori distribution of labels as auto-logistic models. The similarities of genes are calculated using gene ontology (GO). To estimate the parameters, we adopt a hybrid procedure that mixes MCMC with a variant of the Wang-Landau algorithm. Experiments on simulated and real data show the performance of our approach. It should be noted that there may be several variables of noise in microarray data. These variables may mask the true structure of the clustering. Inspired by the plaid model, we propose a model that simultaneously finds the true clustering structure and identifies discriminating variables. We propose a new model to solve the problem. It assumes that an observation can be explained by more than one cluster. This problem is addressed by using a binary latent vector, so the estimation is obtained via the Monte Carlo EM algorithm. Importance Sampling is used to reduce the computational cost of the Monte Carlo sampling at each step of the EM algorithm. Numerical examples demonstrate the usefulness of these methods in terms of variable selection and clustering.
212

Tests de permutation d’indépendance en analyse multivariée

Guetsop Nangue, Aurélien 11 1900 (has links)
Cette thèse est rédigée par articles. Les articles sont rédigés en anglais et le reste de la thèse est rédigée en français. / Le travail établit une équivalence en termes de puissance entre les tests basés sur la alpha-distance de covariance et sur le critère d'indépendance de Hilbert-Schmidt (HSIC) avec fonction caractéristique de distribution de probabilité stable d'indice alpha avec paramètre d'échelle suffisamment petit. Des simulations en grandes dimensions montrent la supériorité des tests de distance de covariance et des tests HSIC par rapport à certains tests utilisant les copules. Des simulations montrent également que la distribution de Pearson de type III, très utile et moins connue, approche la distribution exacte de permutation des tests et donne des erreurs de type I précises. Une nouvelle méthode de sélection adaptative des paramètres d'échelle pour les tests HSIC est proposée. Trois simulations, dont deux sont empruntées de l'apprentissage automatique, montrent que la nouvelle méthode de sélection améliore la puissance des tests HSIC. Le problème de tests d'indépendance entre deux vecteurs est généralisé au problème de tests d'indépendance mutuelle entre plusieurs vecteurs. Le travail traite aussi d'un problème très proche à savoir, le test d'indépendance sérielle d'une suite multidimensionnelle stationnaire. La décomposition de Möbius des fonctions caractéristiques est utilisée pour caractériser l'indépendance. Des tests généralisés basés sur le critère d'indépendance de Hilbert-Schmidt et sur la distance de covariance en sont obtenus. Une équivalence est également établie entre le test basé sur la distance de covariance et le test HSIC de noyau caractéristique d'une distribution stable avec des paramètres d'échelle suffisamment petits. La convergence faible du test HSIC est obtenue. Un calcul rapide et précis des valeurs-p des tests développés utilise une distribution de Pearson de type III comme approximation de la distribution exacte des tests. Un résultat fascinant est l'obtention des trois premiers moments exacts de la distribution de permutation des statistiques de dépendance. Une méthodologie similaire a été développée pour le test d'indépendance sérielle d'une suite. Des applications à des données réelles environnementales et financières sont effectuées. / The main result establishes the equivalence in terms of power between the alpha-distance covariance test and the Hilbert-Schmidt independence criterion (HSIC) test with the characteristic kernel of a stable probability distribution of index alpha with sufficiently small scale parameters. Large-scale simulations reveal the superiority of these two tests over other tests based on the empirical independence copula process. They also establish the usefulness of the lesser known Pearson type III approximation to the exact permutation distribution. This approximation yields tests with more accurate type I error rates than the gamma approximation usually used for HSIC, especially when dimensions of the two vectors are large. A new method for scale parameter selection in HSIC tests is proposed which improves power performance in three simulations, two of which are from machine learning. The problem of testing mutual independence between many random vectors is addressed. The closely related problem of testing serial independence of a multivariate stationary sequence is also considered. The Möbius transformation of characteristic functions is used to characterize independence. A generalization to p vectors of the alpha -distance covariance test and the Hilbert-Schmidt independence criterion (HSIC) test with the characteristic kernel of a stable probability distributionof index alpha is obtained. It is shown that an HSIC test with sufficiently small scale parameters is equivalent to an alpha -distance covariance test. Weak convergence of the HSIC test is established. A very fast and accurate computation of p-values uses the Pearson type III approximation which successfully approaches the exact permutation distribution of the tests. This approximation relies on the exact first three moments of the permutation distribution of any test which can be expressed as the sum of all elements of a componentwise product of p doubly-centered matrices. The alpha -distance covariance test and the HSIC test are both of this form. A new selection method is proposed for the scale parameter of the characteristic kernel of the HSIC test. It is shown in a simulation that this adaptive HSIC test has higher power than the alpha-distance covariance test when data are generated from a Student copula. Applications are given to environmental and financial data.
213

Les aides d'État de nature fiscale en droit de l'Union européenne / Tax State Aids in the European Union Law

Papadamaki, Ioanna 14 October 2016 (has links)
L’étude repose sur l’hypothèse que les aides d’État fiscales sont autonomes, se singularisant par rapport aux autres règles du droit fiscal de l’Union. Cela est dû au fait que la véritable nature de l’intégration, la véritable finalité du contrôle des aides fiscales, n’est pas facilement perceptible.Le régime des aides fiscales dépasse son cadre initial de contrôle des systèmes fiscaux pourintégrer celui d’élaboration de règles juridiques communes. Les autorités de l’Union, par le biais du régime des aides fiscales, contrôlent les systèmes fiscaux nationaux ; en même temps, elles parviennent à jouer un rôle important pour la coopération interétatique au regard de la lutte contrela concurrence fiscale dommageable. Plus important encore, elles réussissent à coordonner les systèmes fiscaux nationaux, procédant d’une instrumentalisation du contrôle des aides fiscales,contrôle étant conçu comme un succédané de l’harmonisation fiscale. La démonstration des finalités protéiformes de ce contrôle repose d’abord sur la méthode d’identification d’une aide fiscale, identification qui correspond aux finalités recherchées. La vérification de l’hypothèse initiale de singularisation des aides fiscales pose également la question de sa finalité. Ce contrôle est-il susceptible de façonner la structure même du droit fiscal de l’Union et, d’une manière plus substantielle, la répartition des compétences entre les autorités européennes et nationales ? Une technique comme celle du contrôle des aides fiscales peut-elle potentiellement contribuer à redéfinir la ligne de démarcation entre souveraineté fiscale des États membres et limitation tolérable de celle-ci par le droit de l’Union ? / This thesis is based on the premise that tax state aids differentiate themselves from other tax law related rules of the European Union. This is due to the fact that the true nature of the integration, the true purpose of the regulation of tax state aids, is not so easily discernible. The legal status oftax state aids outreaches its original scope—the scrutiny of fiscal systems—to integrate that of creation of common legal rules. The authorities of the Union, through the tax aids regime, monitor domestic tax systems; at the same time, they come to play an important role in the context of the interstate cooperation tackling harmful tax competition. More importantly, they manage to coordinate domestic tax systems as a result of the “instrumentalization” of the regulation of taxaids. The latter is then regarded as a substitute to tax harmonization. This manifestation of themultifarious objectives of tax state aids regulation is firstly based on the technique ofcharacterization of a tax aid, a characterization corresponding ultimately to the goals as expected.The proof of the initial hypothesis of the self-containment of tax aids raises the question of its purpose. Is this regulation likely to weave the very structure of Union tax law and, more substantially, the division of competences between European and domestic authorities? Is a technique like the one related to tax state aids regulation likely to contribute to redefining the dividing line between member States tax sovereignty and its tolerable limitation by Union law?
214

Modélisation des bi-grappes et sélection des variables pour des données de grande dimension : application aux données d’expression génétique

Chekouo Tekougang, Thierry 08 1900 (has links)
Le regroupement des données est une méthode classique pour analyser les matrices d'expression génétiques. Lorsque le regroupement est appliqué sur les lignes (gènes), chaque colonne (conditions expérimentales) appartient à toutes les grappes obtenues. Cependant, il est souvent observé que des sous-groupes de gènes sont seulement co-régulés (i.e. avec les expressions similaires) sous un sous-groupe de conditions. Ainsi, les techniques de bi-regroupement ont été proposées pour révéler ces sous-matrices des gènes et conditions. Un bi-regroupement est donc un regroupement simultané des lignes et des colonnes d'une matrice de données. La plupart des algorithmes de bi-regroupement proposés dans la littérature n'ont pas de fondement statistique. Cependant, il est intéressant de porter une attention sur les modèles sous-jacents à ces algorithmes et de développer des modèles statistiques permettant d'obtenir des bi-grappes significatives. Dans cette thèse, nous faisons une revue de littérature sur les algorithmes qui semblent être les plus populaires. Nous groupons ces algorithmes en fonction du type d'homogénéité dans la bi-grappe et du type d'imbrication que l'on peut rencontrer. Nous mettons en lumière les modèles statistiques qui peuvent justifier ces algorithmes. Il s'avère que certaines techniques peuvent être justifiées dans un contexte bayésien. Nous développons une extension du modèle à carreaux (plaid) de bi-regroupement dans un cadre bayésien et nous proposons une mesure de la complexité du bi-regroupement. Le critère d'information de déviance (DIC) est utilisé pour choisir le nombre de bi-grappes. Les études sur les données d'expression génétiques et les données simulées ont produit des résultats satisfaisants. À notre connaissance, les algorithmes de bi-regroupement supposent que les gènes et les conditions expérimentales sont des entités indépendantes. Ces algorithmes n'incorporent pas de l'information biologique a priori que l'on peut avoir sur les gènes et les conditions. Nous introduisons un nouveau modèle bayésien à carreaux pour les données d'expression génétique qui intègre les connaissances biologiques et prend en compte l'interaction par paires entre les gènes et entre les conditions à travers un champ de Gibbs. La dépendance entre ces entités est faite à partir des graphes relationnels, l'un pour les gènes et l'autre pour les conditions. Le graphe des gènes et celui des conditions sont construits par les k-voisins les plus proches et permet de définir la distribution a priori des étiquettes comme des modèles auto-logistiques. Les similarités des gènes se calculent en utilisant l'ontologie des gènes (GO). L'estimation est faite par une procédure hybride qui mixe les MCMC avec une variante de l'algorithme de Wang-Landau. Les expériences sur les données simulées et réelles montrent la performance de notre approche. Il est à noter qu'il peut exister plusieurs variables de bruit dans les données à micro-puces, c'est-à-dire des variables qui ne sont pas capables de discriminer les groupes. Ces variables peuvent masquer la vraie structure du regroupement. Nous proposons un modèle inspiré de celui à carreaux qui, simultanément retrouve la vraie structure de regroupement et identifie les variables discriminantes. Ce problème est traité en utilisant un vecteur latent binaire, donc l'estimation est obtenue via l'algorithme EM de Monte Carlo. L'importance échantillonnale est utilisée pour réduire le coût computationnel de l'échantillonnage Monte Carlo à chaque étape de l'algorithme EM. Nous proposons un nouveau modèle pour résoudre le problème. Il suppose une superposition additive des grappes, c'est-à-dire qu'une observation peut être expliquée par plus d'une seule grappe. Les exemples numériques démontrent l'utilité de nos méthodes en terme de sélection de variables et de regroupement. / Clustering is a classical method to analyse gene expression data. When applied to the rows (e.g. genes), each column belongs to all clusters. However, it is often observed that the genes of a subset of genes are co-regulated and co-expressed in a subset of conditions, but behave almost independently under other conditions. For these reasons, biclustering techniques have been proposed to look for sub-matrices of a data matrix. Biclustering is a simultaneous clustering of rows and columns of a data matrix. Most of the biclustering algorithms proposed in the literature have no statistical foundation. It is interesting to pay attention to the underlying models of these algorithms and develop statistical models to obtain significant biclusters. In this thesis, we review some biclustering algorithms that seem to be most popular. We group these algorithms in accordance to the type of homogeneity in the bicluster and the type of overlapping that may be encountered. We shed light on statistical models that can justify these algorithms. It turns out that some techniques can be justified in a Bayesian framework. We develop an extension of the biclustering plaid model in a Bayesian framework and we propose a measure of complexity for biclustering. The deviance information criterion (DIC) is used to select the number of biclusters. Studies on gene expression data and simulated data give satisfactory results. To our knowledge, the biclustering algorithms assume that genes and experimental conditions are independent entities. These algorithms do not incorporate prior biological information that could be available on genes and conditions. We introduce a new Bayesian plaid model for gene expression data which integrates biological knowledge and takes into account the pairwise interactions between genes and between conditions via a Gibbs field. Dependence between these entities is made from relational graphs, one for genes and another for conditions. The graph of the genes and conditions is constructed by the k-nearest neighbors and allows to define a priori distribution of labels as auto-logistic models. The similarities of genes are calculated using gene ontology (GO). To estimate the parameters, we adopt a hybrid procedure that mixes MCMC with a variant of the Wang-Landau algorithm. Experiments on simulated and real data show the performance of our approach. It should be noted that there may be several variables of noise in microarray data. These variables may mask the true structure of the clustering. Inspired by the plaid model, we propose a model that simultaneously finds the true clustering structure and identifies discriminating variables. We propose a new model to solve the problem. It assumes that an observation can be explained by more than one cluster. This problem is addressed by using a binary latent vector, so the estimation is obtained via the Monte Carlo EM algorithm. Importance Sampling is used to reduce the computational cost of the Monte Carlo sampling at each step of the EM algorithm. Numerical examples demonstrate the usefulness of these methods in terms of variable selection and clustering. / Les simulations ont été implémentées avec le programme Java.
215

Quelques résultats mathématiques sur les gaz à faible nombre de Mach

Liao, Xian 24 April 2013 (has links) (PDF)
Cette thèse est consacrée à l'étude de la dynamique des gaz à faible nombre de Mach. Le modèle étudié provient des équations de Navier-Stokes complètes lorsque le nombre de Mach tend vers zéro. On cherche à montrer que le problème de Cauchy correspondant est bien posé. Les cas visqueux et non visqueux sont tous deux considérés. Les coefficients physiques peuvent dépendre de la densité (ou de la température) inconnue. En articulier, nous prenons en compte les effets de onductivité thermique et on autorise de grandes variations d'entropie. Rappelons qu'en absence de diffusion thermique, la limite à faible nombre de Mach implique la condition d'incompressibilité. Dans le cadre étudié ici, en introduisant un nouveau champ de vitesses à divergence nulle, le système devient un couplage non linéaire entre une équation quasi-parabolique pour la densité et un système de type Navier-Stokes (ou Euler) pour la vitesse et la pression. \\\\ Pour le cas avec viscosité, on établit le résultat classique, à savoir qu'il existe une solution forte existant localement (resp. globalement) en temps pour des données initiales grandes (resp. petites). On considère ici le problème de Cauchy avec données initiales dans des espaces de Besov critiques. Lorsque les coefficients physiques du système vérifient une relation spéciale, le système se simplifie considérablement, et on peut alors établir qu'il existe des solutions faibles globales en temps à énergie finie. Par un argument d'unicité fort-faible, on en déduit que les solutions fortes à énergie finie existent pour tous les temps positifs en dimension deux. \\\\ Pour le cas sans viscosité, on montre d'abord le caractère bien posé dans des espaces de Besov limites, qui s'injectent dans l'espace des fonctions lipschitziennes. Des critères de prolongement et des estimations du temps de vie sont établis. Si l'on suppose la donnée initiale à énergie finie dans l'espace de Besov limite à exposant de Lebesgue infini, on a également un résultat d'existence locale. En dimension deux, le temps de vie tend vers l'infini quand la densité tend vers une constante positive. \\\\ Des estimations de produits et de commutateurs, ainsi que des estimations a priori pour les équations paraboliques et pour le système de Stokes (ou d'Euler) à coefficients variables, se trouvent dans l'annexe.Ces estimations reposent sur la théorie de Littlewood-Paley et le calcul paradifférentiel.
216

Ecodesign of large-scale photovoltaic (PV) systems with multi-objective optimization and Life-Cycle Assessment (LCA) / Écoconception de systèmes photovoltaïques (PV) à grande échelle par optimisation multi-objectif et Analyse du Cycle de Vie (ACV)

Perez Gallardo, Jorge Raúl 25 October 2013 (has links)
En raison de la demande croissante d’énergie dans le monde et des nombreux dommages causés par l’utilisation des énergies fossiles, la contribution des énergies renouvelables a augmenté de manière significative dans le mix énergétique global dans le but de progresser vers un développement plus durable. Dans ce contexte, ce travail vise à l’élaboration d’une méthodologie générale pour la conception de systèmes photovoltaïques, basée sur les principes d’écoconception, en tenant compte simultanément des considérations technico-économiques et environnementales. Afin d’évaluer la performance environnementale des systèmes PV, une technique d’évaluation environnementale basée sur l’Analyse du Cycle de Vie (ACV) a été utilisée. Le modèle environnemental a été couplé d’une manière satisfaisante avec le modèle de conception d’un système PV connecté au réseau pour obtenir un modèle global, apte à un traitement par optimisation. Le modèle de conception du système PV résultant a été développé en faisant intervenir l’estimation du rayonnement solaire reçu dans une zone géographique concernée, le calcul de la quantité annuelle d’énergie produite à partir du rayonnement solaire reçu, les caractéristiques des différents composants et l’évaluation des critères technico-économiques à travers le temps de retour énergétique et le temps de retour sur investissement. Le modèle a ensuite été intégré dans une boucle d’optimisation multi-objectif externe basée sur une variante de l’algorithme génétique NSGA-II. Un ensemble de solutions du Pareto a été généré représentant le compromis optimal entre les différents objectifs considérés dans l’analyse. Une méthode basée sur une Analyse en Composantes Principales (ACP) est appliquée pour détecter et enlever les objectifs redondants de l’analyse sans perturber les caractéristiques principales de l’espace des solutions. Enfin, un outil d’aide à la décision basé sur M- TOPSIS a été utilisé pour sélectionner l’option qui offre un meilleur compromis entre toutes les fonctions objectifs considérées et étudiées. Bien que les modules photovoltaïques à base de silicium cristallin (c-Si) ont une meilleure performance vis-à-vis de la production d’énergie, les résultats ont montré que leur impact environnement est le plus élevé des filières technologiques de production de panneaux. Les technologies en « couches minces » présentent quant à elles le meilleur compromis dans tous les scénarios étudiés. Une attention particulière a été accordée aux processus de recyclage des modules PV, en dépit du peu d’informations disponibles pour toutes les technologies évaluées. La cause majeure de ce manque d’information est la durée de vie relativement élevée des modules photovoltaïques. Les données relatives aux procédés de recyclage pour les technologies basées sur CdTe et m-Si sont introduites dans la procédure d’optimisation par l’écoconception. En tenant compte de la production d’énergie et du temps de retour sur énergie comme critères d’optimisation, l’avantage de la gestion de fin de vie des modules PV a été confirmé. Une étude économique de la stratégie de recyclage doit être considérée et étudiée afin d’avoir une vision plus globale pour la prise de décision. / Because of the increasing demand for the provision of energy worldwide and the numerous damages caused by a major use of fossil sources, the contribution of renewable energies has been increasing significantly in the global energy mix with the aim at moving towards a more sustainable development. In this context, this work aims at the development of a general methodology for designing PV systems based on ecodesign principles and taking into account simultaneously both techno-economic and environmental considerations. In order to evaluate the environmental performance of PV systems, an environmental assessment technique was used based on Life Cycle Assessment (LCA). The environmental model was successfully coupled with the design stage model of a PV grid-connected system (PVGCS). The PVGCS design model was then developed involving the estimation of solar radiation received in a specific geographic location, the calculation of the annual energy generated from the solar radiation received, the characteristics of the different components and the evaluation of the techno-economic criteria through Energy PayBack Time (EPBT) and PayBack Time (PBT). The performance model was then embedded in an outer multi-objective genetic algorithm optimization loop based on a variant of NSGA-II. A set of Pareto solutions was generated representing the optimal trade-off between the objectives considered in the analysis. A multi-variable statistical method (i.e., Principal Componet Analysis, PCA) was then applied to detect and omit redundant objectives that could be left out of the analysis without disturbing the main features of the solution space. Finally, a decision-making tool based on M-TOPSIS was used to select the alternative that provided a better compromise among all the objective functions that have been investigated. The results showed that while the PV modules based on c-Si have a better performance in energy generation, the environmental aspect is what makes them fall to the last positions. TF PV modules present the best trade-off in all scenarios under consideration. A special attention was paid to recycling process of PV module even if there is not yet enough information currently available for all the technologies evaluated. The main cause of this lack of information is the lifetime of PV modules. The data relative to the recycling processes for m-Si and CdTe PV technologies were introduced in the optimization procedure for ecodesign. By considering energy production and EPBT as optimization criteria into a bi-objective optimization cases, the importance of the benefits of PV modules end-of-life management was confirmed. An economic study of the recycling strategy must be investigated in order to have a more comprehensive view for decision making.
217

Plans d'expérience optimaux en régression appliquée à la pharmacocinétique / Optimal sampling designs for regression applied to pharmacokinetic

Belouni, Mohamad 09 October 2013 (has links)
Le problème d'intérêt est d'estimer la fonction de concentration et l'aire sous la courbe (AUC) à travers l'estimation des paramètres d'un modèle de régression linéaire avec un processus d'erreur autocorrélé. On construit un estimateur linéaire sans biais simple de la courbe de concentration et de l'AUC. On montre que cet estimateur construit à partir d'un plan d'échantillonnage régulier approprié est asymptotiquement optimal dans le sens où il a exactement la même performance asymptotique que le meilleur estimateur linéaire sans biais (BLUE). De plus, on montre que le plan d'échantillonnage optimal est robuste par rapport à la misspecification de la fonction d'autocovariance suivant le critère du minimax. Lorsque des observations répétées sont disponibles, cet estimateur est consistant et a une distribution asymptotique normale. Les résultats obtenus sont généralisés au processus d'erreur de Hölder d'indice compris entre 0 et 2. Enfin, pour des tailles d'échantillonnage petites, un algorithme de recuit simulé est appliqué à un modèle pharmacocinétique avec des erreurs corrélées. / The problem of interest is to estimate the concentration curve and the area under the curve (AUC) by estimating the parameters of a linear regression model with autocorrelated error process. We construct a simple linear unbiased estimator of the concentration curve and the AUC. We show that this estimator constructed from a sampling design generated by an appropriate density is asymptotically optimal in the sense that it has exactly the same asymptotic performance as the best linear unbiased estimator (BLUE). Moreover, we prove that the optimal design is robust with respect to a misspecification of the autocovariance function according to a minimax criterion. When repeated observations are available, this estimator is consistent and has an asymptotic normal distribution. All those results are extended to the error process of Hölder with index including between 0 and 2. Finally, for small sample sizes, a simulated annealing algorithm is applied to a pharmacokinetic model with correlated errors.
218

On the distribution of the values of arithmetical functions / Sur la répartition des valeurs des fonctions arithmétiques

Hassani, Mehdi 08 December 2010 (has links)
La thèse concerne différents aspects de la répartition des fonctions arithmétiques.1. Deshouillers, Iwaniec et Luca se sont récemment intéressés à la répartition modulo 1 de suites qui sont des valeurs moyennes de fonctions multiplicatives, par exemple phi(n)/n où phi est la fonction d'Euler. Nous étendons leur travail à la densité modulo 1 de suites qui sont des valeurs moyennes sur des suites polynômiales, typiquement n^2+1.2. On sait depuis les travaux de Katai, il y a une quarantaine d'années que la fonction de répartition des valeurs de phi(p-1)/(p-1) (où p parcourt les nombres premiers) est continue, purement singulière, strictement croissante entre 0 et 1/2. On précise cette étude en montrant que cette fonction de répartition a une dérivée infinie à gauche de tout point phi(2n)/(2n). / Abstract
219

L'évaluation économique des services écosystémiques marins et côtiers et son utilisation dans la prise de décision : cas d'étude en Nouvelle-Calédonie et en Australie / Quantifying economic values of coastal and marine ecosystem services and assessing their use in decision-making : applications in New-Caledonia and Australia

Marre, Jean-Baptiste 30 September 2014 (has links)
No abstract. / Coastal and marine ecosystems are some of the most heavily exploited with increasing degradation. This alarming situation appeals for urgent and effective actions. The optimal balance between use and conservation of ecosystems theoretically requires all costs and benefits to be considered in decision-making, including intangible costs and benefits such as non-market use and non-use values. The broad aim of this PhD is to examine how these economic values associated with coastal and marine ecosystem services can be measured, and how the economic valuation exercise may be considered and influence management decision- making.The first analytical part of the thesis focuses on assessing non-market use and non-use values, through econometric methods. The characterization and estimation of non-use values are complex and controversial, especially when the valuation exercise is focusing on individuals who are users of the ecosystem services being considered. An original approach based on a stated preference method, namely choice experiments, is developed then empirically applied in quantifying non-market values for marine and coastal ecosystems in two areas in New Caledonia. It allows the estimation of non-use values for populations of users in an implicit way. An in-depth analysis of the individuals’ choice heuristics during the valuation exercise is also conducted, with a focus on payment non-attendance. This issue is dealt with by comparing multiple modelling approaches in terms of: (1) inferred attendance, in relation to stated attendance; (2) attendance distribution according to several socio-economic variables; and (3) welfare estimates.After noting that the potential influence of economic valuation in decision making is unclear and largely unexplored in the literature, the second major component of this PhD aims to examine if, how and to what extent the economic valuation of ecosystem services, including measures of non-market values, influence decision-making regarding coastal and marine ecosystems management in Australia. Based on two nation-wide surveys, the perceived usefulness of the economic valuation of ecosystem services by the general public and decision-makers is studied, and the reasons why decision-makers may or may not fully consider economic values are elicited. Using a multi-criteria analysis, a part of the surveys also aims at examining the relative importance of different evaluation criteria (ecological, social and economic) when assessing the consequences of a hypothetical coastal development project on commercial activities, recreational activities and marine biodiversity.
220

La construction de critères de scientificité pour la démarche d'investigation : une approche pragmatique pour l'enseignement de la physique à l'école primaire / Construction of a set of criteria of scientificity for inquiry-based science : a pragmatic approach to the teaching of physics in primary school

Blanquet, Estelle 24 November 2014 (has links)
Le mémoire vise à proposer une épistémologie pragmatique de la science scolaire à l’école primaire. Un défaut de compréhension de la nature de la science pourrait en effet justifier en partie les difficultés de l'enseignement des sciences par démarche d'investigation. Une étude des représentations de la science chez les enseignants et futurs enseignants confirme qu’ils n‘en ont pour la plupart qu‘une vision assez floue, relevant majoritairement d'une forme d'empirisme naïf. Un jeu opératoire de critères de scientificité adapté au contexte de l’école est développé dans une approche "bottom-up" partant des pratiques de classe effectives. Sa capacité à discriminer pratiques scientifiques et non scientifiques est discutée, de même que les implications didactiques et épistémologiques de son utilisation. Il est en particulier possible d‘en déduire des définitions évolutives d‘une science scolaire normative mais subsidiaire par rapport à la “science des scientifiques”. Cet outil épistémologique s’avère bien reçu par les enseignants auxquels il a été présenté. Le test en situation de différentes stratégies pédagogiques fait apparaître que les plus efficaces pour l'appropriation de critères de scientificité ajoutent à la démarche d’investigation une composante épistémologique explicite. Certains éléments de méthode scientifique peuvent être travaillés dès la Grande Section de maternelle (5-6 ans) : des élèves ayant vécu des démarches d’investigation s’avèrent capables de revendiquer la primauté de l’expérience, mais aussi de mettre en œuvre des tests relatifs à plusieurs critères de scientificité et de s‘approprier les rudiments de la modélisation scientifique. / The purpose of this thesis is to propose a pragmatic epistemology of school science in primary school. Indeed, some of the difficulties encountered by inquiry-based science education may be attributed to a lack of understanding of the very nature of science. A survey on the perception of science by incumbent teachers and teachers in training confirms that most of them have a relatively vague vision grounded in a form of naive empiricism. A practical set of criteria of scientificity adapted to the school context is developed through a “bottom-up” approach based on actual classroom practices. Its efficiency at discriminating scientific and non-scientific practices is discussed, as well as the didactical and epistemological implications of its use. It is thus possible to deduce evolutive definitions of a school science that is normative yet subordinated to the “science of scientists”. Teachers responded positively to this epistemological tool when it was presented to them. Among the different teaching strategies tested in a classroom, the most efficient for the acquisition of criteria of scientificity were those which supplemented the inquiry process with an explicit epistemological component. Some elements of scientific method can be introduced as early as kindergarten (5-6 y.o) : after experimenting with inquiry processes, pupils have proved able not only to claim the primacy of experiment but also to run tests related to different criteria of scientificity and acquire the basics of scientific modeling.

Page generated in 0.8176 seconds