Spelling suggestions: "subject:"epissage"" "subject:"fouissage""
71 |
Changements dans la répartition des décès selon l'âge : une approche non paramétrique pour l'étude de la mortalité adulteOuellette, Nadine 03 1900 (has links)
Au cours du siècle dernier, nous avons pu observer une diminution remarquable de la mortalité dans toutes les régions du monde, en particulier dans les pays développés. Cette chute a été caractérisée par des modifications importantes quant à la répartition des décès selon l'âge, ces derniers ne se produisant plus principalement durant les premiers âges de la vie mais plutôt au-delà de l'âge de 65 ans. Notre étude s'intéresse spécifiquement au suivi fin et détaillé des changements survenus dans la distribution des âges au décès chez les personnes âgées. Pour ce faire, nous proposons une nouvelle méthode de lissage non paramétrique souple qui repose sur l'utilisation des P-splines et qui mène à une expression précise de la mortalité, telle que décrite par les données observées. Les résultats de nos analyses sont présentés sous forme d'articles scientifiques, qui s'appuient sur les données de la Human Mortality Database, la Base de données sur la longévité canadienne et le Registre de la population du Québec ancien reconnues pour leur fiabilité. Les conclusions du premier article suggèrent que certains pays à faible mortalité auraient récemment franchi l'ère de la compression de la mortalité aux grands âges, ère durant laquelle les décès au sein des personnes âgées tendent à se concentrer dans un intervalle d'âge progressivement plus court. En effet, depuis le début des années 1990 au Japon, l'âge modal au décès continue d'augmenter alors que le niveau d'hétérogénéité des durées de vie au-delà de cet âge demeure inchangé. Nous assistons ainsi à un déplacement de l'ensemble des durées de vie adultes vers des âges plus élevés, sans réduction parallèle de la dispersion de la mortalité aux grands âges. En France et au Canada, les femmes affichent aussi de tels développements depuis le début des années 2000, mais le scénario de compression de la mortalité aux grands âges est toujours en cours chez les hommes. Aux États-Unis, les résultats de la dernière décennie s'avèrent inquiétants car pour plusieurs années consécutives, l'âge modal au décès, soit la durée de vie la plus commune des adultes, a diminué de manière importante chez les deux sexes. Le second article s'inscrit dans une perspective géographique plus fine et révèle que les disparités provinciales en matière de mortalité adulte au Canada entre 1930 et 2007, bien décrites à l'aide de surfaces de mortalité lissées, sont importantes et méritent d'être suivies de près. Plus spécifiquement, sur la base des trajectoires temporelles de l'âge modal au décès et de l'écart type des âges au décès situés au-delà du mode, les différentiels de mortalité aux grands âges entre provinces ont à peine diminué durant cette période, et cela, malgré la baisse notable de la mortalité dans toutes les provinces depuis le début du XXe siècle. Également, nous constatons que ce sont précisément les femmes issues de provinces de l'Ouest et du centre du pays qui semblent avoir franchi l'ère de la compression de la mortalité aux grands âges au Canada. Dans le cadre du troisième et dernier article de cette thèse, nous étudions la longévité des adultes au XVIIIe siècle et apportons un nouvel éclairage sur la durée de vie la plus commune des adultes à cette époque. À la lumière de nos résultats, l'âge le plus commun au décès parmi les adultes canadiens-français a augmenté entre 1740-1754 et 1785-1799 au Québec ancien. En effet, l'âge modal au décès est passé d'environ 73 ans à près de 76 ans chez les femmes et d'environ 70 ans à 74 ans chez les hommes. Les conditions de vie particulières de la population canadienne-française à cette époque pourraient expliquer cet accroissement. / Over the course of the last century, we have witnessed major improvements in the level of mortality in regions all across the globe, in particular in developed countries. This remarkable mortality decrease has also been characterized by fundamental changes in the mortality profile by age. Indeed, deaths are no longer occurring mainly at very young ages but rather at advanced ages such as above age 65. Our research focuses on monitoring and understanding historical changes in the age-at-death distribution among the elderly population. We propose a new flexible nonparametric smoothing approach based on P-splines leading to detailed mortality representations, as described by actual data. The results are presented in three scientific papers, which rest upon reliable data taken from the Human Mortality Database, the Canadian Human Mortality Database, and the Registre de la population du Québec ancien. Findings from the first paper suggest that some low mortality countries may have recently reached the end of the old-age compression of mortality era, where deaths among the elderly population tend to concentrate into a progressively shorter age interval over time. Indeed, since the early 1990s in Japan, the modal age at death continues to increase while reductions in the variability of age at death above the mode have stopped. Thus, the distribution of age at death at older ages has been sliding towards higher ages without changing its shape. In France and Canada, women show such developments since the early 2000s, whereas men are still boldly engaged in an old-age mortality compression regime. In the USA, the picture for the latest decade is worrying because for several consecutive years in that timeframe, women and men have both recorded important declines in their modal age at death, which corresponds to the most common age at death among adults. The second paper takes a look within national boundaries and examines regional adult mortality differentials in Canada between 1930 and 2007. Smoothed mortality surfaces reveal that provincial disparities among adults in general and among the elderly population in particular are substantial in this country and deserve to be monitored closely. More specifically, based on modal age at death and standard deviation above the mode time trends, provincial disparities at older ages have barely reduced during the period studied, despite the great mortality improvements recorded in all provinces since the early XXth century. Also, we find that women who have reached the end of the old-age compression of mortality era in Canada are respectively those of Western and Central provinces. The last paper focuses on adult longevity during the XVIIIth century in historical Quebec and provides new insight on the most common adult age at death. Indeed, our analysis reveals that the modal age at death increased among French-Canadian adults between 1740-1754 and 1785-1799. In 1740-1754, it was estimated at 73 years among females and at about 70 years among males. By 1785-1799, modal age at death estimates were almost 3 years higher for females and 4 years higher for males. Specific living conditions of the French-Canadian population at the time could explain these results.
|
72 |
Reconstruction, Détection et Régularisation de Données DiscrètesBougleux, Sébastien 05 December 2007 (has links) (PDF)
Cette thèse traite des problématiques de structuration et de traitement de données discrètes organisées ou non. Elle se décompose en deux parties. La première partie concerne la structuration de données représentées par des ensembles de points du plan ou de l'espace Euclidien. Dans ce contexte, nous considérons les problèmes de la reconstruction polygonale de courbes planaires et de la détection de formes géométriques 3D connues. Ces deux problèmes sont traités par des techniques de géométrie algorithmique et combinatoire, basées sur le diagramme de Voronoï et la triangulation de Delaunay. Dans le cadre de la reconstruction de courbes planaires, nous proposons une famille hiérarchique de sous-graphes du graphe de Gabriel, que nous appelons les beta-CRUSTS Locaux. Nous étudions les propriétés de cette famille, qui nous permettent de concevoir un algorithme de reconstruction des courbes simples. Ensuite, nous proposons une méthode de détection de formes géométriques connues à partir d'un ensemble de points 3D (nous nous restreignons au cas des structures linéaires et planaires), plongés dans un milieu bruité ou non. Cette méthode est basée sur une extension des alpha-formes, générées à partir de boules ellipsoïdales. Dans une deuxième partie, nous traitons le problème de la régularisation de données par des méthodes variationnelles discrètes sur graphes pondérés, de topologie quelconque. Pour cela, nous proposons une large famille de fonctionnelles discrètes, basées sur les normes L2 et Lp du gradient. Ceci conduit à des processus de diffusion linéaire ou non-linéaire sur graphes. Ce formalisme étend un certain nombre de modèles variationnels, que nous appliquons à des problèmes de restauration, de lissage, et de simplification d'images et de maillages.
|
73 |
Nouveaux regards sur la longévité : analyse de l'âge modal au décès et de la dispersion des durées de vie selon les principales causes de décès au Canada (1974-2011)Diaconu, Viorela 08 1900 (has links)
No description available.
|
74 |
Métholodogie de conception des matériaux architecturés pour le stockage latent dans le domaine du bâtiment / Design methodology of architectured materials for energy storage using latent heat in building sectorArzamendia Lopez, Juan Pablo 28 June 2013 (has links)
L'utilisation de systèmes de stockage par chaleur latente constitue une solution permettant l'effacement du chauffage d'un bâtiment résidentiel pendant les périodes de forte demande. Une telle stratégie peut avoir pour objectif le lissage des pics d'appel en puissance du réseau électrique. Cependant, la faible conductivité des matériaux à changement de phase (MCP) qui constituent ces systèmes et le besoin d'une puissance de décharge importante imposent l'utilisation de matériaux dits "architecturés" afin d'optimiser la conductivité équivalente des matériaux stockeurs. Nos travaux s'intéressent plus particulièrement à la méthodologie pour la conception de matériaux pour ces systèmes afin de satisfaire aux exigences de stockage d'énergie et de puissance de restitution. La méthodologie proposée dans ces travaux de thèse est dénommé « Top-down methodology ». Cette méthodologie comporte trois échelles : l'échelle bâtiment (top), l'échelle système et l'échelle matériau (down). L'échelle bâtiment a comme objectif de spécifier le cahier des charges. A l'échelle système, des indicateurs de performance sont définis. Enfin, à l'échelle matériau, l'architecture du matériau solution est proposée. Un outil numérique modélisant le système de stockage par chaleur latente de type échangeur de chaleur air/MCP à été développé pour évaluer les indicateurs de performance. Ce modèle numérique est vérifié avec un cas analytique et validé par comparaison avec des données expérimentales. La méthodologie développée est mise en œuvre dans un deuxième cas d'étude pour le même type de système de stockage. L'analyse du système via les nombres adimensionnels permet d'obtenir des indicateurs de performance du système. A l'issue de cette étape, les propriétés matériaux et fonctionnelles optimales du système sont donc connues. Enfin, un matériau architecturé est alors proposé afin de satisfaire les exigences du système de stockage. Nous montrons alors que par l'intermédiaire d'une plaque sandwich contenant des clous et du MCP les propriétés matériaux nécessaires sont obtenues. De plus, afin de satisfaire aux exigences en termes de propriétés fonctionnelles, le design du système est modifié en ajoutant des ailettes sur les surfaces d'échange. Nous montrons que avec 20 ailettes de 3mm d'épaisseur sur la surface d'échange de la planche à clous, le chauffage est effacé pendant 2h lors de la période de forte demande journalière pendant l'hiver. / The use of energy storage systems that exploit latent heat represents a promising solution to erase the heating demand of residential buildings during periods of peak demand. Equipping a building with such components can contribute to the goal of peak shaving in terms of public electricity grid supply. Significant drawbacks, however, are the low thermal conductivity of Phase Change Materials (PCM) that typically constitute such systems,and the requirement for a high rate of discharge. Consequently, the use of so-called architectured materials has been put forward as a means to optimize the effective conductivity of storage materials. Our work is focused upon the development of a methodology to design optimal materials for such systems that meet the criteria of energy storage and energy output. A so-called “top-down metholodogy” was implemented for the present work. This approach includes three scales of interest: building (top), system and material (down). The aim of the building scale analysis is to formulate a set of general design requirements. These are complemented by performance indicators, which are defined at the scale of the system. Finally, at the scale of the material, the architecture of the identified material is elaborated. A numerical simulation tool was developed to determine performance indicators for a latent heat energy storage system comprising of an air/PCM heat exchanger. This model was tested against a benchmark analytical solution and validated though comparison to experimental data. The developed methodology is applied to the specific case of an air/PCM exchanger latent-heat energy storage system. The system is analysed through the study of dimensionless numbers, which provide a set of design indicators for the system. As a result of this stage, the optimal material and functional properties are thus identified. Finally, an architectured material is proposed that would satisfy the design requirements of the storage system. We demonstrate that an arrangement composed of a sandwich of planar layers with nails and PCM can offer the required material properties. Furthermore, in order to meet the desired functional properties, the system design is modified by the addition of fins at the exchange surfaces. With the addition of 20 fins of 3mm thickness attached to the exchange surface of the sandwich panel, the storage system eliminated the heating demand for 2 hours during the period of high daily demand in winter.
|
75 |
Quelques contributions à l'estimation des modèles définis par des équations estimantes conditionnelles / Some contributions to the statistical inference in models defined by conditional estimating equationsLi, Weiyu 15 July 2015 (has links)
Dans cette thèse, nous étudions des modèles définis par des équations de moments conditionnels. Une grande partie de modèles statistiques (régressions, régressions quantiles, modèles de transformations, modèles à variables instrumentales, etc.) peuvent se définir sous cette forme. Nous nous intéressons au cas des modèles avec un paramètre à estimer de dimension finie, ainsi qu’au cas des modèles semi paramétriques nécessitant l’estimation d’un paramètre de dimension finie et d’un paramètre de dimension infinie. Dans la classe des modèles semi paramétriques étudiés, nous nous concentrons sur les modèles à direction révélatrice unique qui réalisent un compromis entre une modélisation paramétrique simple et précise, mais trop rigide et donc exposée à une erreur de modèle, et l’estimation non paramétrique, très flexible mais souffrant du fléau de la dimension. En particulier, nous étudions ces modèles semi paramétriques en présence de censure aléatoire. Le fil conducteur de notre étude est un contraste sous la forme d’une U-statistique, qui permet d’estimer les paramètres inconnus dans des modèles généraux. / In this dissertation we study statistical models defined by condition estimating equations. Many statistical models could be stated under this form (mean regression, quantile regression, transformation models, instrumental variable models, etc.). We consider models with finite dimensional unknown parameter, as well as semiparametric models involving an additional infinite dimensional parameter. In the latter case, we focus on single-index models that realize an appealing compromise between parametric specifications, simple and leading to accurate estimates, but too restrictive and likely misspecified, and the nonparametric approaches, flexible but suffering from the curse of dimensionality. In particular, we study the single-index models in the presence of random censoring. The guiding line of our study is a U-statistics which allows to estimate the unknown parameters in a wide spectrum of models.
|
76 |
Nouvelles perspectives sur la longévité humaine : étude longitudinale du lémurien genre Microcebus murinusTremblay, Marilyn-Anne 08 1900 (has links)
Le vieillissement des populations est une réalité incontournable des sociétés modernes, qui observent une augmentation inexorable de l’espérance de vie. L’un des obstacles à l’analyse de la mortalité chez l’humain tient au fait qu’il faut plus de cent ans pour que tous les individus d’une même génération décèdent. C’est pourquoi la biodémographie, un nouveau champ de recherche alliant la démographie et la biologie, se penche sur l’analyse des données de mortalité des primates, tels le lémurien genre Microcebus murinus. Les données pour cette espèce élevée en captivité proviennent principalement des livrets d’enregistrement des entrées et sorties de tous les individus du laboratoire MMDN du département de biologie de l’Université de Montpellier.
L’objectif principal de ce mémoire est de comparer les distributions des décès par âge pour le lémurien par sexe, ainsi que pour des populations humaines de différentes époques. L’approche par P-splines utilisée permet de dériver ces distributions à partir des taux de mortalité lissés. Différents indices sont calculés sur la mortalité : l’espérance de vie à l’âge de la maturité sexuelle, l’espérance de vie aux grands âges, l’âge médian au décès, ainsi que l’âge modal (i.e. le plus fréquent) au décès. Nos résultats indiquent que les femelles lémurien genre Microcebus murinus élevées en captivité vivent plus longtemps que les mâles, et ce pour tous les différents indices utilisés, contrairement à ce qui avait été rapporté dans la littérature. Cela est toutefois cohérent avec les différentes hypothèses qui supposent des durées de vies plus longues chez les femelles primates et chez les humaines. De plus, la comparaison de la mortalité chez les lémuriens et les humains montrent que la distribution des décès du lémurien se rapproche des sociétés pré-industrielles européennes.
Cette incursion dans la démographie d’une espèce animale contribuera l’avancement de ce tout nouveau champ de recherche qu’est la biodémographie. L’analyse plus approfondie de la longévité de primates à courtes durées de vie permettra de nous d’améliorer nos connaissances à long terme sur les mécanismes biologiques du vieillissement chez l’humain. / The aging of populations is an inescapable reality of modern societies, which observe an inexorable increase in life expectancy. One of the obstacles to the analysis of human mortality is the fact that it takes more than a hundred years for all individuals in a generation to die. For this reason, biodemography, a new field of research combining demography and biology, is looking at the analysis of mortality data from primates, such as the gray mouse lemur (Microcebus murinus). The data for this captive-bred species come mainly from the logbooks recording the entries and exits of all individuals in the MMDN laboratory of the Biology Department of the University de Montpellier.
The main objective of this thesis is to compare the distributions of deaths by age for the lemur by sex, as well as for human populations of different ages. The P-splines approach used makes it possible to derive these distributions from smoothed mortality rates. Different indicators are calculated on mortality: life expectancy at the age of sexual maturity, life expectancy at old age, median age of survival, and modal age at death. Our results indicate that female captive-bred gray mouse lemurs live longer than males for all the different indices used, contrary to what has been reported in the literature. This is however consistent with the different hypotheses that assume longer life spans in primate and human females. Moreover, the comparison of mortality in lemurs and humans shows that the distribution of lemur deaths is close to the European pre-industrial societies.
This incursion into the demography of an animal species will allow the advancement of this brand-new field of research that is biodemography. A more in-depth analysis of the longevity of short-lived primates will provide us with long-term information on the biological mechanisms of aging in humans.
|
77 |
Estimations non paramétriques par noyaux associés multivariés et applications / Nonparametric estimation by multivariate associated kernels and applicationsSomé, Sobom Matthieu 16 November 2015 (has links)
Dans ce travail, l'approche non-paramétrique par noyaux associés mixtes multivariés est présentée pour les fonctions de densités, de masse de probabilité et de régressions à supports partiellement ou totalement discrets et continus. Pour cela, quelques aspects essentiels des notions d'estimation par noyaux continus (dits classiques) multivariés et par noyaux associés univariés (discrets et continus) sont d'abord rappelés. Les problèmes de supports sont alors révisés ainsi qu'une résolution des effets de bords dans les cas des noyaux associés univariés. Le noyau associé multivarié est ensuite défini et une méthode de leur construction dite mode-dispersion multivarié est proposée. Il s'ensuit une illustration dans le cas continu utilisant le noyau bêta bivarié avec ou sans structure de corrélation de type Sarmanov. Les propriétés des estimateurs telles que les biais, les variances et les erreurs quadratiques moyennes sont également étudiées. Un algorithme de réduction du biais est alors proposé et illustré sur ce même noyau avec structure de corrélation. Des études par simulations et applications avec le noyau bêta bivarié avec structure de corrélation sont aussi présentées. Trois formes de matrices des fenêtres, à savoir, pleine, Scott et diagonale, y sont utilisées puis leurs performances relatives sont discutées. De plus, des noyaux associés multiples ont été efficaces dans le cadre de l'analyse discriminante. Pour cela, on a utilisé les noyaux univariés binomial, catégoriel, triangulaire discret, gamma et bêta. Par la suite, les noyaux associés avec ou sans structure de corrélation ont été étudiés dans le cadre de la régression multiple. En plus des noyaux univariés ci-dessus, les noyaux bivariés avec ou sans structure de corrélation ont été aussi pris en compte. Les études par simulations montrent l'importance et les bonnes performances du choix des noyaux associés multivariés à matrice de lissage pleine ou diagonale. Puis, les noyaux associés continus et discrets sont combinés pour définir les noyaux associés mixtes univariés. Les travaux ont aussi donné lieu à la création d'un package R pour l'estimation de fonctions univariés de densités, de masse de probabilité et de régression. Plusieurs méthodes de sélections de fenêtres optimales y sont implémentées avec une interface facile d'utilisation. Tout au long de ce travail, la sélection des matrices de lissage se fait généralement par validation croisée et parfois par les méthodes bayésiennes. Enfin, des compléments sur les constantes de normalisations des estimateurs à noyaux associés des fonctions de densité et de masse de probabilité sont présentés. / This work is about nonparametric approach using multivariate mixed associated kernels for densities, probability mass functions and regressions estimation having supports partially or totally discrete and continuous. Some key aspects of kernel estimation using multivariate continuous (classical) and (discrete and continuous) univariate associated kernels are recalled. Problem of supports are also revised as well as a resolution of boundary effects for univariate associated kernels. The multivariate associated kernel is then defined and a construction by multivariate mode-dispersion method is provided. This leads to an illustration on the bivariate beta kernel with Sarmanov's correlation structure in continuous case. Properties of these estimators are studied, such as the bias, variances and mean squared errors. An algorithm for reducing the bias is proposed and illustrated on this bivariate beta kernel. Simulations studies and applications are then performed with bivariate beta kernel. Three types of bandwidth matrices, namely, full, Scott and diagonal are used. Furthermore, appropriated multiple associated kernels are used in a practical discriminant analysis task. These are the binomial, categorical, discrete triangular, gamma and beta. Thereafter, associated kernels with or without correlation structure are used in multiple regression. In addition to the previous univariate associated kernels, bivariate beta kernels with or without correlation structure are taken into account. Simulations studies show the performance of the choice of associated kernels with full or diagonal bandwidth matrices. Then, (discrete and continuous) associated kernels are combined to define mixed univariate associated kernels. Using the tools of unification of discrete and continuous analysis, the properties of the mixed associated kernel estimators are shown. This is followed by an R package, created in univariate case, for densities, probability mass functions and regressions estimations. Several smoothing parameter selections are implemented via an easy-to-use interface. Throughout the paper, bandwidth matrix selections are generally obtained using cross-validation and sometimes Bayesian methods. Finally, some additionnal informations on normalizing constants of associated kernel estimators are presented for densities or probability mass functions.
|
78 |
Réduction de dimension en statistique et application en imagerie hyper-spectraleGirard, Robin 26 June 2008 (has links) (PDF)
Cette thèse est consacrée à l'analyse statistique de données en grande dimension. Nous nous intéressons à trois problèmes statistiques motivés par des applications médicales : la classification supervisée de courbes, la segmentation supervisée d'images hyperspectrales et la segmentation non-supervisée d'images hyperspectrales. Les procédures développées reposent pour la plupart sur la théorie des tests d'hypothèses (tests multiples, minimax, robustes et fonctionnels) et la théorie de l'apprentissage statistique. Ces théories sont introduites dans une première partie. Nous nous intéressons, dans la deuxième partie, à la classification supervisée de données gaussiennes en grande dimension. Nous proposons une procédure de classification qui repose sur une méthode de réduction de dimension et justifions cette procédure sur le plan pratique et théorique. Dans la troisième et dernière partie, nous étudions le problème de segmentation d'images hyper-spectrales. D'une part, nous proposons un algorithme de segmentation supervisée reposant à la fois sur une analyse multi-échelle, une estimation par maximum de vraisemblance pénalisée, et une procédure de réduction de dimension. Nous justifions cet algorithme par des résultats théoriques et des applications pratiques. D'autre part, nous proposons un algorithme de segmentation non supervisée impliquant une décomposition en ondelette des spectres observées en chaque pixel, un lissage spatial par croissance adaptative de régions et une extraction des frontières par une méthode de vote majoritaire.
|
79 |
Contributions à la co-optimisation contrôle-dimensionnement sur cycle de vie sous contrainte réseau des houlogénérateurs directs / Contribution to the sizing-control co-optimization over life cycle under grid constraint for direct-drive wave energy convertersKovaltchouk, Thibaut 09 July 2015 (has links)
Les Energies Marines Renouvelables (EMR) se développent aujourd’hui très vite tant au niveau de la recherche amont que de la R&D, et même des premiers démonstrateurs à la mer. Parmi ces EMR, l'énergie des vagues présente un potentiel particulièrement intéressant. Avec une ressource annuelle brute moyenne estimée à 40 kW/m au large de la côte atlantique, le littoral français est plutôt bien exposé. Mais l’exploitation à grande échelle de cette énergie renouvelable ne sera réalisable et pertinente qu'à condition d'une bonne intégration au réseau électrique (qualité) ainsi que d'une gestion et d'un dimensionnement optimisé au sens du coût sur cycle de vie. Une première solution de génération tout électrique pour un houlogénérateur a d’abord été évaluée dans le cadre de la thèse de Marie RUELLAN menée sur le site de Bretagne du laboratoire SATIE (ENS de Cachan). Ces travaux ont mis en évidence le potentiel de viabilité économique de cette chaîne de conversion et ont permis de poser la question du dimensionnement de l’ensemble convertisseur-machine et de soulever les problèmes associés à la qualité de l’énergie produite. Puis une seconde thèse a été menée par Judicaël AUBRY dans la même équipe de recherche. Elle a consisté, entre autres, en l’étude d’une première solution de traitement des fluctuations de la puissance basée sur un système de stockage par supercondensateurs. Une méthodologie de dimensionnement de l’ensemble convertisseur-machine et de gestion de l’énergie stockée fut également élaborée, mais en découplant le dimensionnement et la gestion de la production d’énergie et de ceux de son système de stockage. Le doctorant devra donc : 1. S’approprier les travaux antérieurs réalisés dans le domaine de la récupération de l’énergie des vagues ainsi que les modèles hydrodynamiques et mécaniques réalisés par notre partenaire : le LHEEA de l’Ecole Centrale de Nantes - 2. Résoudre le problème du couplage entre dimensionnement/gestion de la chaîne de conversion et dimensionnement/gestion du système de stockage. 3. Participer à la réalisation d’un banc test à échelle réduite de la chaine électrique et valider expérimentalement les modèles énergétiques du stockage et des convertisseurs statiques associés - 4. Proposer une méthodologie de dimensionnement de la chaine électrique intégrant le stockage et les lois de contrôle préalablement élaborées 5. Déterminer les gains en termes de capacités de stockage obtenus grâce à la mutualisation de la production (parc de machines) et évaluer l’intérêt d’un stockage centralisé - 6. Analyser l’impact sur le réseau d’une production houlogénérée selon divers scenarii, modèles et outils développés par tous les partenaires dans le cadre du projet QUALIPHE. L’exemple traité sera celui de l’Ile d’Yeu (en collaboration avec le SyDEV. / The work of this PhD thesis deals with the minimization of the per-kWh cost of direct-drive wave energy converter, crucial to the economic feasibility of this technology. Despite the simplicity of such a chain (that should provide a better reliability compared to indirect chain), the conversion principle uses an oscillating system (a heaving buoy for example) that induces significant power fluctuations on the production. Without precautions, such fluctuations can lead to: a low global efficiency, an accelerated aging of the fragile electrical components and a failure to respect power quality constraints. To solve these issues, we firstly study the optimization of the direct drive wave energy converter control in order to increase the global energy efficiency (from wave to grid), considering conversion losses and the limit s from the sizing of an electrical chain (maximum force and power). The results point out the effect of the prediction horizon or the mechanical energy into the objective function. Production profiles allow the study of the flicker constraint (due to grid voltage fluctuations) linked notably to the grid characteristics at the connection point. Other models have also been developed to quantify the aging of the most fragile and highly stressed components, namely the energy storage system used for power smoothing (with super capacitors or electrochemical batteries Li-ion) and power semiconductors.Finally, these aging models are used to optimize key design parameters using life-cycle analysis. Moreover, the sizing of the storage system is co-optimized with the smoothing management.
|
80 |
Quantification 3D d’une surface dynamique par lumière structurée en impulsion nanoseconde. Application à la physique des chocs, du millimètre au décimètre / 3D measurement of a dynamic surface by structured light in nanosecond regime. Application to shock physics, from millimeters to decimetersFrugier, Pierre Antoine 29 June 2015 (has links)
La technique de reconstruction de forme par lumière structurée (ou projection de motifs) permet d’acquérir la topographie d’une surface objet avec une précision et un échantillonnage de points dense, de manière strictement non invasive. Pour ces raisons, elle fait depuis plusieurs années l’objet d’un fort intérêt. Les travaux présentés ici ont pour objectif d’adapter cette technique aux conditions sévères des expériences de physique des chocs : aspect monocoup, grande brièveté des phénomènes, diversité des échelles d’observation (de quelques millimètres au décimètre). Pour répondre à ces exigences, nous proposons de réaliser un dispositif autour d’un système d’imagerie rapide par éclairage laser nanoseconde, présentant des performances éprouvées et bien adaptées. La première partie des travaux s’intéresse à analyser les phénomènes prépondérants pour la qualité des images. Nous montrons quels sont les contributeurs principaux à la dégradation des signaux, et une technique efficace de lissage du speckle par fibrage est présentée. La deuxième partie donne une formulation projective de la reconstruction de forme ; celle-ci est rigoureuse, ne nécessitant pas de travailler dans l’approximation de faible perspective, ou de contraindre la géométrie de l’instrument. Un protocole d’étalonnage étendant la technique DLT (Direct Linear Transformation) aux systèmes à lumière structurée est proposé. Le modèle permet aussi, pour une expérience donnée, de prédire les performances de l’instrument par l’évaluation a priori des incertitudes de reconstruction. Nous montrons comment elles dépendent des paramètres du positionnement des sous-ensembles et de la forme-même de l’objet. Une démarche d’optimisation de la configuration de l’instrument pour une reconstruction donnée est introduite. La profondeur de champ limitant le champ objet minimal observable, la troisième partie propose de l’étendre par codage pupillaire : une démarche de conception originale est exposée. L’optimisation des composants est réalisée par algorithme génétique, sur la base de critères et de métriques définis dans l’espace de Fourier. Afin d’illustrer les performances de cette approche, un masque binaire annulaire a été conçu, réalisé et testé expérimentalement. Il corrige des défauts de mise au point très significatifs (Ψ≥±40 radians) sans impératif de filtrage de l’image. Nous montrons aussi que ce procédé donne accès à des composants tolérant des défauts de mise au point extrêmes (Ψ≈±100 radians , après filtrage). La dernière partie présente une validation expérimentale de l’instrument dans différents régimes, et à différentes échelles. Il a notamment été mis en œuvre sur l’installation LULI2000, où il a permis de mesurer dynamiquement la déformation et la fragmentation d’un matériau à base de carbone (champs millimétriques). Nous présentons également les mesures obtenues sous sollicitation pyrotechnique sur un revêtement de cuivre cylindrique de dimensions décimétriques. L’apparition et la croissance rapide de déformations radiales submillimétriques est mesurée à la surface du revêtement. / A Structured Light System (SLS) is an efficient means to measure a surface topography, as it features both high accuracy and dense spatial sampling in a strict non-invasive way. For these reasons, it became in the past years a technique of reference. The aim of the PhD is to bring this technique to the field of shock physics. Experiments involving shocks are indeed very specific: they only allow single-shot acquisition of extremely short phenomena occurring under a large range of spatial extensions (from a few mm to decimeters). In order to address these difficulties, we have envisioned the use of a well-known high-speed technique: pulsed laser illumination. The first part of the work deals with the evaluation of the key-parameters that have to be taken into account if one wants to get sharp acquisitions. The extensive study demonstrates that speckle effect and depth of field limitation are of particular importance. In this part, we provide an effective way to smooth speckle in nanosecond regime, leaving 14% of residual contrast. Second part introduces an original projective formulation for object-points reconstruction. This geometric approach is rigorous; it doesn’t involve any weak-perspective assumptions or geometric constraints (like camera-projector crossing of optical axis in object space). From this formulation, a calibration procedure is derived; we demonstrate that calibrating any structured-light system can be done by extending the Direct Linear Transformation (DLT) photogrammetric approach to SLS. Finally, we demonstrate that reconstruction uncertainties can be derived from the proposed model in an a priori manner; the accuracy of the reconstruction depends both on the configuration of the instrument and on the object shape itself. We finally introduce a procedure for optimizing the configuration of the instrument in order to lower the uncertainties for a given object. Since depth of field puts a limitation on the lowest measurable field extension, the third part focuses on extending it through pupil coding. We present an original way of designing phase components, based on criteria and metrics defined in Fourier space. The design of a binary annular phase mask is exhibited theoretically and experimentally. This one tolerates a defocus as high as Ψ≥±40 radians, without the need for image processing. We also demonstrate that masks designed with our method can restore extremely high defoci (Ψ≈±100 radians) after processing, hence extending depth of focus by amounts unseen yet. Finally, the fourth part exhibits experimental measurements obtained with the setup in different high-speed regimes and for different scales. It was embedded on LULI2000 high energy laser facility, and allowed measurements of the deformation and dynamic fragmentation of a sample of carbon. Finally, sub-millimetric deformations measured in ultra-high speed regime, on a cylinder of copper under pyrotechnic solicitation are presented.
|
Page generated in 0.0507 seconds