• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 602
  • 223
  • 55
  • 3
  • 1
  • Tagged with
  • 869
  • 440
  • 176
  • 127
  • 92
  • 87
  • 75
  • 63
  • 62
  • 54
  • 53
  • 48
  • 47
  • 47
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Etude des performances du télescope gamma Fermi à basse énergie et impact sur la science / Optimisation of FERMI space telescope performences

Desgardin, Thibaut 25 November 2015 (has links)
Le satellite Fermi, lancé en juin 2008 par la NASA, observe le ciel dans le domaine des hautes énergies. Son instrument principal: le Large Area Telescope (LAT), récolte des données à partir de ~20 MeV jusqu'à plus de 300 GeV. Une amélioration majeure de ses algorithmes à permis récemment la mise à disposition d'un nouveau jeu de données, Pass 8. Pass 8 jette un nouvel éclairage sur le domaine méconnu de la basse énergie (E<100 MeV). En effet à basse énergie, la résolution en énergie et la résolution angulaire du LAT rendent l'analyse de données ardue.Au cours de ce travail de thèse, nous avons proposé une nouvelle paramétrisation capable de décrire la réponse en énergie du LAT sur 6 ordres de grandeur.Fort de ce travail technique et des améliorations apportées par Pass 8, nous nous sommes ensuite attelés à l'analyse des données à basse énergie. Pour cela nous avons extrapolé les modèles d'émission diffuse produits par la collaboration et nous les avons ajustés aux données. Nous avons également étudié 39 sources parmi les plus brillantes du ciel gamma. Les résultats de cette analyse de sources sont présentés dans cette thèse avec un accent particulier mis sur deux des plus brillantes sources du ciel gamma: le pulsar Vela et le pulsar du Crabe ainsi que sa nébuleuse. / Launched in June 2008 by NASA, the Fermi satellite observes the gamma-ray sky. Its main instrument, the LAT, harvests data from ~20 MeV to 300 GeV and beyond.Lately, a major upgrade of the LAT algorithms allowed the release of a reprocessed data set called Pass 8. Pass 8 sheds a new light on the low energy (E<100 MeV) regime where data analysis is difficult due to degraded angular and energy resolution.During this Phd a new parameterization was found for the energy dispersion which allowed an accurate modelisation of the LAT energy response on 6 orders of magnitude.This work, together with other Pass 8 improvements, allows us to consider low energy analysis. To do so, we extrapolated the existing diffuse models to low energy and fitted them to data together with 39 of the brightest low energy gamma-ray sources. The results of this analysis are presented in this manuscript with a particular enphasis on the Vela pulsar and the Crab pulsar plus nebula.
52

Étude de la relation structure-fonction du segment S6 du canal potassique K��3.1

Simoes, Manuel January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
53

Potentiel de réduction des émissions de GES du transport routier de fret / Potential of road freight GHG mitigation

Tu Thi, Hoai Thu 04 January 2019 (has links)
L’objectif de cette thèse est d’identifier les politiques qui permettraient de réduire les émissions de GES du transport de fret routier au moindre coût pour la collectivité. Pour cela, nous estimons, sur la période 2030-2050, les quantités évitées ainsi que le coût économique dans 6 scénarios correspondant à différentes politiques de réductions des émissions. Le coût économique comprend la somme des coûts pour les utilisateurs de transport et pour les pouvoirs publics ainsi que les coûts des externalités. Nous utilisons, quand ils sont disponibles, des jeux d’hypothèses définis par le ministère des transports, en particulier pour l’évolution des trafics et les valeurs unitaires des externalités. Pour chaque scénario, le coût économique par tonne de GES évitée est très sensible aux hypothèses, en particulier aux valeurs unitaires retenues pour les externalités (valorisation des co-bénéfices). Dans les hypothèses centrales, plusieurs scénarios présentent un coût négatif, c'est-à-dire un bénéfice pour la collectivité en plus de la réduction des émissions. C’est le cas de notamment de la taxe carbone, aussi longtemps qu’elle reste inférieure aux coûts externes engendrés par les poids lourds. Pourtant, quand cette taxe augmente, la hausse correspondante du prix de transport conduit les chargeurs à renoncer à une partie de leur activité, ce qui limite l’augmentation souhaitable. L’augmentation de 40 à 60 tonnes du poids maximum autorisé des poids lourds est une mesure très favorable aux utilisateurs de transport car elle permet de réduire significativement le coût du transport. Prenant en compte les gains d’externalités, la perte fiscale des pouvoirs publics, ainsi que les coûts d’infrastructure (investissement pour renforcer les ponts et les routes et entretien), ce scénario présente également un bénéfice pour la collectivité. Le scénario d’installation de caténaires sur le réseau autoroutier pour permettre la circulation de poids lourds hybrides est efficace en matière de quantité de GES évitée et le coût d’évitement par CO2e reste limité. En revanche, dans le scénario d’électrification du fret urbain (remplacement des camions diesels par des camions électriques dans les villes) le coût de la tonne évitée est élevé si les camions électriques n’ont que deux tonnes de charge utile alors qu’il devient un bénéfice économique si, grâce au progrès technologique, les camions électriques ont 6 tonnes de charge utile en 2030 (pour une autonomie de 100 km).Le remplacement des poids lourds diesels par des poids lourds au Gaz Naturels Véhicules réduit le coût du transport et bénéficie donc aux transporteurs et chargeurs tandis que les pouvoirs publics supportent une perte de recette fiscale. En tenant en compte les gains d‘externalités, cette mesure permettrait un coût économique limité. Enfin, le chargeur a la possibilité de réduire ses émissions de GES, avec un coût raisonnable pour l’entreprise et un bénéfice pour la collectivité, en diminuant la fréquence de ses envois. Pourtant, aucune de ces mesures n’est susceptible d’offrir seule une réduction suffisante des émissions. Pour atteindre l’objectif de facteur 4 à un coût raisonnable pour la collectivité, différentes mesures doivent être envisagées en complément / The purpose of this thesis is to identify policies that would allow to mitigate road freight GHG emissions at the lowest cost for the community. With this in mind, for six scenarios corresponding to different mitigation policies we estimate the mitigated emissions along with the economic cost, over the 2030-2050 period. The overall economic cost includes the cost for transport users, for public authorities, and an economic valuation of transport externalities. When available, we used sets of assumptions retained by the French Ministry of Transports for official traffic projections and for the unitary valuation of external costs. For every scenario, the economic cost by avoided ton of CO2 is highly sensitive to these assumptions, especially to the unitary value of external costs (valuation of co-benefits). In the central set of assumptions, several scenarios result in a negative economic cost of GHG mitigation, id est a benefit to the community in addition to GHG cuts.This is notably the case for the carbon tax, as long as it remains lower than the external costs of freight road transportation. However, when the tax rate is rising, the resulting increase in transport prices leads shippers to reduce their activity, which limits the desirable tax rate increase. Increasing the maximum authorized weight of heavy trucks from 40 to 60 tons would be a very beneficial measure towards transport users by allowing a substantial transport costs reduction. This scenario is also beneficial for the community, when accounting for the avoided external costs, the financial loss for public authorities and infrastructure costs (the required reinforcement of roads and bridges and increased maintenance costs). The installation of catenaries on motorways to supply hybrid heavy trucks is efficient to reduce CO2 emissions, and the economic cost per avoided ton of CO2 remains moderate. Quite the opposite, the economic cost is high in the scenario of electrification of urban freight (where diesel trucks are replaced by electric trucks for urban goods delivery), if electric trucks only have a maximum payload of 2 tons. On the contrary, it turns into an economic benefit if, thanks to technological progress, electric trucks have a payload of 6 tons in 2030, for a range of 100 km.The replacement of diesel trucks by natural gas vehicles reduces transport costs and is therefore beneficial towards carriers and loaders, but public authorities support a loss of taxation revenues. However, when accounting for the avoided external costs, the overall economic cost happens to be limited.Finally, shippers can reduce GHG emissions for a reasonable economic cost by reducing the frequency of shipments, this measure also being beneficial for the community.However, none of these measures is capable to achieve by itself the official goal of dividing by 4 the level of GHG emissions at a reasonable cost for the community, implying that additional measures have to be considered jointly
54

Study and realization of a microwaves system to estimate the moisture content in wood biomass / Étude et réalisation d'un système de mesure micro-ondes pour l'estimation de l'hygrométrie de la ressource bois-énergie

Merlan, Maria 18 February 2016 (has links)
Le réchauffement climatique est l'un des principaux problèmes de ce siècle. Les politiques européennes soutiennent le développement des énergies renouvelables afin d'atteindre, d'ici 2020, l'objectif fixé par l'Union Européenne (UE). Ce dernier stipule que 20% de l'énergie produite devra provenir d'une source renouvelable. La combustion de la biomasse sous forme de bois est la plus importante des ressources renouvelables. Par conséquent, le développement de celle-ci est fondamental pour atteindre l'objectif de l'UE. Les plaquettes forestières sont des morceaux de bois déchiquetés. Elles présentent de nombreux avantages pour la production d'énergie thermique, en particulier, elles possèdent un bilan carbone neutre. Lors de la combustion, la présence d'eau dans le bois ne produit pas d'énergie mais provoque une perte de chaleur dans le processus de l'évaporation de l'eau. Par ailleurs, plus il y a d'eau moins il y a de bois pour une masse donnée de combustible. De ce fait, la connaissance de la teneur en eau dans le bois permet de déterminer son pouvoir calorifique et donc son prix. Dans cette thèse, plusieurs techniques fondées sur l'étude de la permittivité ont été proposées afin de prédire la teneur en eau des plaquettes forestières à grande échelle. Les systèmes externes fondés sur la réflectivité électromagnétique du matériau sont peu fiables en raison de leur dépendance à l'état de surface du combustible. Celui-ci est très variable en fonction des conditions d'utilisation et climatiques. Les dispositifs internes sont plus performants. Des systèmes internes capacitifs et à base de résonateurs ouverts ont été étudiés. Un prototype de dispositif à résonateur a été réalisé et testé en conditions réelles de production. / Global warming is one of the major problems of this century. Thus, European policies support the development of renewable energies in order to reach the target set by the European Union by 2020: 20% of the energy consumption must come from renewable resources. The combustion of wood biomass is the larger of the renewable energies and thus the increase of it is a key factor to get the expected target. Wood chips are shredded wood that present many advantages for the production of thermal energy. In particular, they are considered a carbon neutral fuel. During combustion, the water content does not produce energy but causes a heat loss in the process of the evaporation of the water. Moreover, for a given mass of biofuel, the larger water content, the smaller the wood available. Therefore knowing the moisture content (MC) allows to determine the calorific value of the biofuel and then its price. In this thesis several techniques based upon the study of the permittivity of large samples of wood chips have been proposed to predict the MC. External systems based on measurements of the reflected energy by the material are not reliable because of their dependence on the surface of the fuel, which can be very changeable under rough industrial and weather conditions. Internal devices are more efficient. They are based on either a capacitive technology or on open resonator technology. Due to promising results, a prototype of a resonator device was implemented and tested in real operating conditions.
55

Étude de l'impact des conditions hydrodynamiques d'une cellule d'électrodialyse avec membranes bipolaires sur la formation de colmatage protéique au cours de l'électroacidification sous champs électriques pulsés de produits laitiers

Nichka, Vladlen 19 July 2022 (has links)
Mémoire ou thèse en cotutelle / L'électrodialyse (ÉD) est largement utilisée dans diverses industries, y compris l'industrie alimentaire (pour la désacidification des jus de fruits et du vin, la déminéralisation du lactosérum, etc.). Cependant, les membranes utilisées dans le traitement des solutions alimentaires sont souvent sujettes au colmatage. Le colmatage, dépôt de différentes espèces sur la surface ou à l'intérieur du matériau, dégrade considérablement les performances et la durée de vie des membranes, ce qui conduit à la nécessité de leur remplacement et de leur nettoyage régulier. À cet égard, la formation de dépôts à la surface des membranes entraîne une augmentation du coût de l'ensemble du procédé d'électrodialyse (ÉD). La détermination des moyens pour réduire le colmatage est une problématique réelle, en particulier dans l'industrie alimentaire, qui traite des solutions complexes. Cette thèse consistait à déterminer la contribution du débit de la solution dans la cellule d'ÉD à l'échelle laboratoire, ainsi que des modes de courant électrique sur la cinétique de colmatage protéique (formation de dépôts protéiques) des membranes bipolaires (MB) lors du traitement d'électroacidification par ÉD de solutions laitières. La nouveauté scientifique et l'originalité du travail tiennent au fait qu'à notre connaissance, il n'y a jamais eu d'évaluation de l'effet combiné du débit de solution et d'utilisation de régimes de champ électrique pulsé (CÉP), alternant des impulsions de courant et des pauses (courant égal à zero), sur cette cinétique de colmatage . De plus, dans le cadre de cette étude, un modèle mathématique a été développé, pour la première fois, afin de tenter de décrire la cinétique de formation et de dissolution des dépôts de protéines au cours du processus d'ÉDMB. L'objectif principal de la première étape de la thèse était de déterminer l'effet du débit de solution et du mode de courant électrique sur la cinétique de colmatage protéique des membranes lors du procédé d'électrodialyse à membranes bipolaires du lait écrémé. Deux modes de courant électrique ont été utilisés : le mode de courant traditionnel, à savoir le courant continu (CC) et le CÉP. Un seul régime d'impulsion-pause de CÉP a été étudié, dans lequel 10 s d'impulsion alternaient avec 50 s de pause. De plus, cinq débits différents de solution ont été testés et correspondant aux nombres de Reynolds (Re) suivants : 162, 242, 323, 404 et 485. Les résultats obtenus en mode CÉP ont été comparés aux données obtenues en mode CC sur une même base de nombre de charges transportées pendant l'expérience. Des dépôts de protéines sur la couche échangeuse de cations de la membrane bipolaire (MB) en mode CC ont été trouvés, quel que soit le débit de solution appliqué. Les résultats ont montré que l'utilisation de CÉP empêchait presque complètement la formation de colmatage protéique sur la surface de la MB, quel que soit le débit de la solution dans le canal de la cellule d'ÉD. Il a ainsi été démontré que la minimisation du colmatage est principalement liée à l'utilisation de CÉP en comparaison avec l'augmentation du débit de solution. L'objectif de la deuxième étape du projet était d'optimiser le régime actuel de CÉP afin de minimiser davantage le colmatage des protéines sur la surface de la MB. Dans cette partie du travail, l'effet combiné du débit de la solution et de différents régimes d'impulsion-pause de CÉP a été étudié sur la quantité de protéines déposée durant le processus d'ÉDMB d'une solution modèle de caséinate de sodium. Ainsi, trois débits (correspondant à des nombres de Reynolds de 187, 374 et 560) pour la solution d'alimentation et quatre régimes d'impulsion-pause (avec des rapports Ton/Toff égaux à 10 s-10 s, 10 s-20 s, 10 s-33 s et 10 s-50 s) ont été évalués à une densité de courant de 5 mA/cm². Un colmatage protéique a été observé sur la couche échangeuse de cations de la MB dans toutes les conditions expérimentales considérées, et cela quels que soient le régime de courant et le débit de solution. Il a cependant été constaté que l'augmentation du temps de pause et du débit de la solution de caséinate avaient un impact positif sur la minimisation du colmatage protéique à la surface cationique de la MB. Une pause longue et un débit élevé ont contribué à une diminution plus efficace de la concentration de protons et d'anions caséinates à la surface de la MBP: Une diminution de 87 % de la quantité de colmatage de la membrane a été obtenue avec 50 s de temps de pause en CÉP et un débit correspondant à Re = 374. Une augmentation supplémentaire du temps de pause en CÉP (au-dessus de 50 s) ou du débit (au-dessus de Re = 374) n'a pas entraîné de diminution significative de la quantité de colmatage. La dernière étape du travail a été la modélisation mathématique du processus à l'étude afin de mieux comprendre le mécanisme d'attachement et de croissance du colmatage au cours de l'ÉDBM. Dans cette partie du projet, un modèle unidimensionnel d'ÉDBM d'une solution de caséinate de sodium a été développé. Il est basé sur l'équation de Nernst-Planck sous la condition d'électroneutralité locale. Le modèle prend en compte le transfert de 6 espèces ioniques (Na⁺, K⁺, H⁺, Cl⁻, OH⁻ et anions caséinate (Cas⁻)), ainsi que des molécules non chargées de caséine, qui précipitent (HCas⁰). La géométrie du modèle cible la surface de la couche échangeuse de cations de la MB d'un côté et le volume de la solution agitée de l'autre. Les paramètres hydrodynamiques du système sont pris en compte à travers l'épaisseur de la couche de diffusion. Le modèle développé permet le calcul des concentrations ioniques dans la solution traitée et décrit qualitativement la cinétique de colmatage des protéines à la surface de la MB. Il a ainsi été montré qu'une augmentation du temps de pause en CÉP entraîne une diminution de l'épaisseur des dépôts protéiques en surface. Les meilleurs résultats en termes de minimisation des dépôts ont été obtenus pour le régime de CÉP de 10 s-50 s, ce qui est cohérent avec les résultats expérimentaux obtenus précédemment. Le plus grand effet anticolmatant a été obtenu avec une durée d'impulsion de courant de 10 s et une pause de 50 s en combinaison avec un nombre de Reynolds de 560. La combinaison optimale du mode de courant et paramètre hydrodynamique a réduit la masse du dépôt de caséine à la surface de la MB de 78 % par rapport au régime de CÉP de 10 s-10 s combiné avec un nombre de Reynolds de 187. Les résultats obtenus dans cette thèse de doctorat ont démontré pour la première fois les impacts du mode hydrodynamique dans la cellule d'ÉD, du mode de courant électrique ainsi que du régime de courant en CÉP sur la cinétique de colmatage dans la cellule d'ÉDBM lors de l'électroacidification de solutions laitières. De plus, le modèle développé a permis de prédire qualitativement la quantité de dépôt à la surface de la membrane en fonction du débit (nombre de Reynolds) et de la combinaison impulsion/pause de CÉP appliqués. Les perspectives futures du travail sont la transition vers un système d'ÉD semi-industriel, l'utilisation d'autres types d'espaceurs, l'utilisation de membranes modifiées avec une hétérogénéité géométrique, le test d'autres modes impulsion-pause de CÉP. De plus, concernant la modélisation, le modèle développé pourrait être amélioré en passant par un système bidimensionnel, prenant en compte les molécules protéiques chargées positivement, ainsi que la présence d'un espaceur dans le canal d'acidification/déminéralisation. / Electrodialysis (ED) is widely used in various industries, including food industry (for deacidification of fruit juices and wine, demineralization of whey, etc.). However, membranes used in the processing of food solutions are often prone to fouling due to the solution complexity. Fouling, deposition of different species on the surface or inside the material, significantly degrades the performance and lifetime of membranes, leading to their regular replacement and cleaning. Hence, the formation of deposits on the surface of membranes leads to an increase in the cost of the entire electrodialysis (ED) process. The determination of ways to decrease fouling is a main actual concern, especially in the food industry, which treats complex solutions. This PhD thesis consisted in determining the contribution of the flow rate of the solution in an ED cell at laboratory scale, as well as of the electric current modes on the protein fouling kinetics (formation of protein deposits) on bipolar membranes (BPM) during electroacidification by ED of milk solutions. The scientific novelty and originality of the work are based on the fact that, as far as we know, there have been no assessments of the combined effect of both solution flow rate and use of pulsed electric field (PEF) regimes, in which CC pulses alternate with pauses (zero current), on such protein fouling kinetics. Also, within the framework of the study, a tentative mathematical model was developed, for the first time, to allow to describe the formation and dissolution kinetics of protein deposits during EDBM process. The main objective of the study at the first stage of the thesis was to determine the effect of solution flow rate and electrical current mode on the protein fouling kinetics on membranes during the process of electrodialysis with bipolar membranes of skim milk. Two electrical modes of current were used: the traditional mode of current, namely continuous current (CC) and PEF. One PEF regime was studied, in which 10 s of pulse lapse alternated with 50 s of pause. Additionally, five different flow rates of solution were tested corresponding to the following Reynolds numbers (Re): 162, 242, 323, 404, and 485. The results obtained in the PEF mode were compared with the data obtained in the CC mode with respect to the same number of charges transported during the experiment. Protein deposits on the cation exchange layer of the BPM using CC were found, regardless of the solution flow rate applied. However, the use of PEF allows to prevent the protein fouling formation on the BPM surface almost completely, regardless of the solution flow rate in the channel of the of ED cell. Furthermore, it has been shown that the use of PEF has the main effect in terms of fouling minimization compared to the effect of increasing solution flow rate. The objective of the thesis at the second stage of the project was to optimize the PEF current mode to further minimize protein fouling on the BPM surface. During this stage, the combined effect of solution flow rate and different PEF regimes on the amount of protein deposit during EDBM of a model sodium caseinate solution was investigated. To achieve this objective three different flow rates of the feed solution (corresponding to Reynolds numbers of 187, 374 and 560) and four different pulse-pause regimes (Ton/Toff ratios equal to 10 s-10 s, 10 s- 20 s, 10 s-33 s and 10 s-50 s) during EDBM treatment were evaluated at a current density of 5 mA/cm². Protein fouling was observed on the cation-exchange layer of BPM for all the experimental conditions considered, regardless of the PEF regime and the solution flow rate. It was found that increasing both pause duration and caseinate solution flow rate had a positive impact on protein fouling minimization occurring on the BPM cationic surface. A long pause associated with a high flow rate contribute to a more effective decrease in the concentration of protons and caseinate anions at the BPM surface: a very good membrane performance was achieved with 50 s of pause duration of PEF and a flow rate corresponding to Re = 374 (decrease in the amount of fouling by 87%). A further increase in PEF pause duration (above 50 s) or flow rate (above Re = 374) did not lead to a significant decrease in the amount of fouling. The next step of the work was the mathematical modelling of the process under study for better understanding the mechanism of fouling attachment and growth during EDBM. In this part of the project, a one-dimensional model of EDBM for sodium caseinate solution was developed. It is based on the Nernst-Planck equation under the local electroneutrality condition. The model takes into account the transfer of 6 ionic species (Na⁺, K⁺, H⁺, Cl⁻ , OH⁻ and caseinate anions (Cas⁻)), as well as uncharged molecules of casein, which precipitate (HCas⁰). The geometry of the model is the surface of the BPM cation-exchange layer on the one side and the volume of the stirred solution on the other. The hydrodynamic parameters in the system are taken into account through the diffusion layer thickness. The developed model allows the calculation of the ionic concentrations in the system and to qualitatively describe the kinetics of BPM protein fouling. It has been shown that an increase in the pause duration of PEF leads to a decrease in the thickness of the protein deposits at the BPM surface. The best results in terms of deposit minimization were achieved under the 10 s-50 s PEF regime, which is consistent with the experimental results obtained earlier. The greatest positive antifouling effect was achieved with a current pulse duration of 10 s and a pause of 50 s in combination with Reynolds number of 560. The synergistic combination of optimal current and hydrodynamic modes reduced the mass of casein deposits on the surface of the BPM by 78% compared to the 10 s-10 s PEF regime in combination with Reynolds number of 187. The results obtained in this Ph.D. thesis demonstrated for the first time the impact of the hydrodynamic parameter in the ED cell, the mode of electric current and the PEF regime on fouling kinetics in the process of EDBM of dairy solutions. Additionally, the developed model makes it possible to qualitatively predict the amount of deposit on the membrane surface depending on the flow rate (the Reynolds number) in the desalination compartment and PEF regime applied. The main perspectives of the work are the transition to a semi-industrial ED system, use of other types of spacers, use of modified membranes with geometric heterogeneity, testing of other pulse-pause modes of PEF. Regarding the modeling, the developed model could be improved, namely to transit to a two-dimensional system, taking into account positively charged protein molecules, as well as the presence of a spacer in the acidification/desalting channel.
56

Modélisation et optimisation de la recharge bidirectionnelle de véhicules électriques : application à la régulation électrique d'un complexe immobilier

Tanguy, Kevin 19 April 2018 (has links)
La démocratisation des véhicules hybrides branchables ainsi que des véhicules purement électriques implique un surplus de demande sur les réseaux de distribution. Le Vehicle-to-Grid (V2G) ou le Vehicle-to-Building (V2B) visent à répondre à cette demande accrue en utilisant les véhicules non plus comme de simples charges pour le réseau électrique mais comme des acteurs effectuant des échanges bidirectionnels. Les travaux présentés dans ce mémoire montrent, avec des données réelles du campus de l’Université Laval, une modélisation de flottes de véhicules et l’application d’un modèle d’optimisation linéaire que le V2B peut permettre de réaliser des gains financiers partagés entre les acteurs tout en rechargeant efficacement les véhicules participants. / The democratization of plug-in hybrid electric vehicles along with purely electric vehicles causes an increased electric demand on the power grid. Vehicle-to-Grid (V2G) or Vehicle-to-Building (V2B) aim to bring an appropriate response to this increased demand, by not simply considering vehicles as loads for the grid but as actors making bidirectionnal exchanges. The works presented in this master’s thesis show, with real data on the Université Laval campus, a modelling of vehicle fleets and the application of a linear optimization model, that V2B can provide financial gain shared between the actors of the system, while charging the vehicles efficiently.
57

Étude et modélisation des convertisseurs de puissance associés aux systèmes de stockage d'énergie par batterie

Konde Lombo, Felicien 17 May 2023 (has links)
Titre de l'écran-titre (visionné le 8 mai 2023) / Ce mémoire présente une analyse technico-économique des convertisseurs de puissance associés aux systèmes de stockage d'énergie par batterie. Trois convertisseurs de puissance ont été modélisés en prenant en compte notamment la résistance interne de la batterie et les fluctuations de la tension aux bornes du système de stockage. Il s'agit plus précisément d'un convertisseur DC/DC, d'un convertisseur DC/AC triphasé à deux niveaux, et d'un convertisseur triphasé DC/AC multi niveau de la structure NPC. La sélection de ces trois topologies de convertisseurs d'électronique de puissance n'est pas aléatoire et est soumise à certains critères de sélection. Ce choix est justifié tout au long du manuscrit. Les équations de dimensionnement, de calcul des pertes par conduction et par commutation, du rendement ainsi que du taux de distorsion harmonique de ces convertisseurs sont fournies. Les performances en termes de rendement, de pertes et de taux de distorsion harmonique de ces convertisseurs ont été déterminées en prenant en compte le rapport cyclique, la résistance interne du système de stockage, les fluctuations de la tension aux bornes du système de stockage et le type de charge alimentée par le système de stockage. Les résultats de la simulation de ces convertisseurs sur le logiciel Matlab/Simulink sont présentés pour valider la partie théorique. Au-delà des convertisseurs de puissance, ce travail présente également une approche holistique des systèmes de stockage d'énergie par batterie ainsi que de leurs composants. Par ailleurs, deux modèles d'équilibrage de cellules ont été développés sur la base de modèles disponibles dans la littérature. / This work presents a techno-economic analysis of power converters associated with battery energy storage systems. Three power converters are modeled, taking into account factors such as the internal resistance of the battery and voltage fluctuations at the storage system terminals. Specifically, these converters include a DC-DC converter, a two-level three-phase DC/AC converter, and a three-level three-phase NPC DC/AC converter. The selection of these three power electronic converter topologies for modelization is not random but is subject to certain selection criteria, which are justified throughout the manuscript. Equations for sizing, calculating conduction and switching losses, efficiency, and total harmonic distortion for these converters are provided. The performance of these converters in terms of efficiency, losses, and total harmonic distortion is determined taking into account duty cycle, internal resistance of the storage system, voltage fluctuations at the storage system terminals, and the type of load supplied by the storage system. Simulation results for these converters using Matlab/Simulink software are presented to validate the theoretical part. Beyond power converters, this work also presents a holistic approach to battery energy storage systems and their components. Additionally, two cell balancing models are developed based on models available in the literature.
58

Étude de la dégradation de films polymères minces sur substrats métalliques soumis à des électrons de basses énergies

Massey, Sylvain 13 April 2018 (has links)
Cette thèse présente l'utilisation des électrons de basses énergies (< 100 eV) pour la modification chimique de polymères. Le travail porte sur la dégradation sous impact électronique de couches minces polymères, de l'ordre nanométrique, sur des substrats métalliques. L'étude de la dégradation a été effectuée par spectrométrie de masse, permettant ainsi l'identification des groupements chimiques résultant de l'interaction électrons-molécules et émis de la surface du matériau irradié. Trois polymères ont été choisis pour cette étude, soit le poly (téréphtalate d'éthylène), le polystyrène et un fluoropolymère biomédical conçu comme couche de protection contre les agents dégradants sur les endoprothèses vasculaires. Les deux premiers polymères ont été sélectionnés afin d'étudier le vieillissement d'un diélectrique et la faisabilité d'un procédé de modification de surface permettant un contrôle précis des altérations chimiques suite au bombardement, tout en évitant l'implantation ionique. Dans le cas du fluoropolymère, l'étude par impact électronique de basses énergies a permis de simuler les conséquences de l'interaction des rayons X servant en imagerie avec le milieu organique environnant ou le métal constituant la prothèse. Cette interaction produit des électrons de basses énergies qui occasionnent une dégradation du fluoropolymère dont les produits peuvent être toxiques à la santé du patient. Les résultats démontrent que l'irradiation électronique produit une émission anionique selon deux mécanismes distincts. L'attachement dissociatif d'électrons est caractérisé par un processus résonant avec formation d'un anion temporaire excité dont l'énergie de maximum de rendement d'émission a été évaluée en dessous de 15 eV dans le cas des trois matériaux. Le second processus de production anionique est principalement caractérisé par une rupture directe non résonante de la liaison moléculaire (dissociation dipolaire) dont les énergies de seuil sont supérieures aux énergies de maximum de rendement de l'attachement dissociatif. Les fonctions d'émission cationique ne présentent aucun maximum d'émission caractéristique de l'attachement dissociatif et indiquent que seuls les processus non résonants produisent des ions positifs lors de la dégradation électronique. Suite aux résultats obtenus, des processus de dégradation sont suggérés, expliquant les mécanismes de dégradation de ces polymères sous irradiation électronique de basses énergies.
59

Prédiction de l'instabilité dynamique des réseaux électriques par apprentissage supervisé des signaux de réponses post-contingence sur des dictionnaires surcomplets

Teukam Dabou, Raoult 20 April 2022 (has links)
Ces dernières décennies, l'intégration aux réseaux électriques de capteurs intelligents incorporant la mesure synchronisée des phaseurs a contribué à enrichir considérablement les bases de données de surveillance en temps réel de la stabilité des réseaux électriques. En parallèle, la lutte aux changements climatiques s'est accompagnée d'un déploiement généralisé des sources d'énergies renouvelables dont l'intermittence de la production et le déficit d'inertie dû à l'interface de celle-ci par l'électronique de puissance, contribuent à augmenter les risques d'instabilité à la suite de contingences de réseau. Dans ce contexte, nous proposons d'appliquer aux données de synchrophaseurs de nouvelles approches d'intelligence de données inspirées par l'analyse massive des séries chronologiques et l'apprentissage sur des dictionnaires supervisés, permettant d'extraire des centaines d'attributs décrivant concisément les estimations d'état dynamique des générateurs de réseaux électriques. La mise en évidence d'une signification physique de ces attributs permet ensuite une classification de la stabilité dynamique qui s'éloigne de ce fait des boîtes noires produites par un apprentissage en profondeur « à l'aveugle » des séries chronologiques, pour évoluer vers une approche transparente plus adaptée à la salle de conduite des réseaux et acceptable pour les ingénieurs d'exploitation. Cette approche d'apprentissage machine « interprétable » par les humains, débouche de surcroît sur une détection fiable, utilisant de courtes fenêtres de données de vitesses d'alternateurs directement mesurées ou reconstituées par estimation d'état dynamique à partir de l'instant d'élimination du défaut, pour détecter toute instabilité subséquente, avec un temps de préemption suffisant pour activer des contremesures permettant de sauvegarder la stabilité du réseau et ainsi prévenir les pannes majeures. Notre travail aborde l'exploitation de cette nouvelle niche d'information par deux approches complémentaires d'intelligence des données : 1) une analyse non parcimonieuse d'une base d'attributs se chiffrant par centaines, calculés automatiquement par l'analyse numérique massive des séries chronologiques de signaux de réponses post-contingence des générateurs; et 2) une analyse parcimonieuse exploitant l'apprentissage supervisée de grands dictionnaires surcomplets pour habiliter une prédiction de l'instabilité sur de courtes fenêtres de données avec une représentation vectorielle creuse (contenant un grand nombre de zéros) et donc numériquement très efficiente en plus de l'interprétabilité inhérente des atomes constituant les dictionnaires. Au niveau méthodologique, l'approche non parcimonieuse vise à implémenter plusieurs méthodes analytiques combinées (notamment la transformée de Fourier, la transformée en ondelette, la méthode de Welch, la méthode de périodogramme et les exposants de Lyapunov) pour extraire du signal de réponse de chaque générateur des centaines d'attributs labellisés et servant à construire un espace physique d'indicateurs de stabilité à haute dimension (HDSI). Ceux-ci sont ensuite utilisés pour développer les prédicteurs de stabilité sur la base d'algorithmes standard de machine learning, par exemple le convolutional neural network (CNN), long short-term memory (LSTM), support vector machine (SVM), AdaBoost ou les forêts aléatoires. L'approche parcimonieuse implémentée consiste à développer deux techniques complémentaires : 1) un dictionnaire d'apprentissage supervisé joint (SLOD) au classificateur et 2) vingt dictionnaires d'apprentissage séparés des signaux associés aux cas stable/instable. Alors que le SLOD utilise des dictionnaires adaptatifs inspirés des données mesurées et apprises hors-ligne, la deuxième approche utilise des dictionnaires fixes pour reconstruire séparément les signaux des classes stables et instables. Dans les deux cas, l'étape finale consiste à identifier automatiquement en temps réel, la classe d'appartenance d'une réponse par reconstruction des signaux associés à partir des dictionnaires appris hors-ligne. L'analyse parcimonieuse des réponses des générateurs sur un dictionnaire d'apprentissage adaptatif joint au classificateur a été implémenté à partir de l'algorithme K-singular value de composition (KSVD) couplé à l'orthogonal matching pursuit (OMP), afin de reconstruire et prédire la stabilité dynamique des réseaux électriques. De plus, vingt décompositions parcimonieuses des signaux sur des dictionnaires fixes (simples et hybrides) ont permis de développer des classificateurs prédisant chaque classe séparément sur la base de la transformée en cosinus discrète (DCT), en sinus discrète (DST), en ondelette (DWT), de la transformée de Haar (DHT), et le dictionnaire de Dirac (DI) couplés à l'orthogonal matching pursuit (OMP). Cette étude démontre que la décomposition parcimonieuse sur un dictionnaire adaptatif joint au classificateur offre une performance proche de l'idéal (c'est-à-dire : 99,99 % précision, 99,99 % sécurité et 99,99 % fiabilité) de loin supérieure à celle d'un classificateur à reconstruction de signaux basée sur les vingt dictionnaires fixes ou adaptatifs séparés, et les classificateurs basés sur les moteurs de machine learning (SVM, ANN, DT, RF, AdaBoost, CNN et LSTM) implémentés à partir des indices HDSI extraits de la base de données des vitesses des rotors des réseaux IEEE 2 area 4 machines, IEEE 39 -bus et IEEE 68 -bus. Toutefois, le temps de resimulation (replay) en temps réel des dictionnaires fixes/adaptatifs séparés est nettement inférieur (de 30-40%) à celui observé pour le dictionnaire adaptatif à classificateur joint / SLOD, et les algorithmes modernes de machine learning utilisant les attributs de type HDSI comme intrants. / In recent decades, the integration of smart sensors incorporating synchronized phasor measurements units (PMU) into power grids has contributed to a significant improvement of the databases for real-time monitoring of power grid stability. In parallel, the fight against climate change has been accompanied by a widespread deployment of renewable energy sources whose intermittency of production and the lack of inertia due to the interface of the latter by power electronics; contribute to increase the risks of instability following network contingencies. In this context, we propose to apply new data intelligence approaches inspired by massive time series analysis and supervised dictionary learning to synchrophasor data, allowing the extraction of hundreds of attributes concisely describing the dynamic state estimates of power system generators. The physical meaning identification of these attributes then allows for an online classification of dynamic stability, thus moving away from the black boxes produced by «blind» deep learning of time series to a transparent approach more suitable for the network control room and acceptable to operating engineers. This human-interpretable machine learning approach also leads to reliable detection, using short windows of generator speed data directly measured or reconstructed by dynamic state estimation from the instant of fault elimination, to detect any subsequent instability, with sufficient preemption time to activate false measures to safeguard the network stability and thus prevent major outages. Our work addresses the exploitation of this new information through two complementary data intelligence approaches : 1) a non-sparse analysis of an attribute base numbering in the hundreds, computed automatically by massive numerical analysis of post-contingency response signal time series from generators; and 2) a sparse analysis exploiting supervised learning of large overcomplete dictionaries to enable instability prediction over short windows of data with a hollow vector representation (containing a large number of zeros) and thus numerically very efficient in addition to the inherent interpretability of the atoms constituting the dictionaries. Methodologically, the non-sparse approach aims to implement several combined analytical methods (including Fourier transform, wavelet transform, Welch's method, periodogram method and Lyapunov exponents) to extract hundreds of labeled attributes from the response signal of each generator and used to construct a physical space of high-dimensional stability indicators (HDSI). These are used to develop stability predictors based on standard machine learning algorithms, e.g., CNN, LSTM, SVM, AdaBoost or random forests. The implemented sparse approach consists in developing two complementary techniques: 1) a supervised learning dictionary attached (SLOD) to the classifier and 2) twenty separate dictionaries learning of the signals associated with the stable/instable cases. While the SLOD uses adaptive dictionaries inspired by the measured and learned offline data, the second approach uses fixed dictionaries to reconstruct the stable and unstable signals classes separately. In both cases, the final step is automatically identified in real time the status to which a response belongs by reconstructing the associated signals from the off-line learned dictionaries. The sparse analysis of generator responses on an adaptive learning dictionary attached to the classifier was implemented using the K-singular value decomposition (KSVD) algorithm coupled with orthogonal matching pursuit (OMP), to reconstruct and predict online the dynamic stability of power systems. In addition, twenty sparse signal decompositions on fixed dictionaries (simple and hybrid) were used to develop classifiers predicting each class separately based on the discrete cosine transform (DCT), discrete sine transform (DST), wavelet transform (DWT), Haar transform (DHT), and Dirac dictionary (DI) coupled with the orthogonal matching pursuit (OMP). This study demonstrates that sparse decomposition on joined adaptive dictionary to the classifier provides near ideal performance (i.e.: 99.99% accuracy, 99.99% security, and 99.99% reliability) far superior to that of a classifier has signal reconstruction based on the twenty separate fixed or adaptive dictionaries and classifiers based on machine learning engines (SVM, ANN, DT, RF, AdaBoost, CNN, and LSTM) implemented from HDSI indices extracted from the rotor speed database of the IEEE 2 area 4 machines, IEEE 39 -bus, and IEEE 68 -bus test systems. However, the real-time replay time of the separate fixed/adaptive dictionaries is significantly lower (by 30-40%) than that observed for the adaptive dictionary with joint classifier/SLOD, and modern machine learning algorithms using HDSI-like attributes as inputs.
60

Optimisation de la consommation d'énergie dans un environnement Cloud

Choukairy, Fatima Ezzahra 21 November 2018 (has links)
Depuis une dizaine d'années, la dématérialisation de l'information connaît un essor particulier avec l'ascension du Cloud Computing. La demande sans cesse croissante et le souci de fournir une certaine qualité de service obligent les fournisseurs à investir d'importants capitaux afin de multiplier leurs offres d'hébergement dans plusieurs zones géographiques. Avec ce déploiement à grande échelle d'énormes centres de données, la consommation énergétique du Cloud augmente en conséquence. De ce fait, plusieurs études portant sur la minimisation de la consommation énergétique du Cloud ont été récemment effectuées, en considérant les différentes techniques de réduction de l'énergie consommée. Ce mémoire propose une méthode basée sur l'intégration d'un algorithme d'ordonnancement, d'une technique de réduction de tension et de fréquence du processeur de chaque serveur (appelée DVFS pour Dynamic Voltage and Frequency Scaling), ainsi que du processus de migration des machines virtuelles (VMs). Cette méthode vise à minimiser la consommation de l'énergie dans un environnement Cloud, tout en respectant les exigences de qualité de service. Ce travail de recherche est réalisé en trois phases. Dans la première phase, nous menons une étude sur les différentes techniques de minimisation de la consommation d'énergie. Dans la deuxième phase, nous analysons ces techniques et proposons une méthode basée sur la combinaison de l'algorithme d'ordonnancement Green Scheduler, de la technique DVFS et de la migration des VMs. Afin d'évaluer l'efficacité de cette méthode, nous effectuons, dans la troisième phase, une mise en œuvre et une analyse des résultats issus de trois séries de simulations. Ces résultats montrent que la méthode proposée est en mesure de réduire l'énergie consommée par les serveurs d'une moyenne de 5% par rapport à l'utilisation d'autres méthodes de la littérature. Cette réduction peut atteindre 7.5% dans certaines circonstances. Les résultats de simulations montrent également que la méthode proposée permet de respecter les exigences de qualité de services dans toutes les conditions de fonctionnement du Cloud. / The last decade has witnessed a rapid rise in Cloud Computing usage, which has led to the dematerialization of data centers. The increased use of data centers has an impact on the energy consumption. Therefore, several studies relating to the optimization of energy consumption were recently carried out, hence various techniques aiming to reduce the power consumption were adopted. In this thesis, we propose a method based on the integration of a scheduling algorithm, the DVFS technique and the virtual machine (VM) migration. This method aims to minimize the consumption of energy in a Cloud environment subject to the quality of service. For this purpose, we firstly conduct a study on different techniques which aim to minimize energy consumption. Secondly, we analyze these techniques and propose a method based on the combination of the Green Scheduler algorithm, the DVFS technique and the VM migration. Thirdly, we choose Green Scheduler to perform three sets of simulations. Simulation results show that the proposed method is able to reduce the energy consumed by the servers by an average of 5% compared to the use of other existing methods. This reduction can reach 7.5% under certain circumstances. Such results also show that the proposed method always meets the quality of service requirements. / Ajustement dynamique de la tension

Page generated in 0.0409 seconds