• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 602
  • 226
  • 58
  • 3
  • 1
  • Tagged with
  • 875
  • 441
  • 176
  • 127
  • 92
  • 87
  • 75
  • 63
  • 62
  • 54
  • 53
  • 48
  • 48
  • 47
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Étude de la dégradation de films polymères minces sur substrats métalliques soumis à des électrons de basses énergies

Massey, Sylvain 13 April 2018 (has links)
Cette thèse présente l'utilisation des électrons de basses énergies (< 100 eV) pour la modification chimique de polymères. Le travail porte sur la dégradation sous impact électronique de couches minces polymères, de l'ordre nanométrique, sur des substrats métalliques. L'étude de la dégradation a été effectuée par spectrométrie de masse, permettant ainsi l'identification des groupements chimiques résultant de l'interaction électrons-molécules et émis de la surface du matériau irradié. Trois polymères ont été choisis pour cette étude, soit le poly (téréphtalate d'éthylène), le polystyrène et un fluoropolymère biomédical conçu comme couche de protection contre les agents dégradants sur les endoprothèses vasculaires. Les deux premiers polymères ont été sélectionnés afin d'étudier le vieillissement d'un diélectrique et la faisabilité d'un procédé de modification de surface permettant un contrôle précis des altérations chimiques suite au bombardement, tout en évitant l'implantation ionique. Dans le cas du fluoropolymère, l'étude par impact électronique de basses énergies a permis de simuler les conséquences de l'interaction des rayons X servant en imagerie avec le milieu organique environnant ou le métal constituant la prothèse. Cette interaction produit des électrons de basses énergies qui occasionnent une dégradation du fluoropolymère dont les produits peuvent être toxiques à la santé du patient. Les résultats démontrent que l'irradiation électronique produit une émission anionique selon deux mécanismes distincts. L'attachement dissociatif d'électrons est caractérisé par un processus résonant avec formation d'un anion temporaire excité dont l'énergie de maximum de rendement d'émission a été évaluée en dessous de 15 eV dans le cas des trois matériaux. Le second processus de production anionique est principalement caractérisé par une rupture directe non résonante de la liaison moléculaire (dissociation dipolaire) dont les énergies de seuil sont supérieures aux énergies de maximum de rendement de l'attachement dissociatif. Les fonctions d'émission cationique ne présentent aucun maximum d'émission caractéristique de l'attachement dissociatif et indiquent que seuls les processus non résonants produisent des ions positifs lors de la dégradation électronique. Suite aux résultats obtenus, des processus de dégradation sont suggérés, expliquant les mécanismes de dégradation de ces polymères sous irradiation électronique de basses énergies.
62

Prédiction de l'instabilité dynamique des réseaux électriques par apprentissage supervisé des signaux de réponses post-contingence sur des dictionnaires surcomplets

Teukam Dabou, Raoult 02 October 2023 (has links)
Ces dernières décennies, l'intégration aux réseaux électriques de capteurs intelligents incorporant la mesure synchronisée des phaseurs a contribué à enrichir considérablement les bases de données de surveillance en temps réel de la stabilité des réseaux électriques. En parallèle, la lutte aux changements climatiques s'est accompagnée d'un déploiement généralisé des sources d'énergies renouvelables dont l'intermittence de la production et le déficit d'inertie dû à l'interface de celle-ci par l'électronique de puissance, contribuent à augmenter les risques d'instabilité à la suite de contingences de réseau. Dans ce contexte, nous proposons d'appliquer aux données de synchrophaseurs de nouvelles approches d'intelligence de données inspirées par l'analyse massive des séries chronologiques et l'apprentissage sur des dictionnaires supervisés, permettant d'extraire des centaines d'attributs décrivant concisément les estimations d'état dynamique des générateurs de réseaux électriques. La mise en évidence d'une signification physique de ces attributs permet ensuite une classification de la stabilité dynamique qui s'éloigne de ce fait des boîtes noires produites par un apprentissage en profondeur « à l'aveugle » des séries chronologiques, pour évoluer vers une approche transparente plus adaptée à la salle de conduite des réseaux et acceptable pour les ingénieurs d'exploitation. Cette approche d'apprentissage machine « interprétable » par les humains, débouche de surcroît sur une détection fiable, utilisant de courtes fenêtres de données de vitesses d'alternateurs directement mesurées ou reconstituées par estimation d'état dynamique à partir de l'instant d'élimination du défaut, pour détecter toute instabilité subséquente, avec un temps de préemption suffisant pour activer des contremesures permettant de sauvegarder la stabilité du réseau et ainsi prévenir les pannes majeures. Notre travail aborde l'exploitation de cette nouvelle niche d'information par deux approches complémentaires d'intelligence des données : 1) une analyse non parcimonieuse d'une base d'attributs se chiffrant par centaines, calculés automatiquement par l'analyse numérique massive des séries chronologiques de signaux de réponses post-contingence des générateurs; et 2) une analyse parcimonieuse exploitant l'apprentissage supervisée de grands dictionnaires surcomplets pour habiliter une prédiction de l'instabilité sur de courtes fenêtres de données avec une représentation vectorielle creuse (contenant un grand nombre de zéros) et donc numériquement très efficiente en plus de l'interprétabilité inhérente des atomes constituant les dictionnaires. Au niveau méthodologique, l'approche non parcimonieuse vise à implémenter plusieurs méthodes analytiques combinées (notamment la transformée de Fourier, la transformée en ondelette, la méthode de Welch, la méthode de périodogramme et les exposants de Lyapunov) pour extraire du signal de réponse de chaque générateur des centaines d'attributs labellisés et servant à construire un espace physique d'indicateurs de stabilité à haute dimension (HDSI). Ceux-ci sont ensuite utilisés pour développer les prédicteurs de stabilité sur la base d'algorithmes standard de machine learning, par exemple le convolutional neural network (CNN), long short-term memory (LSTM), support vector machine (SVM), AdaBoost ou les forêts aléatoires. L'approche parcimonieuse implémentée consiste à développer deux techniques complémentaires : 1) un dictionnaire d'apprentissage supervisé joint (SLOD) au classificateur et 2) vingt dictionnaires d'apprentissage séparés des signaux associés aux cas stable/instable. Alors que le SLOD utilise des dictionnaires adaptatifs inspirés des données mesurées et apprises hors-ligne, la deuxième approche utilise des dictionnaires fixes pour reconstruire séparément les signaux des classes stables et instables. Dans les deux cas, l'étape finale consiste à identifier automatiquement en temps réel, la classe d'appartenance d'une réponse par reconstruction des signaux associés à partir des dictionnaires appris hors-ligne. L'analyse parcimonieuse des réponses des générateurs sur un dictionnaire d'apprentissage adaptatif joint au classificateur a été implémenté à partir de l'algorithme K-singular value de composition (KSVD) couplé à l'orthogonal matching pursuit (OMP), afin de reconstruire et prédire la stabilité dynamique des réseaux électriques. De plus, vingt décompositions parcimonieuses des signaux sur des dictionnaires fixes (simples et hybrides) ont permis de développer des classificateurs prédisant chaque classe séparément sur la base de la transformée en cosinus discrète (DCT), en sinus discrète (DST), en ondelette (DWT), de la transformée de Haar (DHT), et le dictionnaire de Dirac (DI) couplés à l'orthogonal matching pursuit (OMP). Cette étude démontre que la décomposition parcimonieuse sur un dictionnaire adaptatif joint au classificateur offre une performance proche de l'idéal (c'est-à-dire : 99,99 % précision, 99,99 % sécurité et 99,99 % fiabilité) de loin supérieure à celle d'un classificateur à reconstruction de signaux basée sur les vingt dictionnaires fixes ou adaptatifs séparés, et les classificateurs basés sur les moteurs de machine learning (SVM, ANN, DT, RF, AdaBoost, CNN et LSTM) implémentés à partir des indices HDSI extraits de la base de données des vitesses des rotors des réseaux IEEE 2 area 4 machines, IEEE 39 -bus et IEEE 68 -bus. Toutefois, le temps de resimulation (replay) en temps réel des dictionnaires fixes/adaptatifs séparés est nettement inférieur (de 30-40%) à celui observé pour le dictionnaire adaptatif à classificateur joint / SLOD, et les algorithmes modernes de machine learning utilisant les attributs de type HDSI comme intrants. / In recent decades, the integration of smart sensors incorporating synchronized phasor measurements units (PMU) into power grids has contributed to a significant improvement of the databases for real-time monitoring of power grid stability. In parallel, the fight against climate change has been accompanied by a widespread deployment of renewable energy sources whose intermittency of production and the lack of inertia due to the interface of the latter by power electronics; contribute to increase the risks of instability following network contingencies. In this context, we propose to apply new data intelligence approaches inspired by massive time series analysis and supervised dictionary learning to synchrophasor data, allowing the extraction of hundreds of attributes concisely describing the dynamic state estimates of power system generators. The physical meaning identification of these attributes then allows for an online classification of dynamic stability, thus moving away from the black boxes produced by «blind» deep learning of time series to a transparent approach more suitable for the network control room and acceptable to operating engineers. This human-interpretable machine learning approach also leads to reliable detection, using short windows of generator speed data directly measured or reconstructed by dynamic state estimation from the instant of fault elimination, to detect any subsequent instability, with sufficient preemption time to activate false measures to safeguard the network stability and thus prevent major outages. Our work addresses the exploitation of this new information through two complementary data intelligence approaches : 1) a non-sparse analysis of an attribute base numbering in the hundreds, computed automatically by massive numerical analysis of post-contingency response signal time series from generators; and 2) a sparse analysis exploiting supervised learning of large overcomplete dictionaries to enable instability prediction over short windows of data with a hollow vector representation (containing a large number of zeros) and thus numerically very efficient in addition to the inherent interpretability of the atoms constituting the dictionaries. Methodologically, the non-sparse approach aims to implement several combined analytical methods (including Fourier transform, wavelet transform, Welch's method, periodogram method and Lyapunov exponents) to extract hundreds of labeled attributes from the response signal of each generator and used to construct a physical space of high-dimensional stability indicators (HDSI). These are used to develop stability predictors based on standard machine learning algorithms, e.g., CNN, LSTM, SVM, AdaBoost or random forests. The implemented sparse approach consists in developing two complementary techniques: 1) a supervised learning dictionary attached (SLOD) to the classifier and 2) twenty separate dictionaries learning of the signals associated with the stable/instable cases. While the SLOD uses adaptive dictionaries inspired by the measured and learned offline data, the second approach uses fixed dictionaries to reconstruct the stable and unstable signals classes separately. In both cases, the final step is automatically identified in real time the status to which a response belongs by reconstructing the associated signals from the off-line learned dictionaries. The sparse analysis of generator responses on an adaptive learning dictionary attached to the classifier was implemented using the K-singular value decomposition (KSVD) algorithm coupled with orthogonal matching pursuit (OMP), to reconstruct and predict online the dynamic stability of power systems. In addition, twenty sparse signal decompositions on fixed dictionaries (simple and hybrid) were used to develop classifiers predicting each class separately based on the discrete cosine transform (DCT), discrete sine transform (DST), wavelet transform (DWT), Haar transform (DHT), and Dirac dictionary (DI) coupled with the orthogonal matching pursuit (OMP). This study demonstrates that sparse decomposition on joined adaptive dictionary to the classifier provides near ideal performance (i.e.: 99.99% accuracy, 99.99% security, and 99.99% reliability) far superior to that of a classifier has signal reconstruction based on the twenty separate fixed or adaptive dictionaries and classifiers based on machine learning engines (SVM, ANN, DT, RF, AdaBoost, CNN, and LSTM) implemented from HDSI indices extracted from the rotor speed database of the IEEE 2 area 4 machines, IEEE 39 -bus, and IEEE 68 -bus test systems. However, the real-time replay time of the separate fixed/adaptive dictionaries is significantly lower (by 30-40%) than that observed for the adaptive dictionary with joint classifier/SLOD, and modern machine learning algorithms using HDSI-like attributes as inputs.
63

Contributions à l'amélioration de la performance statique des réseaux T & D intégrés en présence des REDs

Mohseni Bonab, Seyed Masoud 13 December 2023 (has links)
Avec la croissance des nouvelles technologies émergentes dans les réseaux de distribution, tels que les éoliennes, les panneaux solaires, les véhicules électriques et les sources de génération distribuées, la nécessité d'étudier simultanément les réseaux de transmission et de distribution (T&D) et leurs interactions bilatérales ne peut plus être négligée. Une forte pénétration des sources d'énergie renouvelable, naturellement stochastiques, peut inverser le flux d'énergie, ce qui ne rentre pas dans le paradigme d’un écoulement de puissance à flux descendant qui caractérise les systèmes d'alimentation conventionnels. Par conséquent, les méthodes d'étude de réseaux telles que le fux de puissance optimal (Optimal Power Flow), l'engagement des groupes de production (unit commitment) et l'analyse de la stabilité doivent être revisitées. Cette thèse propose l'application de systèmes de stockage d'énergie sur batterie (BESS) dans un cadre intégré de T&D minimisant les impacts négatifs des énergies renouvelables insérées dans le réseau de distribution ou chez le client. Les BESS peuvent être interprétés comme des équipements flexibles supplémentaires, contrôlés à distance et/ou localement, qui absorbent ou libèrent des puissances actives et réactives et améliorent l'efficacité globale du système T&D au complet du point de vue de la stabilité et de la performance dynamique. Selon la pratique courante, les études des systèmes T&D intégrés peuvent être classées en sous-groupes d’études dynamiques vs stationnaires ou en sous-groupes d’études de cooptimisation vs co-simulation. Suivant la même approche, l’analyse à l’état d’équilibre est d’abord lancée par un nouvel outil d’allocation optimisée stochastique de BESS (VSCSOBA) à contrainte de stabilité de tension. L'outil d'optimisation développé basé sur GAMS à deux niveaux prend en compte les BESS et des modèles détaillés de ressources énergétiques distribuées stochastiques tout en minimisant principalement les pertes de puissance active, mais les écarts de tension, les coûts de délestage, l'augmentation de la capacité de charge (chargeabilité ou « loadbility ») ainsi que la réduction de la vulnérabilité sont aussi des fonctions objectives qui ont été considérées. L’applicabilité de l’outil proposé a été confirmée sur des cas d’utilisation basés sur des réseaux T&D benchmark de l’IEEE comportant des centaines de variables et contraintes. Dans la partie suivante, l'architecture du framework de co-simulation, ainsi que les différents acteurs clés qui y participent seront examinés. Les objectifs de cette partie sont les suivants : développer, simuler et résoudre des équations algébriques de chaque niveau indépendamment, à l'aide de simulateurs bien connus, spécifiques à un domaine (c’est-à-dire, transport vs distribution), tout en assurant une interface externe pour l'échange de données. L'outil d'interface devrait établir une connexion de partage de données robuste, fiable et bilatérale entre deux niveaux de système. Les idées et les méthodologies proposées seront discutées. Pour completer cette étude, La commutation optimale de réseaux de transport (Optimal Transmission Switching) en tant que nouvelle méthode de réduction des coûts d'exploitation est considérée d'un point de vue de la sécurité, en assument ou non la présence des BESS. De toute évidence, l'OTS est un moyen efficace (tout comme la référence de tension ou le contrôle des références de puissances P-Q) qui s’avère nécessaire dans le cadre T&D intégré, tel que nous le démontrons à travers divers cas d'utilisation. Pour ce faire, afin de préserver la sécurité des systèmes de transport d'électricité contre les attaques ou les catastrophes naturelles telles que les ouragans et les pannes, un problème OTS stochastique orienté vulnérabilité (VO-SOTS) est également introduit dans cette thèse tout en considérant l'incertitude des charges via une approche par échantillonage de scénarios respectant la distribution statistique des incertitudes. / With the growing trend of emerging new technologies in distribution networks, such as wind turbines, solar panels, electric vehicles, and distributed generations, the need for simultaneously studying Transmission & Distribution (T&D) networks and their bilateral interactions cannot be overlooked anymore. High penetration of naturally stochastic renewable energy sources may reverse the energy flow which does not fit in the top-down energy transfer paradigm of conventional power systems. Consequently, network study methods such as optimal power flow, unit commitment, and static stability analysis need to be revised. This thesis proposes application of battery energy storage systems (BESS) within integrated T&D framework minimizing the adverse impacts of renewable energy resources. The BESSs can be interpreted as additional flexible equipment, remotely and/or locally controlled, which absorb or release both active and reactive powers and improve the overall efficiency of the complete T&D system from both steady-state and dynamic viewpoints. As a common practice, the integrated T&D framework studies are categorized into either dynamic and steady-state subcases or co-optimization framework and co-simulation framework. Following the same approach, the steady-state analysis is first initiated by a novel voltage stability constrained stochastic optimal BESS allocation (VSC-SOBA) tool. The developed bi-level GAMS-based optimization tool takes into account BESSs and detailed models of stochastic distributed energy resources while minimizing active power losses, voltage deviation, load shedding costs, increasing loadability, and vulnerability mitigation are objective functions. The applicability of proposed tool has been confirmed over large IEEE recognized T&D benchmarks with hundreds of variables and constraints. In the next part, the architecture of co-simulation framework and different key players will be investigated. The objectives of this part are set as: developing, simulating, and solving differential and algebraic equations of each level independently, using existing well-known domain-specific simulators, while externally-interfaced for exchanging data. The interface tool should stablish a robust, reliable, and bilateral data sharing connection between two levels of system. The ideas and proposed methodologies will be discussed. To complete this study, optimal transmission switching (OTS) as a new method for reduction of operation costs is next considered from a security point of view. It is shown clearly that OTS is an effective mean (just like voltage reference or P-Q reference control), which is necessary in the integrated T&D framework to make it useful in dealing with various emerging use cases. To do so without impeding the security of power transmission systems against attacks or natural disasters such as hurricane and outages, a vulnerability oriented stochastic OTS (VO-SOTS) problem is also introduced in this thesis, while considering the loads uncertainty via a scenario-based approach.
64

Optimisation de la consommation d'énergie dans un environnement Cloud

Choukairy, Fatima Ezzahra 02 May 2024 (has links)
Depuis une dizaine d'années, la dématérialisation de l'information connaît un essor particulier avec l'ascension du Cloud Computing. La demande sans cesse croissante et le souci de fournir une certaine qualité de service obligent les fournisseurs à investir d'importants capitaux afin de multiplier leurs offres d'hébergement dans plusieurs zones géographiques. Avec ce déploiement à grande échelle d'énormes centres de données, la consommation énergétique du Cloud augmente en conséquence. De ce fait, plusieurs études portant sur la minimisation de la consommation énergétique du Cloud ont été récemment effectuées, en considérant les différentes techniques de réduction de l'énergie consommée. Ce mémoire propose une méthode basée sur l'intégration d'un algorithme d'ordonnancement, d'une technique de réduction de tension et de fréquence du processeur de chaque serveur (appelée DVFS pour Dynamic Voltage and Frequency Scaling), ainsi que du processus de migration des machines virtuelles (VMs). Cette méthode vise à minimiser la consommation de l'énergie dans un environnement Cloud, tout en respectant les exigences de qualité de service. Ce travail de recherche est réalisé en trois phases. Dans la première phase, nous menons une étude sur les différentes techniques de minimisation de la consommation d'énergie. Dans la deuxième phase, nous analysons ces techniques et proposons une méthode basée sur la combinaison de l'algorithme d'ordonnancement Green Scheduler, de la technique DVFS et de la migration des VMs. Afin d'évaluer l'efficacité de cette méthode, nous effectuons, dans la troisième phase, une mise en œuvre et une analyse des résultats issus de trois séries de simulations. Ces résultats montrent que la méthode proposée est en mesure de réduire l'énergie consommée par les serveurs d'une moyenne de 5% par rapport à l'utilisation d'autres méthodes de la littérature. Cette réduction peut atteindre 7.5% dans certaines circonstances. Les résultats de simulations montrent également que la méthode proposée permet de respecter les exigences de qualité de services dans toutes les conditions de fonctionnement du Cloud. / The last decade has witnessed a rapid rise in Cloud Computing usage, which has led to the dematerialization of data centers. The increased use of data centers has an impact on the energy consumption. Therefore, several studies relating to the optimization of energy consumption were recently carried out, hence various techniques aiming to reduce the power consumption were adopted. In this thesis, we propose a method based on the integration of a scheduling algorithm, the DVFS technique and the virtual machine (VM) migration. This method aims to minimize the consumption of energy in a Cloud environment subject to the quality of service. For this purpose, we firstly conduct a study on different techniques which aim to minimize energy consumption. Secondly, we analyze these techniques and propose a method based on the combination of the Green Scheduler algorithm, the DVFS technique and the VM migration. Thirdly, we choose Green Scheduler to perform three sets of simulations. Simulation results show that the proposed method is able to reduce the energy consumed by the servers by an average of 5% compared to the use of other existing methods. This reduction can reach 7.5% under certain circumstances. Such results also show that the proposed method always meets the quality of service requirements. / Ajustement dynamique de la tension
65

Développement d'un concentrateur solaire dans une perspective d'exploitation durable de l'énergie solaire

Pronovost, Francis 17 April 2018 (has links)
Le présent mémoire nous rappelle d'abord en quoi consiste le développement durable. Toute la théorie générale touchant l'exploitation de l'énergie solaire est ensuite expliquée. On parle des défis liés à l'exploitation de l'énergie solaire et un survol des différentes familles de collecteurs solaires et de leurs particularités est fait. Par la suite, l'emphase est mise sur les collecteurs de type concentrateur. Le choix de ce type de collecteur est succinctement justifié et la théorie qui régit ce type de capteur est expliquée afin de mieux comprendre les travaux effectués. Suivent ensuite les analyses démontrant le fort potentiel de l'énergie solaire et de l'utilisation d'un concentrateur pour l'exploitation de cette dernière. Les travaux faits pour le développement du concentrateur et de ses composantes font suite, permettant d'en arriver à l'établissement d'un plan de développement futur compte tenu des résultats obtenus subséquemment.
66

Étude de l'impact des conditions hydrodynamiques d'une cellule d'électrodialyse avec membranes bipolaires sur la formation de colmatage protéique au cours de l'électroacidification sous champs électriques pulsés de produits laitiers

Nichka, Vladlen 13 December 2023 (has links)
Mémoire ou thèse en cotutelle / L'électrodialyse (ÉD) est largement utilisée dans diverses industries, y compris l'industrie alimentaire (pour la désacidification des jus de fruits et du vin, la déminéralisation du lactosérum, etc.). Cependant, les membranes utilisées dans le traitement des solutions alimentaires sont souvent sujettes au colmatage. Le colmatage, dépôt de différentes espèces sur la surface ou à l'intérieur du matériau, dégrade considérablement les performances et la durée de vie des membranes, ce qui conduit à la nécessité de leur remplacement et de leur nettoyage régulier. À cet égard, la formation de dépôts à la surface des membranes entraîne une augmentation du coût de l'ensemble du procédé d'électrodialyse (ÉD). La détermination des moyens pour réduire le colmatage est une problématique réelle, en particulier dans l'industrie alimentaire, qui traite des solutions complexes. Cette thèse consistait à déterminer la contribution du débit de la solution dans la cellule d'ÉD à l'échelle laboratoire, ainsi que des modes de courant électrique sur la cinétique de colmatage protéique (formation de dépôts protéiques) des membranes bipolaires (MB) lors du traitement d'électroacidification par ÉD de solutions laitières. La nouveauté scientifique et l'originalité du travail tiennent au fait qu'à notre connaissance, il n'y a jamais eu d'évaluation de l'effet combiné du débit de solution et d'utilisation de régimes de champ électrique pulsé (CÉP), alternant des impulsions de courant et des pauses (courant égal à zero), sur cette cinétique de colmatage . De plus, dans le cadre de cette étude, un modèle mathématique a été développé, pour la première fois, afin de tenter de décrire la cinétique de formation et de dissolution des dépôts de protéines au cours du processus d'ÉDMB. L'objectif principal de la première étape de la thèse était de déterminer l'effet du débit de solution et du mode de courant électrique sur la cinétique de colmatage protéique des membranes lors du procédé d'électrodialyse à membranes bipolaires du lait écrémé. Deux modes de courant électrique ont été utilisés : le mode de courant traditionnel, à savoir le courant continu (CC) et le CÉP. Un seul régime d'impulsion-pause de CÉP a été étudié, dans lequel 10 s d'impulsion alternaient avec 50 s de pause. De plus, cinq débits différents de solution ont été testés et correspondant aux nombres de Reynolds (Re) suivants : 162, 242, 323, 404 et 485. Les résultats obtenus en mode CÉP ont été comparés aux données obtenues en mode CC sur une même base de nombre de charges transportées pendant l'expérience. Des dépôts de protéines sur la couche échangeuse de cations de la membrane bipolaire (MB) en mode CC ont été trouvés, quel que soit le débit de solution appliqué. Les résultats ont montré que l'utilisation de CÉP empêchait presque complètement la formation de colmatage protéique sur la surface de la MB, quel que soit le débit de la solution dans le canal de la cellule d'ÉD. Il a ainsi été démontré que la minimisation du colmatage est principalement liée à l'utilisation de CÉP en comparaison avec l'augmentation du débit de solution. L'objectif de la deuxième étape du projet était d'optimiser le régime actuel de CÉP afin de minimiser davantage le colmatage des protéines sur la surface de la MB. Dans cette partie du travail, l'effet combiné du débit de la solution et de différents régimes d'impulsion-pause de CÉP a été étudié sur la quantité de protéines déposée durant le processus d'ÉDMB d'une solution modèle de caséinate de sodium. Ainsi, trois débits (correspondant à des nombres de Reynolds de 187, 374 et 560) pour la solution d'alimentation et quatre régimes d'impulsion-pause (avec des rapports Ton/Toff égaux à 10 s-10 s, 10 s-20 s, 10 s-33 s et 10 s-50 s) ont été évalués à une densité de courant de 5 mA/cm². Un colmatage protéique a été observé sur la couche échangeuse de cations de la MB dans toutes les conditions expérimentales considérées, et cela quels que soient le régime de courant et le débit de solution. Il a cependant été constaté que l'augmentation du temps de pause et du débit de la solution de caséinate avaient un impact positif sur la minimisation du colmatage protéique à la surface cationique de la MB. Une pause longue et un débit élevé ont contribué à une diminution plus efficace de la concentration de protons et d'anions caséinates à la surface de la MBP: Une diminution de 87 % de la quantité de colmatage de la membrane a été obtenue avec 50 s de temps de pause en CÉP et un débit correspondant à Re = 374. Une augmentation supplémentaire du temps de pause en CÉP (au-dessus de 50 s) ou du débit (au-dessus de Re = 374) n'a pas entraîné de diminution significative de la quantité de colmatage. La dernière étape du travail a été la modélisation mathématique du processus à l'étude afin de mieux comprendre le mécanisme d'attachement et de croissance du colmatage au cours de l'ÉDBM. Dans cette partie du projet, un modèle unidimensionnel d'ÉDBM d'une solution de caséinate de sodium a été développé. Il est basé sur l'équation de Nernst-Planck sous la condition d'électroneutralité locale. Le modèle prend en compte le transfert de 6 espèces ioniques (Na⁺, K⁺, H⁺, Cl⁻, OH⁻ et anions caséinate (Cas⁻)), ainsi que des molécules non chargées de caséine, qui précipitent (HCas⁰). La géométrie du modèle cible la surface de la couche échangeuse de cations de la MB d'un côté et le volume de la solution agitée de l'autre. Les paramètres hydrodynamiques du système sont pris en compte à travers l'épaisseur de la couche de diffusion. Le modèle développé permet le calcul des concentrations ioniques dans la solution traitée et décrit qualitativement la cinétique de colmatage des protéines à la surface de la MB. Il a ainsi été montré qu'une augmentation du temps de pause en CÉP entraîne une diminution de l'épaisseur des dépôts protéiques en surface. Les meilleurs résultats en termes de minimisation des dépôts ont été obtenus pour le régime de CÉP de 10 s-50 s, ce qui est cohérent avec les résultats expérimentaux obtenus précédemment. Le plus grand effet anticolmatant a été obtenu avec une durée d'impulsion de courant de 10 s et une pause de 50 s en combinaison avec un nombre de Reynolds de 560. La combinaison optimale du mode de courant et paramètre hydrodynamique a réduit la masse du dépôt de caséine à la surface de la MB de 78 % par rapport au régime de CÉP de 10 s-10 s combiné avec un nombre de Reynolds de 187. Les résultats obtenus dans cette thèse de doctorat ont démontré pour la première fois les impacts du mode hydrodynamique dans la cellule d'ÉD, du mode de courant électrique ainsi que du régime de courant en CÉP sur la cinétique de colmatage dans la cellule d'ÉDBM lors de l'électroacidification de solutions laitières. De plus, le modèle développé a permis de prédire qualitativement la quantité de dépôt à la surface de la membrane en fonction du débit (nombre de Reynolds) et de la combinaison impulsion/pause de CÉP appliqués. Les perspectives futures du travail sont la transition vers un système d'ÉD semi-industriel, l'utilisation d'autres types d'espaceurs, l'utilisation de membranes modifiées avec une hétérogénéité géométrique, le test d'autres modes impulsion-pause de CÉP. De plus, concernant la modélisation, le modèle développé pourrait être amélioré en passant par un système bidimensionnel, prenant en compte les molécules protéiques chargées positivement, ainsi que la présence d'un espaceur dans le canal d'acidification/déminéralisation. / Electrodialysis (ED) is widely used in various industries, including food industry (for deacidification of fruit juices and wine, demineralization of whey, etc.). However, membranes used in the processing of food solutions are often prone to fouling due to the solution complexity. Fouling, deposition of different species on the surface or inside the material, significantly degrades the performance and lifetime of membranes, leading to their regular replacement and cleaning. Hence, the formation of deposits on the surface of membranes leads to an increase in the cost of the entire electrodialysis (ED) process. The determination of ways to decrease fouling is a main actual concern, especially in the food industry, which treats complex solutions. This PhD thesis consisted in determining the contribution of the flow rate of the solution in an ED cell at laboratory scale, as well as of the electric current modes on the protein fouling kinetics (formation of protein deposits) on bipolar membranes (BPM) during electroacidification by ED of milk solutions. The scientific novelty and originality of the work are based on the fact that, as far as we know, there have been no assessments of the combined effect of both solution flow rate and use of pulsed electric field (PEF) regimes, in which CC pulses alternate with pauses (zero current), on such protein fouling kinetics. Also, within the framework of the study, a tentative mathematical model was developed, for the first time, to allow to describe the formation and dissolution kinetics of protein deposits during EDBM process. The main objective of the study at the first stage of the thesis was to determine the effect of solution flow rate and electrical current mode on the protein fouling kinetics on membranes during the process of electrodialysis with bipolar membranes of skim milk. Two electrical modes of current were used: the traditional mode of current, namely continuous current (CC) and PEF. One PEF regime was studied, in which 10 s of pulse lapse alternated with 50 s of pause. Additionally, five different flow rates of solution were tested corresponding to the following Reynolds numbers (Re): 162, 242, 323, 404, and 485. The results obtained in the PEF mode were compared with the data obtained in the CC mode with respect to the same number of charges transported during the experiment. Protein deposits on the cation exchange layer of the BPM using CC were found, regardless of the solution flow rate applied. However, the use of PEF allows to prevent the protein fouling formation on the BPM surface almost completely, regardless of the solution flow rate in the channel of the of ED cell. Furthermore, it has been shown that the use of PEF has the main effect in terms of fouling minimization compared to the effect of increasing solution flow rate. The objective of the thesis at the second stage of the project was to optimize the PEF current mode to further minimize protein fouling on the BPM surface. During this stage, the combined effect of solution flow rate and different PEF regimes on the amount of protein deposit during EDBM of a model sodium caseinate solution was investigated. To achieve this objective three different flow rates of the feed solution (corresponding to Reynolds numbers of 187, 374 and 560) and four different pulse-pause regimes (Ton/Toff ratios equal to 10 s-10 s, 10 s- 20 s, 10 s-33 s and 10 s-50 s) during EDBM treatment were evaluated at a current density of 5 mA/cm². Protein fouling was observed on the cation-exchange layer of BPM for all the experimental conditions considered, regardless of the PEF regime and the solution flow rate. It was found that increasing both pause duration and caseinate solution flow rate had a positive impact on protein fouling minimization occurring on the BPM cationic surface. A long pause associated with a high flow rate contribute to a more effective decrease in the concentration of protons and caseinate anions at the BPM surface: a very good membrane performance was achieved with 50 s of pause duration of PEF and a flow rate corresponding to Re = 374 (decrease in the amount of fouling by 87%). A further increase in PEF pause duration (above 50 s) or flow rate (above Re = 374) did not lead to a significant decrease in the amount of fouling. The next step of the work was the mathematical modelling of the process under study for better understanding the mechanism of fouling attachment and growth during EDBM. In this part of the project, a one-dimensional model of EDBM for sodium caseinate solution was developed. It is based on the Nernst-Planck equation under the local electroneutrality condition. The model takes into account the transfer of 6 ionic species (Na⁺, K⁺, H⁺, Cl⁻ , OH⁻ and caseinate anions (Cas⁻)), as well as uncharged molecules of casein, which precipitate (HCas⁰). The geometry of the model is the surface of the BPM cation-exchange layer on the one side and the volume of the stirred solution on the other. The hydrodynamic parameters in the system are taken into account through the diffusion layer thickness. The developed model allows the calculation of the ionic concentrations in the system and to qualitatively describe the kinetics of BPM protein fouling. It has been shown that an increase in the pause duration of PEF leads to a decrease in the thickness of the protein deposits at the BPM surface. The best results in terms of deposit minimization were achieved under the 10 s-50 s PEF regime, which is consistent with the experimental results obtained earlier. The greatest positive antifouling effect was achieved with a current pulse duration of 10 s and a pause of 50 s in combination with Reynolds number of 560. The synergistic combination of optimal current and hydrodynamic modes reduced the mass of casein deposits on the surface of the BPM by 78% compared to the 10 s-10 s PEF regime in combination with Reynolds number of 187. The results obtained in this Ph.D. thesis demonstrated for the first time the impact of the hydrodynamic parameter in the ED cell, the mode of electric current and the PEF regime on fouling kinetics in the process of EDBM of dairy solutions. Additionally, the developed model makes it possible to qualitatively predict the amount of deposit on the membrane surface depending on the flow rate (the Reynolds number) in the desalination compartment and PEF regime applied. The main perspectives of the work are the transition to a semi-industrial ED system, use of other types of spacers, use of modified membranes with geometric heterogeneity, testing of other pulse-pause modes of PEF. Regarding the modeling, the developed model could be improved, namely to transit to a two-dimensional system, taking into account positively charged protein molecules, as well as the presence of a spacer in the acidification/desalting channel.
67

Les comportements quotidiens dans l'espace et le temps et la consommation d'énergie

L'Huillier, Marc-André 04 November 2024 (has links)
Ce travail, présenté dans le cadre d'une thèse de maîtrise en Géographie, porte essentiellement sur les budgets espace -temps des habitants de l'agglomération de Québec et sur la consommation d'énergie qui en découle. Il essaie de voir ensuite quelles réactions auront ces individus face aux prochaines augmentations du prix de l'énergie et tente finalement de prévoir comment ces réactions risquent de perturber leurs budgets - espace-temps . La partie théorique est une présentation des concepts de la Géographie du Temps, principalement du concept de budgets espace-temps qui représente pour un individu l'ensemble de ses comportements dans un espace et dans un temps donnés. Dans ce travail, l'espace et le temps sont définis respectivement par la région urbaine de Québec et par les vingt-quatre heures d'une journée de la semaine. La partie théorique présente également la problématique, les hypothèses et les objectifs du travail et les méthodes de recherche. La principale hypothèse est que l'augmentation future des coûts de déplacements et de chauffage risque de perturber les budgets - espace-temps des individus. Son objectif majeur est de prévoir comment ces perturbations peuvent être minimisées. Le deuxième chapitre analyse la structure de l'espace social de la région métropolitaine de Québec pour en dégager six secteurs d'enquête représentatifs, à l'intérieur desquels est tiré au sort un échantillon de population. Le troisième chapitre présente les méthodes d'enquête, l'enquête elle-même et les caractéristiques de l'échantillon, comparé dans le dernier tableau avec le recensement fédéral de dix-neuf cents soixante-seize (1976).Le quatrième chapitre, qui traite des systèmes d'activité (budgets-temps) , constate qu'il se dessine une structure des comportements dans le temps en fonction d'un facteur: l'activité principale des individus, qui dépend essentiellement du sexe et de l'age des personnes. Le quartier de résidence, le type de logement ou d'autres facteurs ne semblent pas influencer ces comportements. Le cinquième chapitre analyse les espaces d'action (budgets-espace) des Québécois. Il s'y dégage un très net lien avec les systèmes d'activité et le même facteur dominant (activité principale) détermine leur typologie. Le revenu et le quartier de résidence semblent toutefois agir comme facteurs secondaires dans certains comportements spatiaux. Le sixième chapitre traite de l'énergie consommée par les individus lors de leurs mouvements dans 1 ' es pace-temp9. Le quartier de résidence devient cette fois un facteur aussi déterminant que l'activité principale. Le chapitre analyse ensuite les réactions possibles des individus face à la hausse, prochaine des prix de l'énergie. Si cette augmentation n'apparait pas comme une préoccupation majeure actuellement, les principales solutions envisagées en ce domaine sont la diminution des déplacements ou l'augmentation des frais de chauffage ou de transport. Peu de solutions énergiques sont proposées. La plupart des gens n'envisage pas par exemple l'éventualité d'un déménagement et reste fidèle à son quartier et son type de logement. La conclusion se réserve le temps de faire la démarche inverse du travail et de prévoir comment les solutions des individus risquent de perturber leurs budgets - espace-temps. Elle essaie finalement de proposer quelques politiques à entreprendre pour minimiser ces perturbations.
68

Modélisation et optimisation de la recharge bidirectionnelle de véhicules électriques : application à la régulation électrique d'un complexe immobilier

Tanguy, Kevin 19 April 2018 (has links)
La démocratisation des véhicules hybrides branchables ainsi que des véhicules purement électriques implique un surplus de demande sur les réseaux de distribution. Le Vehicle-to-Grid (V2G) ou le Vehicle-to-Building (V2B) visent à répondre à cette demande accrue en utilisant les véhicules non plus comme de simples charges pour le réseau électrique mais comme des acteurs effectuant des échanges bidirectionnels. Les travaux présentés dans ce mémoire montrent, avec des données réelles du campus de l’Université Laval, une modélisation de flottes de véhicules et l’application d’un modèle d’optimisation linéaire que le V2B peut permettre de réaliser des gains financiers partagés entre les acteurs tout en rechargeant efficacement les véhicules participants. / The democratization of plug-in hybrid electric vehicles along with purely electric vehicles causes an increased electric demand on the power grid. Vehicle-to-Grid (V2G) or Vehicle-to-Building (V2B) aim to bring an appropriate response to this increased demand, by not simply considering vehicles as loads for the grid but as actors making bidirectionnal exchanges. The works presented in this master’s thesis show, with real data on the Université Laval campus, a modelling of vehicle fleets and the application of a linear optimization model, that V2B can provide financial gain shared between the actors of the system, while charging the vehicles efficiently.
69

Vortex, entropies et énergies de ligne en micromagnétisme / Vortices, entropies and line-energies in micromagnetism

Bochard, Pierre 24 June 2015 (has links)
Cette thèse traite de questions mathématiques posées par des problèmes issus du micromagnétisme ; un thème central en est les champs de vecteur de rotationnel nul et de norme 1, qu'on voit naturellement apparaître comme configurations minimisant des énergies micromagnétiques.Le premier chapitre est motivé par la question suivante : peut-on, en dimension plus grande que deux, caractériser les champs de vecteur de rotationnel nul et de norme 1 par une formulation cinétique ?Une telle formulation a d'abord été introduite en dimension 2 dans l'article \cite{Jabin_Otto_Perthame_Line_energy_2002} de Jabin, Otto et Perthame où elle apparaît naturellement dans le cadre de la minimisation d'une énergie de type Ginzburg-Landau. Ignat et De Lellis ont ensuite montré dans \cite{DeLellis_Ignat_Regularizing_2014} qu'une telle formulation cinétique caractérise les champs de rotationnel nul et de norme 1 possédant une certaine régularité en dimension 2. Le premier chapitre de cette thèse est consacré à l'étude d'une formulation cinétique similaire en dimension quelconque ; le résultat principal en est qu'en dimension strictement plus grande que 2, cette fomulation cinétique ne caractérise non plus tous les champs de rotationnel nul et de norme 1, mais seulement les champs constants ou les vortex.La caractérsation cinétique des champs de vecteur de rotationnel nul et de norme 1 en dimension 2,prouvée par De Lellis et Ignat et que nous venons de mentionner reposait sur la notion d'entropie.Ayant obtenu une formulation cinétique en dimension quelconque, il était naturel de vouloir l'exploiter un tentant d'étendre également la notion d'entropie aux dimensions supérieures à 2. C'est ce à quoi est consacré le deuxième chapitre de cette thèse ; nous y définissons en particulier une notion d'entropie en dimension quelconque. Le point central en est la caractérisation de ces entropies par un système d'\équations aux dérivées partielles, et leur description complète en dimension 3, ainsi que la preuve pour ces entropies de propriétés tout à fait semblables à celles des entropies deux dimensionnelles.Le troisième chapitre de cette thèse, qui expose les résultats d'un travail en collaboration avec Antonin Monteil, s'intéresse à la minimisation d'\'energies de type Aviles-Giga de la forme $\mathcal_f(m)=\int_f(|m^+-m^-|)$ o\`u $m$ est un champ de rotationnel nul et de norme 1 et où $J(m)$ désigne les lignes de saut de $m$. Deux questions classiques se posent pour ce type d'énergie : la solution de viscosité de l'équation eikonale est-elle un minimiseur et l'énergie est-elle semi-continue inférieurement pour une certaine topologie. Le résutat principal de cette partie est un construction, qui nous permet en particulier de répondre par la négative à ces deux questions dans les cas où $f(t)= t^p$ avec $p \in ]0,1[$ en donnant une condition nécessaire sur $f$ pour que $\mathcal_f$ soit semi-continue inférieurement.Enfin, le dernier chapitre de cette thèse est consacré à l'étude d'une variante de l'énergie de Ginzburg-Landau introduite par Béthuel, Brezis et Helein où on a remplacé la condition de bord par une pénalisation dépendant d'un paramètre. Nous y décrivons le comportement asymptotique de l'énergie minimale qui, suivant la valeur de ce paramètre, soit se comporte comme l'énergie de Ginzburg-Landau classique en privilégiant une configuration vortex, soit privilégie au contraire une configuration singulière suivant une ligne. / This thesis is motivated by mathematical questions arising from micromagnetism. One would say that a central topic of this thesis is curl-free vector fields taking value into the sphere. Such fields naturally arise as minimizers of micromagnetic-type energies. The first part of this thesis is motivated by the following question : can we find a kinetic formulation caracterizing curl-free vector fields taking value into the sphere in dimension greater than 2 ? Such a formulation has been found in two dimension by Jabin, Otto and Perthame in \cite. De Lellis and Ignat used this formulation in \cite{DeLellis_Ignat_Regularizing_2014} to caracterize curl-free vector fields taking value into the sphere with a given regularity. The main result of this part is the generalization of their kinetic formulation in any dimension and the proof that if $d>2$, this formulation caracterizes only constant vector fields and vorteces, i. e. vector fields of the form $\pm \frac$. The second part of this thesis is devoted to a generalization of the notion of \textit, which plays a key role in the article of De Lellis and Ignat we talked about above. We give a definition of entropy in any dimension, and prove properties quite similar to those enjoyed by the classical two-dimensional entropy. The third part of this thesis, which is the result of a joint work with Antonin Monteil, is about the study of an Aviles-Giga type energy. The main point of this part is a necessary condition for such an energy to be lower semi continuous. We give in particular an example of energy of this type for which the viscosity solution of the eikonal equation is \textit a minimizer. The last part, finally is devoted to the study of a Ginzburg-Landau type energy where we replace the boundary condition of the classical Ginzburg-Landau energy introduced by Béthuel, Brezis and Helein by a penalization within the energy at the critical scaling depending on a parameter. The core result of this part is the description of the asymptotic of the minimal energy, which, depending on the parameter, favorizes vortices-like configuration like in the classical Ginzburg-Landau case, or configurations singular along a line.
70

Matériaux ferromagnétiques : influence d'un espaceur mince non magnétique, et homogénéisation d'agencements multicouches, en présence de couplage sur la frontière

Santugini-Repiquet, Kévin 16 December 2004 (has links) (PDF)
Les matériaux ferromagnétiques jouent un rôle primordial dans les applications industrielles. Dans le cadre du modèle micromagnétique de Brown (1940), nous étudions l'influence d'un espaceur mince non magnétique sur le comportement d'un corps ferromagnétique. l'évolution dynamique est modélisée par l'équation de Landau-Lifchitz. Nous tenons compte des phénomènes de surface sur l'espaceur : le super-échange et l'anisotropie surfacique. Après avoir étudié le problème d'existence de cette équation en présence des termes de surfaces, nous établissons rigoureusement une condition équivalente de bord qui simule l'épaisseur de l'espaceur sur un domaine avec un espaceur sans épaisseur. Nous calculons lors les états d'équilibres et la susceptibilité hyperfréquence pour certaines configurations magnétiques. Dans une deuxième phase, nous homogénéisons l'équation de Landau-Lifchitz en domaine perforé et pour des agencements multicouches.

Page generated in 0.0447 seconds