• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 602
  • 221
  • 55
  • 3
  • 1
  • Tagged with
  • 867
  • 440
  • 176
  • 127
  • 92
  • 87
  • 75
  • 63
  • 62
  • 54
  • 53
  • 48
  • 47
  • 46
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Étude de la dégradation de films polymères minces sur substrats métalliques soumis à des électrons de basses énergies

Massey, Sylvain 13 April 2018 (has links)
Cette thèse présente l'utilisation des électrons de basses énergies (< 100 eV) pour la modification chimique de polymères. Le travail porte sur la dégradation sous impact électronique de couches minces polymères, de l'ordre nanométrique, sur des substrats métalliques. L'étude de la dégradation a été effectuée par spectrométrie de masse, permettant ainsi l'identification des groupements chimiques résultant de l'interaction électrons-molécules et émis de la surface du matériau irradié. Trois polymères ont été choisis pour cette étude, soit le poly (téréphtalate d'éthylène), le polystyrène et un fluoropolymère biomédical conçu comme couche de protection contre les agents dégradants sur les endoprothèses vasculaires. Les deux premiers polymères ont été sélectionnés afin d'étudier le vieillissement d'un diélectrique et la faisabilité d'un procédé de modification de surface permettant un contrôle précis des altérations chimiques suite au bombardement, tout en évitant l'implantation ionique. Dans le cas du fluoropolymère, l'étude par impact électronique de basses énergies a permis de simuler les conséquences de l'interaction des rayons X servant en imagerie avec le milieu organique environnant ou le métal constituant la prothèse. Cette interaction produit des électrons de basses énergies qui occasionnent une dégradation du fluoropolymère dont les produits peuvent être toxiques à la santé du patient. Les résultats démontrent que l'irradiation électronique produit une émission anionique selon deux mécanismes distincts. L'attachement dissociatif d'électrons est caractérisé par un processus résonant avec formation d'un anion temporaire excité dont l'énergie de maximum de rendement d'émission a été évaluée en dessous de 15 eV dans le cas des trois matériaux. Le second processus de production anionique est principalement caractérisé par une rupture directe non résonante de la liaison moléculaire (dissociation dipolaire) dont les énergies de seuil sont supérieures aux énergies de maximum de rendement de l'attachement dissociatif. Les fonctions d'émission cationique ne présentent aucun maximum d'émission caractéristique de l'attachement dissociatif et indiquent que seuls les processus non résonants produisent des ions positifs lors de la dégradation électronique. Suite aux résultats obtenus, des processus de dégradation sont suggérés, expliquant les mécanismes de dégradation de ces polymères sous irradiation électronique de basses énergies.
62

Prédiction de l'instabilité dynamique des réseaux électriques par apprentissage supervisé des signaux de réponses post-contingence sur des dictionnaires surcomplets

Teukam Dabou, Raoult 20 April 2022 (has links)
Ces dernières décennies, l'intégration aux réseaux électriques de capteurs intelligents incorporant la mesure synchronisée des phaseurs a contribué à enrichir considérablement les bases de données de surveillance en temps réel de la stabilité des réseaux électriques. En parallèle, la lutte aux changements climatiques s'est accompagnée d'un déploiement généralisé des sources d'énergies renouvelables dont l'intermittence de la production et le déficit d'inertie dû à l'interface de celle-ci par l'électronique de puissance, contribuent à augmenter les risques d'instabilité à la suite de contingences de réseau. Dans ce contexte, nous proposons d'appliquer aux données de synchrophaseurs de nouvelles approches d'intelligence de données inspirées par l'analyse massive des séries chronologiques et l'apprentissage sur des dictionnaires supervisés, permettant d'extraire des centaines d'attributs décrivant concisément les estimations d'état dynamique des générateurs de réseaux électriques. La mise en évidence d'une signification physique de ces attributs permet ensuite une classification de la stabilité dynamique qui s'éloigne de ce fait des boîtes noires produites par un apprentissage en profondeur « à l'aveugle » des séries chronologiques, pour évoluer vers une approche transparente plus adaptée à la salle de conduite des réseaux et acceptable pour les ingénieurs d'exploitation. Cette approche d'apprentissage machine « interprétable » par les humains, débouche de surcroît sur une détection fiable, utilisant de courtes fenêtres de données de vitesses d'alternateurs directement mesurées ou reconstituées par estimation d'état dynamique à partir de l'instant d'élimination du défaut, pour détecter toute instabilité subséquente, avec un temps de préemption suffisant pour activer des contremesures permettant de sauvegarder la stabilité du réseau et ainsi prévenir les pannes majeures. Notre travail aborde l'exploitation de cette nouvelle niche d'information par deux approches complémentaires d'intelligence des données : 1) une analyse non parcimonieuse d'une base d'attributs se chiffrant par centaines, calculés automatiquement par l'analyse numérique massive des séries chronologiques de signaux de réponses post-contingence des générateurs; et 2) une analyse parcimonieuse exploitant l'apprentissage supervisée de grands dictionnaires surcomplets pour habiliter une prédiction de l'instabilité sur de courtes fenêtres de données avec une représentation vectorielle creuse (contenant un grand nombre de zéros) et donc numériquement très efficiente en plus de l'interprétabilité inhérente des atomes constituant les dictionnaires. Au niveau méthodologique, l'approche non parcimonieuse vise à implémenter plusieurs méthodes analytiques combinées (notamment la transformée de Fourier, la transformée en ondelette, la méthode de Welch, la méthode de périodogramme et les exposants de Lyapunov) pour extraire du signal de réponse de chaque générateur des centaines d'attributs labellisés et servant à construire un espace physique d'indicateurs de stabilité à haute dimension (HDSI). Ceux-ci sont ensuite utilisés pour développer les prédicteurs de stabilité sur la base d'algorithmes standard de machine learning, par exemple le convolutional neural network (CNN), long short-term memory (LSTM), support vector machine (SVM), AdaBoost ou les forêts aléatoires. L'approche parcimonieuse implémentée consiste à développer deux techniques complémentaires : 1) un dictionnaire d'apprentissage supervisé joint (SLOD) au classificateur et 2) vingt dictionnaires d'apprentissage séparés des signaux associés aux cas stable/instable. Alors que le SLOD utilise des dictionnaires adaptatifs inspirés des données mesurées et apprises hors-ligne, la deuxième approche utilise des dictionnaires fixes pour reconstruire séparément les signaux des classes stables et instables. Dans les deux cas, l'étape finale consiste à identifier automatiquement en temps réel, la classe d'appartenance d'une réponse par reconstruction des signaux associés à partir des dictionnaires appris hors-ligne. L'analyse parcimonieuse des réponses des générateurs sur un dictionnaire d'apprentissage adaptatif joint au classificateur a été implémenté à partir de l'algorithme K-singular value de composition (KSVD) couplé à l'orthogonal matching pursuit (OMP), afin de reconstruire et prédire la stabilité dynamique des réseaux électriques. De plus, vingt décompositions parcimonieuses des signaux sur des dictionnaires fixes (simples et hybrides) ont permis de développer des classificateurs prédisant chaque classe séparément sur la base de la transformée en cosinus discrète (DCT), en sinus discrète (DST), en ondelette (DWT), de la transformée de Haar (DHT), et le dictionnaire de Dirac (DI) couplés à l'orthogonal matching pursuit (OMP). Cette étude démontre que la décomposition parcimonieuse sur un dictionnaire adaptatif joint au classificateur offre une performance proche de l'idéal (c'est-à-dire : 99,99 % précision, 99,99 % sécurité et 99,99 % fiabilité) de loin supérieure à celle d'un classificateur à reconstruction de signaux basée sur les vingt dictionnaires fixes ou adaptatifs séparés, et les classificateurs basés sur les moteurs de machine learning (SVM, ANN, DT, RF, AdaBoost, CNN et LSTM) implémentés à partir des indices HDSI extraits de la base de données des vitesses des rotors des réseaux IEEE 2 area 4 machines, IEEE 39 -bus et IEEE 68 -bus. Toutefois, le temps de resimulation (replay) en temps réel des dictionnaires fixes/adaptatifs séparés est nettement inférieur (de 30-40%) à celui observé pour le dictionnaire adaptatif à classificateur joint / SLOD, et les algorithmes modernes de machine learning utilisant les attributs de type HDSI comme intrants. / In recent decades, the integration of smart sensors incorporating synchronized phasor measurements units (PMU) into power grids has contributed to a significant improvement of the databases for real-time monitoring of power grid stability. In parallel, the fight against climate change has been accompanied by a widespread deployment of renewable energy sources whose intermittency of production and the lack of inertia due to the interface of the latter by power electronics; contribute to increase the risks of instability following network contingencies. In this context, we propose to apply new data intelligence approaches inspired by massive time series analysis and supervised dictionary learning to synchrophasor data, allowing the extraction of hundreds of attributes concisely describing the dynamic state estimates of power system generators. The physical meaning identification of these attributes then allows for an online classification of dynamic stability, thus moving away from the black boxes produced by «blind» deep learning of time series to a transparent approach more suitable for the network control room and acceptable to operating engineers. This human-interpretable machine learning approach also leads to reliable detection, using short windows of generator speed data directly measured or reconstructed by dynamic state estimation from the instant of fault elimination, to detect any subsequent instability, with sufficient preemption time to activate false measures to safeguard the network stability and thus prevent major outages. Our work addresses the exploitation of this new information through two complementary data intelligence approaches : 1) a non-sparse analysis of an attribute base numbering in the hundreds, computed automatically by massive numerical analysis of post-contingency response signal time series from generators; and 2) a sparse analysis exploiting supervised learning of large overcomplete dictionaries to enable instability prediction over short windows of data with a hollow vector representation (containing a large number of zeros) and thus numerically very efficient in addition to the inherent interpretability of the atoms constituting the dictionaries. Methodologically, the non-sparse approach aims to implement several combined analytical methods (including Fourier transform, wavelet transform, Welch's method, periodogram method and Lyapunov exponents) to extract hundreds of labeled attributes from the response signal of each generator and used to construct a physical space of high-dimensional stability indicators (HDSI). These are used to develop stability predictors based on standard machine learning algorithms, e.g., CNN, LSTM, SVM, AdaBoost or random forests. The implemented sparse approach consists in developing two complementary techniques: 1) a supervised learning dictionary attached (SLOD) to the classifier and 2) twenty separate dictionaries learning of the signals associated with the stable/instable cases. While the SLOD uses adaptive dictionaries inspired by the measured and learned offline data, the second approach uses fixed dictionaries to reconstruct the stable and unstable signals classes separately. In both cases, the final step is automatically identified in real time the status to which a response belongs by reconstructing the associated signals from the off-line learned dictionaries. The sparse analysis of generator responses on an adaptive learning dictionary attached to the classifier was implemented using the K-singular value decomposition (KSVD) algorithm coupled with orthogonal matching pursuit (OMP), to reconstruct and predict online the dynamic stability of power systems. In addition, twenty sparse signal decompositions on fixed dictionaries (simple and hybrid) were used to develop classifiers predicting each class separately based on the discrete cosine transform (DCT), discrete sine transform (DST), wavelet transform (DWT), Haar transform (DHT), and Dirac dictionary (DI) coupled with the orthogonal matching pursuit (OMP). This study demonstrates that sparse decomposition on joined adaptive dictionary to the classifier provides near ideal performance (i.e.: 99.99% accuracy, 99.99% security, and 99.99% reliability) far superior to that of a classifier has signal reconstruction based on the twenty separate fixed or adaptive dictionaries and classifiers based on machine learning engines (SVM, ANN, DT, RF, AdaBoost, CNN, and LSTM) implemented from HDSI indices extracted from the rotor speed database of the IEEE 2 area 4 machines, IEEE 39 -bus, and IEEE 68 -bus test systems. However, the real-time replay time of the separate fixed/adaptive dictionaries is significantly lower (by 30-40%) than that observed for the adaptive dictionary with joint classifier/SLOD, and modern machine learning algorithms using HDSI-like attributes as inputs.
63

Contributions à l'amélioration de la performance statique des réseaux T & D intégrés en présence des REDs

Mohseni Bonab, Seyed Masoud 27 December 2020 (has links)
Avec la croissance des nouvelles technologies émergentes dans les réseaux de distribution, tels que les éoliennes, les panneaux solaires, les véhicules électriques et les sources de génération distribuées, la nécessité d'étudier simultanément les réseaux de transmission et de distribution (T&D) et leurs interactions bilatérales ne peut plus être négligée. Une forte pénétration des sources d'énergie renouvelable, naturellement stochastiques, peut inverser le flux d'énergie, ce qui ne rentre pas dans le paradigme d’un écoulement de puissance à flux descendant qui caractérise les systèmes d'alimentation conventionnels. Par conséquent, les méthodes d'étude de réseaux telles que le fux de puissance optimal (Optimal Power Flow), l'engagement des groupes de production (unit commitment) et l'analyse de la stabilité doivent être revisitées. Cette thèse propose l'application de systèmes de stockage d'énergie sur batterie (BESS) dans un cadre intégré de T&D minimisant les impacts négatifs des énergies renouvelables insérées dans le réseau de distribution ou chez le client. Les BESS peuvent être interprétés comme des équipements flexibles supplémentaires, contrôlés à distance et/ou localement, qui absorbent ou libèrent des puissances actives et réactives et améliorent l'efficacité globale du système T&D au complet du point de vue de la stabilité et de la performance dynamique. Selon la pratique courante, les études des systèmes T&D intégrés peuvent être classées en sous-groupes d’études dynamiques vs stationnaires ou en sous-groupes d’études de cooptimisation vs co-simulation. Suivant la même approche, l’analyse à l’état d’équilibre est d’abord lancée par un nouvel outil d’allocation optimisée stochastique de BESS (VSCSOBA) à contrainte de stabilité de tension. L'outil d'optimisation développé basé sur GAMS à deux niveaux prend en compte les BESS et des modèles détaillés de ressources énergétiques distribuées stochastiques tout en minimisant principalement les pertes de puissance active, mais les écarts de tension, les coûts de délestage, l'augmentation de la capacité de charge (chargeabilité ou « loadbility ») ainsi que la réduction de la vulnérabilité sont aussi des fonctions objectives qui ont été considérées. L’applicabilité de l’outil proposé a été confirmée sur des cas d’utilisation basés sur des réseaux T&D benchmark de l’IEEE comportant des centaines de variables et contraintes. Dans la partie suivante, l'architecture du framework de co-simulation, ainsi que les différents acteurs clés qui y participent seront examinés. Les objectifs de cette partie sont les suivants : développer, simuler et résoudre des équations algébriques de chaque niveau indépendamment, à l'aide de simulateurs bien connus, spécifiques à un domaine (c’est-à-dire, transport vs distribution), tout en assurant une interface externe pour l'échange de données. L'outil d'interface devrait établir une connexion de partage de données robuste, fiable et bilatérale entre deux niveaux de système. Les idées et les méthodologies proposées seront discutées. Pour completer cette étude, La commutation optimale de réseaux de transport (Optimal Transmission Switching) en tant que nouvelle méthode de réduction des coûts d'exploitation est considérée d'un point de vue de la sécurité, en assument ou non la présence des BESS. De toute évidence, l'OTS est un moyen efficace (tout comme la référence de tension ou le contrôle des références de puissances P-Q) qui s’avère nécessaire dans le cadre T&D intégré, tel que nous le démontrons à travers divers cas d'utilisation. Pour ce faire, afin de préserver la sécurité des systèmes de transport d'électricité contre les attaques ou les catastrophes naturelles telles que les ouragans et les pannes, un problème OTS stochastique orienté vulnérabilité (VO-SOTS) est également introduit dans cette thèse tout en considérant l'incertitude des charges via une approche par échantillonage de scénarios respectant la distribution statistique des incertitudes. / With the growing trend of emerging new technologies in distribution networks, such as wind turbines, solar panels, electric vehicles, and distributed generations, the need for simultaneously studying Transmission & Distribution (T&D) networks and their bilateral interactions cannot be overlooked anymore. High penetration of naturally stochastic renewable energy sources may reverse the energy flow which does not fit in the top-down energy transfer paradigm of conventional power systems. Consequently, network study methods such as optimal power flow, unit commitment, and static stability analysis need to be revised. This thesis proposes application of battery energy storage systems (BESS) within integrated T&D framework minimizing the adverse impacts of renewable energy resources. The BESSs can be interpreted as additional flexible equipment, remotely and/or locally controlled, which absorb or release both active and reactive powers and improve the overall efficiency of the complete T&D system from both steady-state and dynamic viewpoints. As a common practice, the integrated T&D framework studies are categorized into either dynamic and steady-state subcases or co-optimization framework and co-simulation framework. Following the same approach, the steady-state analysis is first initiated by a novel voltage stability constrained stochastic optimal BESS allocation (VSC-SOBA) tool. The developed bi-level GAMS-based optimization tool takes into account BESSs and detailed models of stochastic distributed energy resources while minimizing active power losses, voltage deviation, load shedding costs, increasing loadability, and vulnerability mitigation are objective functions. The applicability of proposed tool has been confirmed over large IEEE recognized T&D benchmarks with hundreds of variables and constraints. In the next part, the architecture of co-simulation framework and different key players will be investigated. The objectives of this part are set as: developing, simulating, and solving differential and algebraic equations of each level independently, using existing well-known domain-specific simulators, while externally-interfaced for exchanging data. The interface tool should stablish a robust, reliable, and bilateral data sharing connection between two levels of system. The ideas and proposed methodologies will be discussed. To complete this study, optimal transmission switching (OTS) as a new method for reduction of operation costs is next considered from a security point of view. It is shown clearly that OTS is an effective mean (just like voltage reference or P-Q reference control), which is necessary in the integrated T&D framework to make it useful in dealing with various emerging use cases. To do so without impeding the security of power transmission systems against attacks or natural disasters such as hurricane and outages, a vulnerability oriented stochastic OTS (VO-SOTS) problem is also introduced in this thesis, while considering the loads uncertainty via a scenario-based approach.
64

Vortex, entropies et énergies de ligne en micromagnétisme / Vortices, entropies and line-energies in micromagnetism

Bochard, Pierre 24 June 2015 (has links)
Cette thèse traite de questions mathématiques posées par des problèmes issus du micromagnétisme ; un thème central en est les champs de vecteur de rotationnel nul et de norme 1, qu'on voit naturellement apparaître comme configurations minimisant des énergies micromagnétiques.Le premier chapitre est motivé par la question suivante : peut-on, en dimension plus grande que deux, caractériser les champs de vecteur de rotationnel nul et de norme 1 par une formulation cinétique ?Une telle formulation a d'abord été introduite en dimension 2 dans l'article \cite{Jabin_Otto_Perthame_Line_energy_2002} de Jabin, Otto et Perthame où elle apparaît naturellement dans le cadre de la minimisation d'une énergie de type Ginzburg-Landau. Ignat et De Lellis ont ensuite montré dans \cite{DeLellis_Ignat_Regularizing_2014} qu'une telle formulation cinétique caractérise les champs de rotationnel nul et de norme 1 possédant une certaine régularité en dimension 2. Le premier chapitre de cette thèse est consacré à l'étude d'une formulation cinétique similaire en dimension quelconque ; le résultat principal en est qu'en dimension strictement plus grande que 2, cette fomulation cinétique ne caractérise non plus tous les champs de rotationnel nul et de norme 1, mais seulement les champs constants ou les vortex.La caractérsation cinétique des champs de vecteur de rotationnel nul et de norme 1 en dimension 2,prouvée par De Lellis et Ignat et que nous venons de mentionner reposait sur la notion d'entropie.Ayant obtenu une formulation cinétique en dimension quelconque, il était naturel de vouloir l'exploiter un tentant d'étendre également la notion d'entropie aux dimensions supérieures à 2. C'est ce à quoi est consacré le deuxième chapitre de cette thèse ; nous y définissons en particulier une notion d'entropie en dimension quelconque. Le point central en est la caractérisation de ces entropies par un système d'\équations aux dérivées partielles, et leur description complète en dimension 3, ainsi que la preuve pour ces entropies de propriétés tout à fait semblables à celles des entropies deux dimensionnelles.Le troisième chapitre de cette thèse, qui expose les résultats d'un travail en collaboration avec Antonin Monteil, s'intéresse à la minimisation d'\'energies de type Aviles-Giga de la forme $\mathcal_f(m)=\int_f(|m^+-m^-|)$ o\`u $m$ est un champ de rotationnel nul et de norme 1 et où $J(m)$ désigne les lignes de saut de $m$. Deux questions classiques se posent pour ce type d'énergie : la solution de viscosité de l'équation eikonale est-elle un minimiseur et l'énergie est-elle semi-continue inférieurement pour une certaine topologie. Le résutat principal de cette partie est un construction, qui nous permet en particulier de répondre par la négative à ces deux questions dans les cas où $f(t)= t^p$ avec $p \in ]0,1[$ en donnant une condition nécessaire sur $f$ pour que $\mathcal_f$ soit semi-continue inférieurement.Enfin, le dernier chapitre de cette thèse est consacré à l'étude d'une variante de l'énergie de Ginzburg-Landau introduite par Béthuel, Brezis et Helein où on a remplacé la condition de bord par une pénalisation dépendant d'un paramètre. Nous y décrivons le comportement asymptotique de l'énergie minimale qui, suivant la valeur de ce paramètre, soit se comporte comme l'énergie de Ginzburg-Landau classique en privilégiant une configuration vortex, soit privilégie au contraire une configuration singulière suivant une ligne. / This thesis is motivated by mathematical questions arising from micromagnetism. One would say that a central topic of this thesis is curl-free vector fields taking value into the sphere. Such fields naturally arise as minimizers of micromagnetic-type energies. The first part of this thesis is motivated by the following question : can we find a kinetic formulation caracterizing curl-free vector fields taking value into the sphere in dimension greater than 2 ? Such a formulation has been found in two dimension by Jabin, Otto and Perthame in \cite. De Lellis and Ignat used this formulation in \cite{DeLellis_Ignat_Regularizing_2014} to caracterize curl-free vector fields taking value into the sphere with a given regularity. The main result of this part is the generalization of their kinetic formulation in any dimension and the proof that if $d>2$, this formulation caracterizes only constant vector fields and vorteces, i. e. vector fields of the form $\pm \frac$. The second part of this thesis is devoted to a generalization of the notion of \textit, which plays a key role in the article of De Lellis and Ignat we talked about above. We give a definition of entropy in any dimension, and prove properties quite similar to those enjoyed by the classical two-dimensional entropy. The third part of this thesis, which is the result of a joint work with Antonin Monteil, is about the study of an Aviles-Giga type energy. The main point of this part is a necessary condition for such an energy to be lower semi continuous. We give in particular an example of energy of this type for which the viscosity solution of the eikonal equation is \textit a minimizer. The last part, finally is devoted to the study of a Ginzburg-Landau type energy where we replace the boundary condition of the classical Ginzburg-Landau energy introduced by Béthuel, Brezis and Helein by a penalization within the energy at the critical scaling depending on a parameter. The core result of this part is the description of the asymptotic of the minimal energy, which, depending on the parameter, favorizes vortices-like configuration like in the classical Ginzburg-Landau case, or configurations singular along a line.
65

Matériaux ferromagnétiques : influence d'un espaceur mince non magnétique, et homogénéisation d'agencements multicouches, en présence de couplage sur la frontière

Santugini-Repiquet, Kévin 16 December 2004 (has links) (PDF)
Les matériaux ferromagnétiques jouent un rôle primordial dans les applications industrielles. Dans le cadre du modèle micromagnétique de Brown (1940), nous étudions l'influence d'un espaceur mince non magnétique sur le comportement d'un corps ferromagnétique. l'évolution dynamique est modélisée par l'équation de Landau-Lifchitz. Nous tenons compte des phénomènes de surface sur l'espaceur : le super-échange et l'anisotropie surfacique. Après avoir étudié le problème d'existence de cette équation en présence des termes de surfaces, nous établissons rigoureusement une condition équivalente de bord qui simule l'épaisseur de l'espaceur sur un domaine avec un espaceur sans épaisseur. Nous calculons lors les états d'équilibres et la susceptibilité hyperfréquence pour certaines configurations magnétiques. Dans une deuxième phase, nous homogénéisons l'équation de Landau-Lifchitz en domaine perforé et pour des agencements multicouches.
66

Architectures intégrées de gestion de l'énergie pour les microsystèmes autonomes

Waltisperger, G. 17 May 2011 (has links) (PDF)
Augmenter la durée de vie d'une pile, voire s'en passer est aujourd'hui devenu une obligation pour les microsystèmes. En effet, à cette échelle, le remplacement des piles et leur rejet dans l'environnement sont problématiques. La voie préconisée pour répondre à cet enjeu est d'utiliser des sources d'énergie renouvelables (solaire, thermique et mécanique). Pour cela, nous proposons de développer une plateforme de récupération d'énergie multi-sources/multi-charges (MANAGY) capable de s'adapter à son environnement pour en extraire le maximum d'énergie et répondre à des applications diverses. L'architecture est constituée de chemins directs et de chemins indirects où l'énergie provenant des sources est d'abord transférée dans une unité de stockage avant d'être réutilisée par les charges du microsystème. L'utilisation de cette nouvelle architecture permet d'optimiser le transfert d'énergie entre sources et charges et améliore le rendement du système de 33%. Avant de développer une architecture multi-sources, nous avons cherché à améliorer le rendement de la source photovoltaïque (PV) qui, au vu de l'état de l'art, a la densité de puissance la plus élevée. La recherche du rendement maximum de la source PV revient à la recherche du point de puissance maximum (MPPT). Il existe pour chaque condition d'irradiance, de température, et d'énergie extraites un couple tension-courant permettant à la source de fournir un maximum de puissance (MPP). Grâce à l'utilisation de deux chemins de puissance, nous arrivons simultanément à créer une boucle de régulation faible puissance agissant sur le rapport cyclique du système de gestion d'énergie (MPPT) et une boucle de régulation de la tension de sortie agissant sur le transfert de l'énergie. La modélisation du système nous a permis de spécifier ses performances. Pour atteindre les performances requises, des architectures innovantes ont été réalisées qui ont fait l'objet de trois brevets. De plus, des blocs ne sont activés qu'aux instants de changement d'état du système et sont conçus, quand cela a été possible, avec des transistors fonctionnant en mode faible inversion. Toutes ces optimisations permettent au système de fonctionner sur une large plage de variation de l'éclairement (de conditions intérieures supérieures à 500 lux à extérieures) avec un rendement proche de 90%.
67

Fabrication virtuelle et expérimentale de tubes d'aluminium de formes complexes par hydroformage

Filion, Guillaume 17 April 2018 (has links)
L'utilisation de modèles numériques de procédés de mise en forme des matériaux est devenue une nécessité dans la conception et la fabrication de composants évolués. De plus, les geometries de ces composants sont de plus en plus complexes et demandent l'utilisation de procédés avancés comme l'hydroformage. Le présent mémoire fait état des différentes étapes effectuées pour produire une pièce majeure de la structure d'un banc d'autobus. Pour ce faire, des outils numériques et expérimentaux ont été créés pour les étapes de cintrage et d'hydroformage. Une méthodologie est aussi proposée pour l'optimisation du procédé d'hydroformage en utilisant le module LS-Opt. De nombreuses simulations ont été effectuées pour l'alliage d'aluminium 6061 à l'état recuit (O) et à l'état brut de livraison (F).
68

Optimisation of the hydroforming process of geometrically complex aluminium tubes taking account of preceding forming processes

Bihamta, Reza 18 April 2018 (has links)
Les réglementations gouvernementales concernant l'économie de carburant et la réduction des gaz à effet de serre forcent les industries de transport et les fabricants à modifier la façon dont les pièces sont conçues et fabriquées. Le problème de la réduction du poids est mis à l'avant-plan et on croit fortement que l'utilisation étendue des alliages d'aluminium et le développement de designs innovants font partie de la solution pour remplir les mandats. En même temps, la faible formabilité de l'aluminium pose un vrai défi aux fournisseurs de pièces de véhicules chaque fois qu'ils sont confrontés à fabriquer des composants à géométrie complexe avec des procédés de mise en forme conventionnels. En conséquence, d'autres procédés plus avancés sont explorés, comme l'hydroformage qui offre de tels avantages comparés aux procédés d'usage courant. Cette technologie semble être le catalyseur qui permettra aux métaux difficilement formables d'être utilisés sur une échelle beaucoup plus large Dans la présente thèse, une étude approfondie a été effectuée sur l'hydroformage des tubes d'aluminium ainsi que les procédés connexes. Dans les études numériques, une stratégie d'optimisation issue de l'application du logiciel Ls-Opt et des codes sources développés dans MATLAB a été présentée. Elle rend possible l'optimisation de l'étirage à paroi variable, du pliage et de l'hydroformage des tubes soit d'une façon regroupée ou seule. Dans la partie expérimentale du projet, dans le prototype de banc d'étirage, la distribution d'épaisseur désirée sur le tube initial a été mise en application. Une nouvelle méthode de conception de moule d'hydroformage à géométrie complexe est aussi présentée et appliquée expérimentalement avec succès. Enfin, les résultats de l'optimisation globale ont été appliqués et validés expérimentalement et une correspondance acceptable a été observée. Les résultats de ce projet se révèlent fortement utiles pour les industries de transport terrestre et de l'aérospatiale pour produire des produits tubulaires plus facilement et avec moins d'essais et erreurs.
69

Sur certaines propriétés de l'Energie Noire / On Some Properties of Dark Energy

Ranquet, André 17 December 2010 (has links)
Les résultats des observations cosmologiques réalisées à la charnière du siècle (SN1A, CMB, BAO) montrent que contrairement aux prévisions du modèle standard, l'expansion de l'Univers est actuellement en train de s'accélérer. Pour rendre compte de ce phénomène, un composant inconnu dénommé "énergie noire" (Dark Energy) a été introduit soit directement comme un fluide de pression négative, soit indirectement en modifiant la Relativité générale. Après avoir présenté le cadre général de la description de l'Univers, ainsi que le modèle cosmologique standard actuellement accepté, la présente thèse étudie les interactions possibles entre l'énergie noire et une éventuelle courbure de l'espace, en s'intéressant plus particulièrement aux cas où l'incertitude sur la courbure peut falsifier la nature "fantôme" de cette énergie noire. Dans un deuxième temps, la possibilité d'obtenir un comportement de type énergie noire au moyen d'une modification de la Relativité générale est abordée en faisant appel aux théories scalaire-tenseur. Les conditions générales de viabilité de ces théories sont présentées, ainsi que les conditions d'existence d'énergie noire, normale et fantôme. Enfin la possibilité de mettre en évidence cette énergie noire d'origine scalaire-tenseur par des mesures dans le Système solaire est étudiée en utilisant le formalisme de l'analyse post-newtonienne paramétrée. / The results of the cosmological observations at the turn of the century (SN1a, CMB, BAO) show that, in contrast to the predictions of the standard model, the Universe expansion is presently accelerating. To account for this fact, an unknown component dubbed "dark energy" was introduced either directly as a fluid with negative pressure, or indirectly as a modification of General Relativity.After the presentation of the general frame of the Universe description, and of the presently accepted cosmological standard model, we study the interactions between dark energy and a possible spatial curvature, with special attention to the cases where the curvature uncertainty may falsify the phantom nature of dark energy. In a second step we consider a modification of General Relativity, the Scalar-Tensor theories, as a way to generate dark energy. The general viability conditions for these theories are presented, as well as the conditions for the presence of normal and phantom dark energy. In particular we study the possibility to detect this Scalar-Tensor dark energy with measurements within the Solar System using the Parametrised Post-Newtonian formalism.
70

Mesure de sections efficaces absolues vibrationnelles pour la collision d’électrons de basse énergie (1-19 eV) avec le tétrahydrofurane (THF) condensé / Measurement of absolute vibrational cross sections for low-energy electron (1-19 eV) scattering from condensed tetrahydrofuran (THF)

Lemelin, Vincent January 2016 (has links)
Résumé: Ce mémoire de maîtrise est une étude des probabilités d’interactions (sections efficaces) des électrons de basse énergie avec une molécule d’intérêt biologique. Cette molécule est le tétrahydrofurane (THF) qui est un bon modèle de la molécule constituant la colonne vertébrale de l’ADN; le désoxyribose. Étant donné la grande quantité d’électrons secondaires libérés lors du passage des radiations à travers la matière biologique et sachant que ceux-ci déposent la majorité de l’énergie, l’étude de leurs interactions avec les molécules constituant l’ADN devient rapidement d’une grande importance. Les mesures de sections efficaces sont faites à l’aide d’un spectromètre à haute résolution de pertes d’énergie de l’électron. Les spectres de pertes d’énergie de l’électron obtenus de cet appareil permettent de calculer les valeurs de sections efficaces pour chaque vibration en fonction de l’énergie incidente de l’électron. L’article présenté dans ce mémoire traite de ces mesures et des résultats. En effet, il présente et explique en détail les conditions expérimentales, il décrit la méthode de déconvolution qui est utilisée pour obtenir les valeurs de sections efficaces et il présente et discute des 4 résonances observées dans la dépendance en énergie des sections efficaces. En effet, cette étude a permis de localiser en énergie 4 résonances et celles-ci ont toutes été confirmées par des recherches expérimentales et théoriques antérieures sur le sujet des collisions électrons lents-THF. En outre, jamais ces résonances n’avaient été observées simultanément dans une même étude et jamais la résonance trouvée à basse énergie n’avait été observée avec autant d’intensité que cette présente étude. Cette étude a donc permis de raffiner notre compréhension fondamentale des processus résonants impliqués lors de collisions d’électrons secondaires avec le THF. Les valeurs de sections efficaces sont, quant à elles, très prisées par les théoriciens et sont nécessaires pour les simulations Monte Carlo pour prédire, par exemple, le nombre d’ions formées après le passage des radiations. Ces valeurs pourront justement être utilisées dans les modèles de distribution et dépôt d’énergie au niveau nanoscopique dans les milieux biologiques et ceux-ci pourront éventuellement améliorer l’efficacité des modalités radiothérapeutiques. / Abstract: This master’s thesis is a study of interactions probabilities (cross sections) of low-energy electrons with an important biomolecule. The studied molecule is tetrahydrofuran (THF) which is a good model for the DNA backbone constituent deoxyribose. Knowing the important quantity of secondary electrons generated by the radiations passage through the biological matter and knowing that these low-energy electrons are responsible for the majority of the energy deposited, the study of their interactions with DNA constituents becomes rapidly important. Cross sections measurements are performed with a high-resolution electron energy loss spectrometer. The electron energy loss spectra obtained from this spectrometer allow cross sections calculations for each vibration mode as a function of electron incident energy. The article presented in this master thesis describes in details the experimental methods, it presents energy loss spectra and it shows and discusses results obtained in this project. The energy dependence of the cross sections allows the observation of multiple resonances in many vibration modes of THF. Effectively, this study allows the energy localisation of 4 resonances, which have all been confirmed by previous experimental and theoretical studies on the electron-THF collisions. Additionally, these resonances have never been observed simultaneously in the same study and the resonance found at low incident energy has never been observed with as much intensity as this present work. This study allowed a better understanding of the fundamental processes occurring in collisions of low-energy electrons with THF. The cross sections values are highly prized by theorists and they are essential for Monte Carlo simulations. These values will be used in models for energy distribution and deposition in biological matter at nanoscopic scales, thereby they will eventually improve the efficiency of radiotherapeutic modalities.

Page generated in 0.041 seconds