• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 204
  • 75
  • 26
  • 2
  • 2
  • 1
  • Tagged with
  • 310
  • 119
  • 51
  • 46
  • 43
  • 43
  • 41
  • 40
  • 39
  • 34
  • 33
  • 31
  • 31
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

IIRC : Incremental Implicitly-Refined Classification

Abdelsalam, Mohamed 05 1900 (has links)
Nous introduisons la configuration de la "Classification Incrémentale Implicitement Raffinée / Incremental Implicitly-Refined Classification (IIRC)", une extension de la configuration de l'apprentissage incrémental des classes où les lots de classes entrants possèdent deux niveaux de granularité, c'est-à-dire que chaque échantillon peut avoir une étiquette (label) de haut niveau (brute), comme "ours”, et une étiquette de bas niveau (plus fine), comme "ours polaire". Une seule étiquette (label) est fournie à la fois, et le modèle doit trouver l’autre étiquette s’il l’a déjà apprise. Cette configuration est plus conforme aux scénarios de la vie réelle, où un apprenant aura tendance à interagir avec la même famille d’entités plusieurs fois, découvrant ainsi encore plus de granularité à leur sujet, tout en essayant de ne pas oublier les connaissances acquises précédemment. De plus, cette configuration permet d’évaluer les modèles pour certains défis importants liés à l’apprentissage tout au long de la vie (lifelong learning) qui ne peuvent pas être facilement abordés dans les configurations existantes. Ces défis peuvent être motivés par l’exemple suivant: “si un modèle a été entraîné sur la classe ours dans une tâche et sur ours polaire dans une autre tâche; oubliera-t-il le concept d’ours, déduira-t-il à juste titre qu’un ours polaire est également un ours ? et associera-t-il à tort l’étiquette d’ours polaire à d’autres races d’ours ?” Nous développons un benchmark qui permet d’évaluer les modèles sur la configuration de l’IIRC. Nous évaluons plusieurs algorithmes d’apprentissage ”tout au long de la vie” (lifelong learning) de l’état de l’art. Par exemple, les méthodes basées sur la distillation sont relativement performantes mais ont tendance à prédire de manière incorrecte un trop grand nombre d’étiquettes par image. Nous espérons que la configuration proposée, ainsi que le benchmark, fourniront un cadre de problème significatif aux praticiens. / We introduce the "Incremental Implicitly-Refined Classification (IIRC)" setup, an extension to the class incremental learning setup where the incoming batches of classes have two granularity levels. i.e., each sample could have a high-level (coarse) label like "bear" and a low-level (fine) label like "polar bear". Only one label is provided at a time, and the model has to figure out the other label if it has already learned it. This setup is more aligned with real-life scenarios, where a learner usually interacts with the same family of entities multiple times, discovers more granularity about them, while still trying not to forget previous knowledge. Moreover, this setup enables evaluating models for some important lifelong learning challenges that cannot be easily addressed under the existing setups. These challenges can be motivated by the example "if a model was trained on the class bear in one task and on polar bear in another task, will it forget the concept of bear, will it rightfully infer that a polar bear is still a bear? and will it wrongfully associate the label of polar bear to other breeds of bear?". We develop a standardized benchmark that enables evaluating models on the IIRC setup. We evaluate several state-of-the-art lifelong learning algorithms and highlight their strengths and limitations. For example, distillation-based methods perform relatively well but are prone to incorrectly predicting too many labels per image. We hope that the proposed setup, along with the benchmark, would provide a meaningful problem setting to the practitioners.
272

Applications de la macrocyclisation par métathèse d’alcènes en flux continu et développement d’un réacteur facilitant la macrocyclisation photochimique

Morin, Émilie 08 1900 (has links)
Les réactions de macrocyclisation constituent un défi pour les chimistes de synthèse, car les sélectivités pour les réactions intramoléculaires par rapport à celles intermoléculaires sont difficiles à maximiser. Celles-ci sont donc effectuées dans des milieux dilués et sont souvent lentes. La chimie en flux continu a été utilisée pour améliorer les réactions présentées dans cette thèse, car elle permet un meilleur transfert de masse qui se traduit par un mélange et un chauffage plus efficace, donc des temps de réaction plus courts. À la suite d’introductions sur les macrocycles (Chapitre 1) et sur la métathèse d’alcènes (Chapitre 2), nos efforts pour améliorer l’étape de macrocyclisation par métathèse d’alcènes d’un musc découvert par l’industrie des fragrances sont décrits au chapitre 3. Alors que les conditions rapportées ne permettaient pas de réaliser cette réaction de façon reproductible sur une échelle de plus de 100 mg, il a été possible de l’effectuer sur une échelle d’un gramme grâce à l’emploi du catalyseur approprié. La réaction a été effectuée dans un montage traditionnel (ballon à fond rond) à température ambiante pour fournir 57% du macrocycle désiré après 5 jours. En comparaison, le montage en flux continu n’a nécessité que 5 minutes de temps de résidence à 150 °C pour fournir 32% de rendement. Le second projet présenté dans cette thèse porte sur la synthèse totale de la néomarchantine A (Chapitre 5) et est précédé d’une introduction sur les composés bisbibenzyliques (Chapitre 4). Cette synthèse a permis de démontrer l’avantage d’incorporer plusieurs étapes clés en flux continu. Différentes conditions ont été investiguées pour réaliser les deux étapes de couplage C-O en début de synthèse. Les meilleurs résultats ont été obtenus avec le couplage de Chan-Evans-Lam dans un cas (34%) et la substitution nucléophile (SNAr) dans l’autre (71%), ce qui a permis de s’éloigner des conditions classiques de couplage d’Ullmann. La première macrocyclisation par métathèse d’alcènes pour la synthèse d’un composé bisbibenzylique est également rapportée. Les conditions en flux continu ont permis de réaliser la réaction en seulement 10 minutes de temps de résidence avec un rendement de 49%, ce qui est similaire au rendement obtenu dans un montage traditionnel, mais qui nécessite 17 heures de temps de réaction. Précédé d’une introduction sur la photochimie (Chapitre 6), le chapitre 7 décrit la conception et l’évaluation d’un réacteur en flux continu adapté à la macrocyclisation photochimique. Celui-ci est inspiré des réacteurs à agitation continue (CSTR), mais est aminci pour permettre une irradiation plus uniforme. Son efficacité a été démontrée par l’application de la réaction d’oxydation aérobique de thiols en disulfures. En plaçant plusieurs réacteurs en série, un rendement d’environ 47% a été obtenu peu importe l’échelle de la réaction, allant de 100 mg à 1 g. En comparaison, le montage traditionnel, le réacteur standard en flux continu (PFR) ainsi que le réacteur CSTR n’ont pas été en mesure de fournir plus de 20% du macrocycle désiré. L’étendue de la réaction a été démontrée en synthétisant différents macrocycles d’intérêt biologique ou structurel avec des rendements entre 33 % et 50 %. / Macrocyclization reactions pose a challenge for synthetic chemists because the selectivity for the intramolecular reaction over intermolecular is difficult to achieve. They are usually done in diluted medium and are often slow. Continuous flow chemistry has been used to improve the reactions developed in the present thesis by allowing better mass and energy transfer which results in more efficient mixing and heating, and thus shorter reaction times. Following introductions on macrocycles (Chapter 1) and olefin metathesis (Chapter 2), our efforts to improve the olefin metathesis macrocyclization step of a musk discovered by the fragrance industry are described in Chapter 3. While the reported conditions did not allow the reaction to be performed reproducibly on a scale greater than 100 mg, the use of the appropriate catalyst allowed us to perform the reaction on a gram scale. The reaction was carried out in batch at room temperature to provide 57% of the desired macrocycle after 5 days. In comparison, the continuous flow setup required only 5 minutes of residence time at 150 °C to provide 32% yield. The second project focuses on the total synthesis of neomarchantine A (Chapter 5) and is preceded by an introduction on bisbibenzyl compounds (Chapter 4). The goal of the synthesis was to show the advantage of integrating several key steps in continuous flow. Different conditions were investigated to carry out the two C-O bond forming steps early in the synthesis. The best results were obtained with Chan-Evans-Lam coupling in one case (34%) and a SNAr reaction in the other (71%), which allowed to deviate from the classical conditions of Ullmann coupling. The first macrocyclization by ring-closing metathesis for the synthesis of a bisbibenzyl is also reported. The continuous flow conditions produced a 49% yield of a key macrocycle, which is similar to the batch results but only required 10 minutes of residence time in flow instead of 17 hours of reaction time in batch. Preceded by an introduction on photochemistry (Chapter 6), Chapter 7 describes the design and evaluation of a continuous flow reactor suitable for photochemical macrocyclization. It is inspired by CSTR reactors but is “flattened” to allow a uniform irradiation. Its effectiveness has been demonstrated by the application of aerobic oxidation of thiols to disulfides. By placing reactors in series, a yield of 47% was obtained regardless of the scale, ranging from 100 mg to 1 g. In comparison, the batch setup as well as the CSTR and PFR reactors were not able to provide more than 20% of the desired macrocycle. The scope of the reaction was demonstrated by synthesizing different macrocycles of biological or structural interest in yields of 33-50%.
273

Partie 1 : synthèse d’hexahydroazépinones par un processus catalysé par un complexe de palladium de fonctionnalisation C–H et d’ouverture de cyclopropanes ainsi que l’arylation de liens C(sp2)–H dans la synthèse de fluorophores ; Partie 2 : premières synthèses totales des cannflavins A et C et synthèse en chimie en flux continu de l’acétyl phloroglucinol

Saint-Jacques, Kévin 04 1900 (has links)
Cette thèse est divisée en deux parties. La première porte sur l’utilité de la fonctionnalisation de liaisons C–H hybridées sp2 et sp3 dans la formation d’hétérocycles azotés et fluorophores bioactifs. La deuxième porte sur la première synthèse des cannflavins A, B et C ainsi que l’adaptation d’une des étapes de synthèse en chimie en flux continu. Dans la première partie, il a tout d’abord été montré que la fonctionnalisation de liaisons C(sp3)–H de cyclopropanes catalysée par un complexe de palladium peut être utilisée dans la synthèse de cyclopropanes plus complexes, et ce de façon intramoléculaire. Lorsque le motif cyclopropane n’est pas substitué, ce dernier ouvre afin de former sélectivement l’hexahydroazépinone avec une énamide cyclique. Une fois cette réaction optimisée, elle a été utilisée pour former de nouvelles molécules comportant cet hétérocycle azoté. Cette réaction peut aussi être transposée en flux continu afin de fournir le produit d’ouverture cyclique de façon ininterrompue et ce pendant plusieurs heures. Dans les travaux futurs, nous suggérons de trouver une façon de fonctionnaliser cet hétérocycle dans une réaction de type «one-pot». Ensuite, nous avons montré la force de la fonctionnalisation de liaisons C(sp2)–H via une réaction d’arylation catalysée par un complexe de palladium pour la synthèse de benzo[a]imidazo[2,1,5‑c,d]indolizines, un fluorophore bioactif. Une fois la synthèse complétée, ceux-ci ont été testés dans la bioconjugaison avec un enzyme de type glutamine trans-amidase. Les travaux de biologies sont présentement en cours dans le groupe de la Pre Joelle Pelletier. Dans la seconde partie, nous nous sommes intéressés à la synthèse des cannflavins A, B et C. Ces molécules sont caractérisées comme étant des flavonoïdes qui sont propres à la plante de Cannabis Sativa. En effet, comme une majorité des produits naturels de cette plante, tels que le Δ9-THC et le CBD, ces flavonoïdes sont des molécules bioactives qui ont des propriétés anti-inflammatoires, neuro-protectrices, anti-cancers, anti-parasitiques, et bien d’autres. Nous avons donc effectué la synthèse des cannflavins A, B et C afin d’avoir des quantités adéquates de matériel pour des études biologiques. Dans la synthèse de première génération, nous avons produit la cannflavin A et C en douze étapes avec des rendements globaux de 8,4% et 12%, respectivement. Le développement d’une deuxième stratégie de synthèse a mené à une amélioration concrète de la synthèse de la cannflavin C en diminuant le nombre d’étapes de synthèse de moitié et doublant le rendement, soit en six étapes avec 23%. Ce raccourci synthétique a été mis en place grâce à l’implication d’un complexe de type BF2 comme groupement protecteur et directeur pour fournir un intermédiaire avancé de la synthèse précédente. Les travaux actuels consistent à l’élaboration d’une stratégie similaire pour la synthèse de cannflavin A. Enfin, nous avons optimisé la synthèse de l’acétyl phloroglucinol en flux continu, qui est notamment le matériel de départ pour la synthèse des Cannflavins. En effet, cette réaction d’acylation de Friedel-Crafts a été optimisée en flux continu pour donner l’acétyl phloroglucinol avec 98% de rendement en utilisant le BF3•OEt2 comme acide de Lewis et AcCl comme agent acylant dans l’EtOAc comme solvant vert. La mise en échelle de cette réaction montre qu’il est possible de produire le composé désiré avec une productivité élevée de 99 g/h. Les travaux futurs de ce projet sont d’utiliser le complexe BF2 généré dans cette réaction pour produire un intermédiaire avancé de la cannflavin A. / This thesis is divided into two parts. This first one discusses the use of C–H functionalization of sp2 and sp3 center in the formation of nitrogen-containing heterocycles. The second one describes the first total synthesis of cannflavins A, B and C as well as the continuous flow production of the starting material of this total synthesis. In the first part, we have shown that the use of palladium-catalyzed C(sp3 )–H functionalization of cyclopropanes can be used to synthesize more complex molecules in an intramolecular fashion. When the cyclopropyl motif bears no substitutions, ring opening of the cyclopropane occurs to selectively yield the hexahydroazepinone heterocyclic core as the enamide isomer. We have taken advantage of this opportunity to prepare a variety of hexahydroazepinones using this novel strategy. This reaction can be converted to flow chemistry, thus shortening the reaction time and providing the desired product continuously over several hours. In future work, we will use the enamide motif to further functionalize the azepinone nucleus in a one-pot manner. Furthermore, we have demonstrated the power of the C–H functionalization strategy in the synthesis of benzo[a]imidazo[2,1,5-c,d]indolizines, a fluorescent heterocycle, via palladiumcatalyzed arylation of C(sp 2 )–H bonds. After synthesis, this fluorophore was bioconjugated with a glutamine transamidase enzyme. Biological tests of these compounds are currently being carried out by the group of Pr Joelle Pelletier. In the second part, we are interested in the synthesis of cannflavins A, B and C. These compounds belong to the class of flavonoids and are unique to the Cannabis sativa plant. Like the majority of natural products found in this plant, such as Δ9 -THC and CBD, these flavonoids are indeed bioactive and show various medicinal properties such as being potent anti-inflammatory, neuro-protective, anti-cancer, anti-parasitic and many more. For these reasons, we carried out the total synthesis of cannflavin A, B and C. In the first generation strategy, we achieved the first total synthesis of cannflavin A and C in twelve linear steps with 8.4% and 12% global yield, respectively. The development of a second-generation strategy led to an improvement for the synthesis of cannflavin C in terms of halving the number of steps required and doubling the overall yield, giving 23% yield in six steps. This synthetic shortcut was achieved using a BF2 complex as a traceless directing and protecting group to provide a highly functionalized intermediate in the synthesis of cannflavin C. Current work focuses on the elaboration of a similar strategy for a shorter total synthesis of cannflavin A. We also optimized the synthesis of acetylphloroglucinol in continuous flow chemistry, this phenol being the starting material of Cannflavins. In fact, this Friedel-Crafts acylation using BF3•OEt2 as the Lewis acid and AcCl as the acylating agent in EtOAc as the green solvent has been optimized to achieve 98% yield with a productivity of 99 g/h in the scale-up setup. From now on, we are trying to use this continuously produced BF2 complex to synthesize a late intermediate in the synthesis of cannflavin A.
274

Stabilizing Q-Learning for continuous control

Hui, David Yu-Tung 12 1900 (has links)
L'apprentissage profond par renforcement a produit des décideurs qui jouent aux échecs, au Go, au Shogi, à Atari et à Starcraft avec une capacité surhumaine. Cependant, ces algorithmes ont du mal à naviguer et à contrôler des environnements physiques, contrairement aux animaux et aux humains. Manipuler le monde physique nécessite la maîtrise de domaines d'actions continues tels que la position, la vitesse et l'accélération, contrairement aux domaines d'actions discretes dans des jeux de société et de vidéo. L'entraînement de réseaux neuronaux profonds pour le contrôle continu est instable: les agents ont du mal à apprendre et à conserver de bonnes habitudes, le succès est à haute variance sur hyperparamètres, graines aléatoires, même pour la même tâche, et les algorithmes ont du mal à bien se comporter en dehors des domaines dans lesquels ils ont été développés. Cette thèse examine et améliore l'utilisation de réseaux de neurones profonds dans l'apprentissage par renforcement. Le chapitre 1 explique comment le principe d'entropie maximale produit des fonctions d'objectifs pour l'apprentissage supervisé et non supervisé et déduit, à partir de la dynamique d'apprentissage des réseaux neuronaux profonds, certains termes régulisants pour stabiliser les réseaux neuronaux profonds. Le chapitre 2 fournit une justification de l'entropie maximale pour la forme des algorithmes acteur-critique et trouve une configuration d'un algorithme acteur-critique qui s'entraîne le plus stablement. Enfin, le chapitre 3 examine la dynamique d'apprentissage de l'apprentissage par renforcement profond afin de proposer deux améliorations aux réseaux cibles et jumeaux qui améliorent la stabilité et la convergence. Des expériences sont réalisées dans les simulateurs de physique idéale DeepMind Control, MuJoCo et Box2D. / Deep Reinforcement Learning has produced decision makers that play Chess, Go, Shogi, Atari, and Starcraft with superhuman ability. However, unlike animals and humans, these algorithms struggle to navigate and control physical environments. Manipulating the physical world requires controlling continuous action spaces such as position, velocity, and acceleration, unlike the discrete action spaces of board and video games. Training deep neural networks for continuous control is unstable: agents struggle to learn and retain good behaviors, performance is high variance across hyperparameters, random seed, and even multiple runs of the same task, and algorithms struggle to perform well outside the domains they have been developed in. This thesis finds principles behind the success of deep neural networks in other learning paradigms and examines their impact on reinforcement learning for continuous control. Chapter 1 explains how the maximum-entropy principle produces supervised and unsupervised learning loss functions and derives some regularizers used to stabilize deep networks from the training dynamics of deep learning. Chapter 2 provides a maximum-entropy justification for the form of actor-critic algorithms and finds a configuration of an actor-critic algorithm that trains most stably. Finally, Chapter 3 considers the training dynamics of deep reinforcement learning to propose two improvements to target and twin networks that improve stability and convergence. Experiments are performed within the DeepMind Control, MuJoCo, and Box2D ideal-physics simulators.
275

The role of continual learning and adaptive computation in improving computational efficiency of deep learning

Gupta, Kshitij 01 1900 (has links)
Au cours de la dernière décennie, des progrès significatifs ont été réalisés dans le domaine de l’IA, principalement grâce aux progrès de l’apprentissage automatique, de l’apprentissage profond et de l’utilisation de modèles à grande échelle. Cependant, à mesure que ces modèles évoluent, ils présentent de nouveaux défis en termes de gestion de grands ensembles de données et d’efficacité informatique. Cette thèse propose des approches pour réduire les coûts de calcul de la formation et de l’inférence dans les systèmes d’intelligence artificielle (IA). Plus précisément, ce travail étudie les techniques d’apprentissage continu et de calcul adaptatif, démontrant des stratégies possibles pour préserver les niveaux de performance de ces systèmes tout en réduisant considérablement les coûts de formation et d’inférence. Les résultats du premier article montrent que les modèles de base peuvent être continuellement pré-entraînés grâce à une méthode d’échauffement et de relecture, ce qui réduit considérable- ment les coûts de calcul de l’entraînement tout en préservant les performances par rapport à un entraînement à partir de zéro. Par la suite, la thèse étudie comment les stratégies de calcul adaptatif, lorsqu’elles sont combinées avec la mémoire, peuvent être utilisées pour créer des agents d’IA plus efficaces au moment de l’inférence pour des tâches de raisonnement complexes, telles que le jeu stratégique de Sokoban. Nos résultats montrent que les modèles peuvent offrir des per- formances similaires ou améliorées tout en utilisant beaucoup moins de ressources de calcul. Les résultats de cette étude ont de vastes implications pour l’amélioration de l’efficacité in- formatique des systèmes d’IA, soutenant à terme le développement de technologies d’IA plus abordables, accessibles et efficaces. / Over the past decade, significant progress has been made by the field of AI, primarily due to advances in machine learning, deep learning, and the usage of large scale models. However, as these models scale, they present new challenges with respect to handling large datasets and being computationally efficient. This thesis proposes approaches to reducing computational costs of training and inference in artificial intelligence (AI) systems. Specifically, this work investigates how Continual Learning and Adaptive Computation techniques can be used to reducing training and inference costs while preserving the perfor- mance levels of these systems . The findings of the first article show that foundation models can be continually pre-trained through a method of warm-up and replay, which significantly decreases training computational costs while preserving performance compared to training from scratch. Subsequently, the thesis investigates how adaptive computation strategies, when com- bined with memory, can be utilized to create more computationally efficient AI agents at inference time for complex reasoning tasks, such as the strategic game of Sokoban. Our results exhibit that models can deliver similar or improved performances while using signifi- cantly fewer computational resources. Findings from this study have broad implications for improving the computational efficiency of AI systems, ultimately supporting the development of more affordable, accessible, and efficient AI technologies.
276

Contribution to the DC-AC conversion in photovoltaic systems : Module oriented converters / Contribution à l’étude de la conversion DC-AC dans des systèmes photovoltaïques : Convertisseurs orientés au module PV

Lopez Santos, Oswaldo 06 February 2015 (has links)
Ces dernières années, un intérêt croissant pour les systèmes électroniques de puissance a été motivé par l'émergence de sources d'énergie distribuées et renouvelables raccordées aux réseaux électriques. Dans ce contexte, la nécessité de topologies de faibles puissances alimentées par quelques modules photovoltaïques, en évitant l'utilisation de transformateurs, a ouvert l'étude de convertisseurs spéciaux et l’étude des stratégies de commande associées afin d’assurer la stabilité, la fiabilité et un rendement élevé du dispositif. Une possible solution est d’utiliser un dispositif générique connu dans la littérature scientifique et commerciale comme « micro-onduleur » ou «convertisseur intégré au module » qui avec le module photovoltaïque définit un produit « plug and play » appelé "module AC".Ce travail est consacré à l'étude d'un micro-onduleur monophasé avec deux étapes sans transformateur raccordée au réseau. La topologie proposée est composé d’un convertisseur DC-DC non isolé élévateur avec un gain quadratique et un onduleur réducteur lié au réseau connectés en cascade. Le convertisseur DC-DC extrait en permanence la puissance maximale du module photovoltaïque malgré les changements dans les conditions environnementales. L'étape DC-AC injecte la puissance extraite par l'étape DC-DC dans le réseau et assure un niveau élevé de qualité de l’énergie. Les efforts de recherche de ce travail sont concentrés sur la mise au point de commandes utilisant comment base, la théorie de contrôle par mode de glissement, qui conduit à une mise en œuvre simple avec une description théorique complète validée á partir de simulations et expérimentations.Après avoir décrit l'état de l’art dans le premier chapitre, le manuscrit est divisé en quatre chapitres, qui sont dédiés respectivement à l’algorithme de recherche du point de puissance maximale (MPPT), á l’étape de conversion DC-DC, á l'étape de conversion DC-AC et finalement au micro-onduleur complet. Un nouvel algorithme de recherche extrémal du point de puissance maximale est développé (SM-ESC). Pour la étape DC-DC, le convertisseur élévateur quadratique avec seulement un interrupteur contrôlé est étudié utilisant le concept de résistance sans perte par mode de glissement (de l’acronyme anglais : Sliding-Mode Loss-Free-Resistor – SM-LFR) afin d’obtenir un gain de tension élevé avec un fonctionnement sûr et compatible avec l’algorithme MPPT. Pour la étape DC-AC, le convertisseur de pont complet est contrôlé comme un onduleur de source de puissance (de l’acronyme anglais : Power Source Inverter - PSI) en utilisant une commande par mode de glissement qui poursuit une référence sinusoïdale de courant de sortie. Cette commande est complétée par une boucle de régulation de la tension du bus DC qui assure une haute qualité d’énergie injectée dans le réseau. Enfin, les trois étapes constitutives sont fusionnées pour obtenir un micro-onduleur complètement contrôlé par la technique de mode de glissement, ce qui constitue le principal résultat et contribution de cette thèse. / These last years, a growing interest in power electronic systems has been motivated by the emergence of distributed renewable energy resources and their interconnection with the grid. In this context, the need of low power topologies fed by a few photovoltaic modules avoiding the use of transformers opens the study of special converters and the associated control strategies ensuring stability, reliability and high efficiency. A resulted generic device known in the commercial and scientific literature as “microinverter” or “module integrated converter” performs a plug and play product together with the PV module called an “AC module”.This work is devoted to the study of a transformer-less single-phase double-stage grid-connected microinverter. The proposed topology has a non-isolated high-gain boost type DC-DC converter and a non-isolated buck type DC-AC converter connected in cascade through a DC bus. The DC-DC converter permanently extracts the maximum power of the PV module ensuring at the same time a good performance coping with power changes introduced by the change in the environmental conditions. The DC-AC stage injects the power extracted by the DC-DC stage into the grid ensuring a high level of power quality. The research efforts focus on the involved control functions based on the sliding mode control theory, which leads to a simple implementation with a comprehensive theoretical description validated through simulation and experimental results.After giving the state-of-the-art in the first chapter, the manuscript is divided into four chapters, which are dedicated to the Maximum Power Point Tracking (MPPT), the DC-DC stage and its control, the DC-AC stage and its control and the complete microinverter. A new Extremum Seeking Control (ESC) MPPT algorithm is proposed. The single-switch quadratic boost converter is studied operating as a Loss-Free-Resistor (LFR) obtaining a high DC output voltage level with a safe operation. The full-bridge converter is controlled as a Power Source Inverter (PSI) using a simple sliding-mode based tracking law, regulating the voltage of the DC bus and then ensuring a high power quality level in the grid connection. Finally, the three building blocks are merged to obtain a sliding mode controlled microinverter constituting the main result and contribution of the work
277

−1 polynômes orthogonaux

Pelletier, Jonathan 09 1900 (has links)
Ce mémoire est composé de deux articles qui ont pour but commun de lever le voile et de compléter le schéma d’Askey des q–polynômes orthogonaux dans la limite q = −1. L’objectif est donc de trouver toutes les familles de polynômes orthogonaux dans la limite −1, de caractériser ces familles et de les connecter aux autres familles de polynômes orthogonaux −1 déjà introduites. Dans le premier article, une méthode basée sur la prise de limites dans les relations de récurrence est présentée. En utilisant cette méthode, plusieurs nouvelles familles de polynômes orthogonaux sur des intervals continus sont introduites et un schéma est construit reliant toutes ces familles de polynômes −1. Dans le second article, un ensemble de polynômes, orthogonaux sur l’agencement de quatre grilles linéaires, nommé les polynômes de para-Bannai-Ito est introduit. Cette famille de polynômes complète ainsi la liste des parapolynômes. / This master thesis contains two articles with the common goal of unveiling and completing the Askey scheme of q–orthogonal polynomials in the q = −1 limit. The main objective is to find and characterize new families of -1 orthogonal polynomials and connect them to other already known families. In the first article, a method based on applying limits in recurrence relations is presented. This method is used to find many new families of polynomials orthogonal with respect to continuous measure. A −1 scheme containing them is constructed and a compendium containing the properties of all such families is included. In the second article, a new set of polynomials named the para–Bannai–Ito polynomials is introduced. This new set, orthogonal on a linear quadri–lattice, completes the list of parapolynomials, but it is also a step toward the finalization of the -1 scheme of polynomials orthogonal on finite grids.
278

Écrouissage thermique des argiles saturées : application au stockage des déchets radioactifs

Picard, Jean-Marc 19 December 1994 (has links) (PDF)
Les argiles soumises à une charge mécanique constante et à une lente élévation de température donnent lieu généralement à une contraction irréversible. Ce phénomène est interprété par une variation des limites d'élasticité avec la température appelée écrouissage thermique. Une formulation du comportement plastique compatible avec les principes de la thermodynamique montre que ces effets de la température en plasticité reposent sur un couplage particulier où intervient la chaleur latente de transformation de l'état d'écrouissage du matériau. Une extension thermomécanique simple du modèle Cam Clay est proposée pour l'étude du comportement thermomécanique des argiles saturées. Une analyse d'essais de laboratoire déjà publiés illustre la pertinence de ces concepts. Des argiles issues de formations géologiques profondes susceptibles de recevoir un stockage de déchets radioactifs présentent un écrouissage thermique en laboratoire. Les conséquences pour un stockage sont évaluées par des modélisations et par des essais in situ menés dans un laboratoire souterrain. Les mesures faites autour d'une sonde chauffante révèlent l'importance des couplages thermohydromécaniques au sein d'un massif argileux. Les modélisations donnent une interprétation cohérente des mesures in situ. L'accent est mis sur les interactions entre les diverses phases d'un essai : excavation, reconsolidation du massif puis chauffage. Ces analyses montrent que l'écrouissage thermique se manifeste peu dans ces essais. En revanche, les couplages thermohydromécaniques de nature élastique sont nettement plus importants que ceux prévus d'après les essais triaxiaux classiques, ce que l'on attribue la raideur accrue de ce matériau lorsqu'il subit de très faibles déformations.
279

Hypoglycémie nocturne et habitudes alimentaires en soirée chez l'adulte atteint de diabète de type 1

Desjardins, Katherine 06 1900 (has links)
L’hypoglycémie est une barrière au traitement du diabète de type 1 (DbT1). La collation au coucher est recommandée pour prévenir l’hypoglycémie nocturne (HN), mais son efficacité n’est pas démontrée. Objectif : Déterminer si une prise alimentaire en soirée est associée à la survenue d’HN. Étude observationnelle : 100 DbT1 ont porté un lecteur de glucose en continu et complété un journal alimentaire pendant 72 heures. L’HN est survenue durant 28 % des nuits. Une prise alimentaire en soirée n’était pas associée à l’HN. Toutefois, dans un modèle ajusté, l’apport en glucides en soirée était positivement associé aux HN (avec injection d’insuline rapide) et l’apport en protéines inversement associé aux HN (sans injection d’insuline rapide). Manger en soirée ne semble pas associé à moins d’HN. Des études contrôlées sont nécessaires pour comprendre l’effet de la collation au coucher sur le contrôle glycémique et le rôle de l’insuline rapide injectée en soirée. / Hypoglycemia remains a limiting factor of type 1 diabetes (T1D) treatment. Bedtime snack is often suggested to reduce nocturnal hypoglycemia (NH), but its effectiveness is not supported by evidence-based data. Objective: To determine the association between post-dinner dietary intake and NH occurrence. This is an observational study during which 100 T1D wore a blinded continuous glucose monitoring system and completed a food diary for 72 hours. NH occurred on 28 % of the 282 nights studied. Post-dinner dietary intake was not associated with NH. However, in multivariate models, carbohydrate intake was positively associated with NH (when rapid insulin was injected) and protein intake was inversely associated with NH (without rapid insulin injected). Post-dinner dietary intake does not seem to be associated with a reduce occurrence of NH. Further studies are needed to better understand the impact of bedtime snack on glycemic control and the role of the injection of rapid insulin in the evening.
280

Development of a Phase Separation Strategy in Macrocyclization Reactions

Bédard, Anne-Catherine 04 1900 (has links)
La réaction de macrocyclisation est une transformation fondamentale en chimie organique de synthèse. Le principal défi associcé à la formation de macrocycles est la compétition inhérente avec la réaction d’oligomérisation qui mène à la formation de sousproduits indésirables. De plus, l’utilisation de conditions de dilutions élevées qui sont nécessaires afin d’obtenir une cyclisation “sélective”, sont souvent décourageantes pour les applications à l’échelle industrielle. Malgré cet intérêt pour les macrocycles, la recherche visant à développer des stratégies environnementalement bénignes, qui permettent d’utiliser des concentrations normales pour leur synthèse, sont encore rares. Cette thèse décrit le développement d’une nouvelle approche générale visant à améliorer l’efficacité des réactions de macrocyclisation en utilisant le contrôle des effets de dilution. Une stratégie de “séparation de phase” qui permet de réaliser des réactions à des concentrations plus élevées a été developpée. Elle se base sur un mélange de solvant aggrégé contrôlé par les propriétés du poly(éthylène glycol) (PEG). Des études de tension de surface, spectroscopie UV et tagging chimique ont été réalisées afin d’élucider le mécanisme de “séparation de phase”. Il est proposé que celui-ci fonctionne par diffusion lente du substrat organique vers la phase ou le catalyseur est actif. La nature du polymère co-solvant joue donc un rôle crutial dans le contrôle de l’aggrégation et de la catalyse La stratégie de “séparation de phase” a initiallement été étudiée en utilisant le couplage oxidatif d’alcynes de type Glaser-Hay co-catalysé par un complexe de cuivre et de nickel puis a été transposée à la chimie en flux continu. Elle fut ensuite appliquée à la cycloaddition d’alcynes et d’azotures catalysée par un complexe de cuivre en “batch” ainsi qu’en flux continu. / Macrocyclization is a fundamentally important transformation in organic synthetic chemistry. The main challenge associated with the synthesis of large ring compounds is the competing oligomerization processes that lead to unwanted side-products. Moreover, the high dilution conditions needed to achieved “selective” cyclization are often daunting for industrial applications. Despite the level of interest in macrocycles, research aimed at developing sustainable strategies that focus on catalysis at high concentrations in macrocyclization are still rare. The following thesis describes the development of a novel approach aimed at improving the efficiency of macrocyclization reactions through the control of dilution effects. A “phase separation” strategy that allows for macrocyclization to be conducted at higher concentrations was developped. It relies on an aggregated solvent mixture controlled by a poly(ethylene glycol) (PEG) co-solvent. Insight into the mechanism of “phase separation” was probed using surface tension measurments, UV spectroscopy and chemical tagging. It was proposed to function by allowing slow diffusion of an organic substrate to the phase where the catalyst is active. Consequently, the nature of the polymer co-solvent plays a role in controlling both aggregation and catalysis. The “phase separation” strategy was initially developed using the copper and nickel co-catalyzed Glaser-Hay oxidative coupling of terminal alkynes in batch and was also transposed to continuous flow conditions. The “phase separation” strategy was then applied to the copper-catalyzed alkyne-azide cycloaddition in both batch and continuous flow.

Page generated in 0.0601 seconds