• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 204
  • 78
  • 27
  • 2
  • 2
  • 1
  • Tagged with
  • 314
  • 119
  • 51
  • 47
  • 46
  • 43
  • 42
  • 41
  • 39
  • 35
  • 34
  • 32
  • 31
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Manipuler la pharmacocinétique de la cocaïne chez le rat pour comprendre et traiter un phénotype toxicomane

Allain, Florence 12 1900 (has links)
No description available.
272

Les variations spatiales et temporelles de l'occurrence et de la distribution de composés aromatiques polycycliques dans un système fluvial affecté par activités industrielles passées / Spatial and temporal variations of the occurrence and distribution of polycyclic aromatic compounds in a river system affected by past industrial activities

Abuhelou, Fayez 15 December 2016 (has links)
La contamination en composés aromatiques polycycliques (CAP) a été suivie entre 2014 et 2015 au cours de six campagnes d’échantillonnage sur 8 sites différents entre Auboué et Richemont. Cette section du cours d’eau correspond à la partie aval de la vallée de l’Orne profondément affectée par plus d’un siècle d’activités minières et sidérurgiques qui ont cessé entre 1968 et 2009. L’Orne a donc été le réceptacle de rejets industriels et urbains et a été profondément perturbée dans son hydrodynamisme avec la construction de plusieurs barrages. Dans ce contexte, l’occurrence des 16 hydrocarbures aromatiques polycycliques réglementaires (HAP), de 11 CAP oxygénés (O-CAP) et de 5 CAP azotés (N-CAP) et leur distribution dans les fractions dissoute et particulaire des eaux de l’Orne ont été étudiées en mettant en place des protocoles d’échantillonnage et d’analyse adaptés. Le premier objectif de ce travail a été de comparer les méthodes d’échantillonnage des matières en suspension par filtration et par centrifugation à flux continu sur le terrain. Des différences significatives ont pu être identifiées entre les deux techniques, la filtration amenant à des concentrations en CAP plus élevées du fait d’une plus grande abondance des CAP de bas poids moléculaire. Nous avons pu mettre en évidence le rôle de la fraction fine (< 5µm) et/ou colloïdale plus ou moins retenue par les filtres et qui, de part sa réactivité, piège des CAP. La comparaison des deux méthodes dans différentes situations hydrologiques nous montre que cette rétention n’est pas systématique mais plutôt corrélée à des situations de fort hydrodynamisme. Les deux méthodes d’échantillonnage des matières en suspension ne sont donc pas comparables mais complémentaires. Le suivi saisonnier et multi-sites des eaux de l’Orne montre que la concentration en CAP varie entre 1.6 et 223.7 ng L-1 dans la fraction dissoute et entre 1.5 et 105.5 µg g-1 dans la fraction particulaire avec des variations spatiales de ±35% et ±45% respectivement. Les variations de concentration des CAP dans la fraction dissoute sont importantes d’un site à l’autre lorsque le débit est faible (de 0.5 à 34 m3.s-1). Les concentrations en CAP sont faibles autour de 20 ng.L-1 et spatialement homogènes en périodes de haut débit (> 50 m3.s-1) du fait de la dilution. Les concentrations en CAP dans les matières en suspension varient entre 2.8 to 36.3 µg g-1, et montrent des concentrations stables quelles que soient les situations hydrologiques lorsqu’elles sont collectées par la centrifugeuse de terrain. La fraction dissoute est enrichie en HAP de bas poids moléculaire dans les périodes d’étiage et est marquée par l’occurrence des HAP à 5 et 6 cycles aromatiques au cours des épisodes de crue. Les CAP polaires sont au moins aussi abondants que les HAP dans la fraction dissoute et évoluent de la même façon que les HAP. La part des CAP polaires dans la fraction particulaire est significativement plus basse (de 10 à 20% de l’ensemble des CAP) / The spatio-temporal variations of the concentration and distribution of dissolved and particulate polycyclic aromatic compounds (PACs), namely 16 polycyclic aromatic hydrocarbons (PAHs), 11 oxygenated PACs (O-PACs) and 5 nitrogen PACs (N-PACs), were studied in the Orne, a river impacted for more than one century by iron mining and steel-making industry. The first objective of this work was to compare the influence of two different methods of separation of suspended particulate matter (SPM), filtration (FT) and field continuous flow centrifuge (CFC). Results showed that in half of the sampling campaigns, PAC concentrations were 2 to 8 times higher for PAHs and 2 to 10 times higher for O-PAC when SPM were collected by filtration. These differences that were not observed systematically over the six sampling campaigns could be explained by the retention of colloidal matter on glass-fiber filters that appeared as a very reactive phase particularly enriched in low molecular PACs. The two methods were then considered as complementary methods to study SPM. The second objective of this work was to perform a long term monitoring of PAC concentrations and distributions in dissolved and particulate fractions. The results from the six sampling campaigns between May 2014 and September 2015 in eight different sites showed that the PAC concentrations ranged between 1.6 to 223.7 ng L-1 in the dissolved fraction (?PACTD), and between 1,55 to 105,5 µg g-1 in the total particulate fraction, with maximum spatial variation of ±35% and ±45% respectively. The dissolved PACs spatial variations were strongly influenced by the hydrological conditions and less spatial variation was observed during high flow events as the result of dilution and homogenization of pollutants. During low flow events, particulate PACSPM-CFC concentrations were more stable and equivalent in values and distribution to the corresponding PACSPM-FT samples. Overall it was in a range between 2.8 to 36.3 µg g-1. The dominance of dissolved low molecular weight PAHTD in the low flow events decreased during high flow events due to the appearance of penta- and hexa-cyclic PAHs. The dissolved polar PACs were as high as the PAHs contribution and also subjected to seasonal changes, the O-PACs ranged between 5.6 to 90.3 ng L-1 and N-PAHs from 1.0 to 42.5 ng L-1. The particulate polar PACs concentrations and contribution were significantly lower, the highest concentrations of 8,76 µg g-1 and 29,41 µg g-1 was observed during high flow event for O-PACs and during low flow event for N-PAH respectively
273

IIRC : Incremental Implicitly-Refined Classification

Abdelsalam, Mohamed 05 1900 (has links)
Nous introduisons la configuration de la "Classification Incrémentale Implicitement Raffinée / Incremental Implicitly-Refined Classification (IIRC)", une extension de la configuration de l'apprentissage incrémental des classes où les lots de classes entrants possèdent deux niveaux de granularité, c'est-à-dire que chaque échantillon peut avoir une étiquette (label) de haut niveau (brute), comme "ours”, et une étiquette de bas niveau (plus fine), comme "ours polaire". Une seule étiquette (label) est fournie à la fois, et le modèle doit trouver l’autre étiquette s’il l’a déjà apprise. Cette configuration est plus conforme aux scénarios de la vie réelle, où un apprenant aura tendance à interagir avec la même famille d’entités plusieurs fois, découvrant ainsi encore plus de granularité à leur sujet, tout en essayant de ne pas oublier les connaissances acquises précédemment. De plus, cette configuration permet d’évaluer les modèles pour certains défis importants liés à l’apprentissage tout au long de la vie (lifelong learning) qui ne peuvent pas être facilement abordés dans les configurations existantes. Ces défis peuvent être motivés par l’exemple suivant: “si un modèle a été entraîné sur la classe ours dans une tâche et sur ours polaire dans une autre tâche; oubliera-t-il le concept d’ours, déduira-t-il à juste titre qu’un ours polaire est également un ours ? et associera-t-il à tort l’étiquette d’ours polaire à d’autres races d’ours ?” Nous développons un benchmark qui permet d’évaluer les modèles sur la configuration de l’IIRC. Nous évaluons plusieurs algorithmes d’apprentissage ”tout au long de la vie” (lifelong learning) de l’état de l’art. Par exemple, les méthodes basées sur la distillation sont relativement performantes mais ont tendance à prédire de manière incorrecte un trop grand nombre d’étiquettes par image. Nous espérons que la configuration proposée, ainsi que le benchmark, fourniront un cadre de problème significatif aux praticiens. / We introduce the "Incremental Implicitly-Refined Classification (IIRC)" setup, an extension to the class incremental learning setup where the incoming batches of classes have two granularity levels. i.e., each sample could have a high-level (coarse) label like "bear" and a low-level (fine) label like "polar bear". Only one label is provided at a time, and the model has to figure out the other label if it has already learned it. This setup is more aligned with real-life scenarios, where a learner usually interacts with the same family of entities multiple times, discovers more granularity about them, while still trying not to forget previous knowledge. Moreover, this setup enables evaluating models for some important lifelong learning challenges that cannot be easily addressed under the existing setups. These challenges can be motivated by the example "if a model was trained on the class bear in one task and on polar bear in another task, will it forget the concept of bear, will it rightfully infer that a polar bear is still a bear? and will it wrongfully associate the label of polar bear to other breeds of bear?". We develop a standardized benchmark that enables evaluating models on the IIRC setup. We evaluate several state-of-the-art lifelong learning algorithms and highlight their strengths and limitations. For example, distillation-based methods perform relatively well but are prone to incorrectly predicting too many labels per image. We hope that the proposed setup, along with the benchmark, would provide a meaningful problem setting to the practitioners.
274

Applications de la macrocyclisation par métathèse d’alcènes en flux continu et développement d’un réacteur facilitant la macrocyclisation photochimique

Morin, Émilie 08 1900 (has links)
Les réactions de macrocyclisation constituent un défi pour les chimistes de synthèse, car les sélectivités pour les réactions intramoléculaires par rapport à celles intermoléculaires sont difficiles à maximiser. Celles-ci sont donc effectuées dans des milieux dilués et sont souvent lentes. La chimie en flux continu a été utilisée pour améliorer les réactions présentées dans cette thèse, car elle permet un meilleur transfert de masse qui se traduit par un mélange et un chauffage plus efficace, donc des temps de réaction plus courts. À la suite d’introductions sur les macrocycles (Chapitre 1) et sur la métathèse d’alcènes (Chapitre 2), nos efforts pour améliorer l’étape de macrocyclisation par métathèse d’alcènes d’un musc découvert par l’industrie des fragrances sont décrits au chapitre 3. Alors que les conditions rapportées ne permettaient pas de réaliser cette réaction de façon reproductible sur une échelle de plus de 100 mg, il a été possible de l’effectuer sur une échelle d’un gramme grâce à l’emploi du catalyseur approprié. La réaction a été effectuée dans un montage traditionnel (ballon à fond rond) à température ambiante pour fournir 57% du macrocycle désiré après 5 jours. En comparaison, le montage en flux continu n’a nécessité que 5 minutes de temps de résidence à 150 °C pour fournir 32% de rendement. Le second projet présenté dans cette thèse porte sur la synthèse totale de la néomarchantine A (Chapitre 5) et est précédé d’une introduction sur les composés bisbibenzyliques (Chapitre 4). Cette synthèse a permis de démontrer l’avantage d’incorporer plusieurs étapes clés en flux continu. Différentes conditions ont été investiguées pour réaliser les deux étapes de couplage C-O en début de synthèse. Les meilleurs résultats ont été obtenus avec le couplage de Chan-Evans-Lam dans un cas (34%) et la substitution nucléophile (SNAr) dans l’autre (71%), ce qui a permis de s’éloigner des conditions classiques de couplage d’Ullmann. La première macrocyclisation par métathèse d’alcènes pour la synthèse d’un composé bisbibenzylique est également rapportée. Les conditions en flux continu ont permis de réaliser la réaction en seulement 10 minutes de temps de résidence avec un rendement de 49%, ce qui est similaire au rendement obtenu dans un montage traditionnel, mais qui nécessite 17 heures de temps de réaction. Précédé d’une introduction sur la photochimie (Chapitre 6), le chapitre 7 décrit la conception et l’évaluation d’un réacteur en flux continu adapté à la macrocyclisation photochimique. Celui-ci est inspiré des réacteurs à agitation continue (CSTR), mais est aminci pour permettre une irradiation plus uniforme. Son efficacité a été démontrée par l’application de la réaction d’oxydation aérobique de thiols en disulfures. En plaçant plusieurs réacteurs en série, un rendement d’environ 47% a été obtenu peu importe l’échelle de la réaction, allant de 100 mg à 1 g. En comparaison, le montage traditionnel, le réacteur standard en flux continu (PFR) ainsi que le réacteur CSTR n’ont pas été en mesure de fournir plus de 20% du macrocycle désiré. L’étendue de la réaction a été démontrée en synthétisant différents macrocycles d’intérêt biologique ou structurel avec des rendements entre 33 % et 50 %. / Macrocyclization reactions pose a challenge for synthetic chemists because the selectivity for the intramolecular reaction over intermolecular is difficult to achieve. They are usually done in diluted medium and are often slow. Continuous flow chemistry has been used to improve the reactions developed in the present thesis by allowing better mass and energy transfer which results in more efficient mixing and heating, and thus shorter reaction times. Following introductions on macrocycles (Chapter 1) and olefin metathesis (Chapter 2), our efforts to improve the olefin metathesis macrocyclization step of a musk discovered by the fragrance industry are described in Chapter 3. While the reported conditions did not allow the reaction to be performed reproducibly on a scale greater than 100 mg, the use of the appropriate catalyst allowed us to perform the reaction on a gram scale. The reaction was carried out in batch at room temperature to provide 57% of the desired macrocycle after 5 days. In comparison, the continuous flow setup required only 5 minutes of residence time at 150 °C to provide 32% yield. The second project focuses on the total synthesis of neomarchantine A (Chapter 5) and is preceded by an introduction on bisbibenzyl compounds (Chapter 4). The goal of the synthesis was to show the advantage of integrating several key steps in continuous flow. Different conditions were investigated to carry out the two C-O bond forming steps early in the synthesis. The best results were obtained with Chan-Evans-Lam coupling in one case (34%) and a SNAr reaction in the other (71%), which allowed to deviate from the classical conditions of Ullmann coupling. The first macrocyclization by ring-closing metathesis for the synthesis of a bisbibenzyl is also reported. The continuous flow conditions produced a 49% yield of a key macrocycle, which is similar to the batch results but only required 10 minutes of residence time in flow instead of 17 hours of reaction time in batch. Preceded by an introduction on photochemistry (Chapter 6), Chapter 7 describes the design and evaluation of a continuous flow reactor suitable for photochemical macrocyclization. It is inspired by CSTR reactors but is “flattened” to allow a uniform irradiation. Its effectiveness has been demonstrated by the application of aerobic oxidation of thiols to disulfides. By placing reactors in series, a yield of 47% was obtained regardless of the scale, ranging from 100 mg to 1 g. In comparison, the batch setup as well as the CSTR and PFR reactors were not able to provide more than 20% of the desired macrocycle. The scope of the reaction was demonstrated by synthesizing different macrocycles of biological or structural interest in yields of 33-50%.
275

Partie 1 : synthèse d’hexahydroazépinones par un processus catalysé par un complexe de palladium de fonctionnalisation C–H et d’ouverture de cyclopropanes ainsi que l’arylation de liens C(sp2)–H dans la synthèse de fluorophores ; Partie 2 : premières synthèses totales des cannflavins A et C et synthèse en chimie en flux continu de l’acétyl phloroglucinol

Saint-Jacques, Kévin 04 1900 (has links)
Cette thèse est divisée en deux parties. La première porte sur l’utilité de la fonctionnalisation de liaisons C–H hybridées sp2 et sp3 dans la formation d’hétérocycles azotés et fluorophores bioactifs. La deuxième porte sur la première synthèse des cannflavins A, B et C ainsi que l’adaptation d’une des étapes de synthèse en chimie en flux continu. Dans la première partie, il a tout d’abord été montré que la fonctionnalisation de liaisons C(sp3)–H de cyclopropanes catalysée par un complexe de palladium peut être utilisée dans la synthèse de cyclopropanes plus complexes, et ce de façon intramoléculaire. Lorsque le motif cyclopropane n’est pas substitué, ce dernier ouvre afin de former sélectivement l’hexahydroazépinone avec une énamide cyclique. Une fois cette réaction optimisée, elle a été utilisée pour former de nouvelles molécules comportant cet hétérocycle azoté. Cette réaction peut aussi être transposée en flux continu afin de fournir le produit d’ouverture cyclique de façon ininterrompue et ce pendant plusieurs heures. Dans les travaux futurs, nous suggérons de trouver une façon de fonctionnaliser cet hétérocycle dans une réaction de type «one-pot». Ensuite, nous avons montré la force de la fonctionnalisation de liaisons C(sp2)–H via une réaction d’arylation catalysée par un complexe de palladium pour la synthèse de benzo[a]imidazo[2,1,5‑c,d]indolizines, un fluorophore bioactif. Une fois la synthèse complétée, ceux-ci ont été testés dans la bioconjugaison avec un enzyme de type glutamine trans-amidase. Les travaux de biologies sont présentement en cours dans le groupe de la Pre Joelle Pelletier. Dans la seconde partie, nous nous sommes intéressés à la synthèse des cannflavins A, B et C. Ces molécules sont caractérisées comme étant des flavonoïdes qui sont propres à la plante de Cannabis Sativa. En effet, comme une majorité des produits naturels de cette plante, tels que le Δ9-THC et le CBD, ces flavonoïdes sont des molécules bioactives qui ont des propriétés anti-inflammatoires, neuro-protectrices, anti-cancers, anti-parasitiques, et bien d’autres. Nous avons donc effectué la synthèse des cannflavins A, B et C afin d’avoir des quantités adéquates de matériel pour des études biologiques. Dans la synthèse de première génération, nous avons produit la cannflavin A et C en douze étapes avec des rendements globaux de 8,4% et 12%, respectivement. Le développement d’une deuxième stratégie de synthèse a mené à une amélioration concrète de la synthèse de la cannflavin C en diminuant le nombre d’étapes de synthèse de moitié et doublant le rendement, soit en six étapes avec 23%. Ce raccourci synthétique a été mis en place grâce à l’implication d’un complexe de type BF2 comme groupement protecteur et directeur pour fournir un intermédiaire avancé de la synthèse précédente. Les travaux actuels consistent à l’élaboration d’une stratégie similaire pour la synthèse de cannflavin A. Enfin, nous avons optimisé la synthèse de l’acétyl phloroglucinol en flux continu, qui est notamment le matériel de départ pour la synthèse des Cannflavins. En effet, cette réaction d’acylation de Friedel-Crafts a été optimisée en flux continu pour donner l’acétyl phloroglucinol avec 98% de rendement en utilisant le BF3•OEt2 comme acide de Lewis et AcCl comme agent acylant dans l’EtOAc comme solvant vert. La mise en échelle de cette réaction montre qu’il est possible de produire le composé désiré avec une productivité élevée de 99 g/h. Les travaux futurs de ce projet sont d’utiliser le complexe BF2 généré dans cette réaction pour produire un intermédiaire avancé de la cannflavin A. / This thesis is divided into two parts. This first one discusses the use of C–H functionalization of sp2 and sp3 center in the formation of nitrogen-containing heterocycles. The second one describes the first total synthesis of cannflavins A, B and C as well as the continuous flow production of the starting material of this total synthesis. In the first part, we have shown that the use of palladium-catalyzed C(sp3 )–H functionalization of cyclopropanes can be used to synthesize more complex molecules in an intramolecular fashion. When the cyclopropyl motif bears no substitutions, ring opening of the cyclopropane occurs to selectively yield the hexahydroazepinone heterocyclic core as the enamide isomer. We have taken advantage of this opportunity to prepare a variety of hexahydroazepinones using this novel strategy. This reaction can be converted to flow chemistry, thus shortening the reaction time and providing the desired product continuously over several hours. In future work, we will use the enamide motif to further functionalize the azepinone nucleus in a one-pot manner. Furthermore, we have demonstrated the power of the C–H functionalization strategy in the synthesis of benzo[a]imidazo[2,1,5-c,d]indolizines, a fluorescent heterocycle, via palladiumcatalyzed arylation of C(sp 2 )–H bonds. After synthesis, this fluorophore was bioconjugated with a glutamine transamidase enzyme. Biological tests of these compounds are currently being carried out by the group of Pr Joelle Pelletier. In the second part, we are interested in the synthesis of cannflavins A, B and C. These compounds belong to the class of flavonoids and are unique to the Cannabis sativa plant. Like the majority of natural products found in this plant, such as Δ9 -THC and CBD, these flavonoids are indeed bioactive and show various medicinal properties such as being potent anti-inflammatory, neuro-protective, anti-cancer, anti-parasitic and many more. For these reasons, we carried out the total synthesis of cannflavin A, B and C. In the first generation strategy, we achieved the first total synthesis of cannflavin A and C in twelve linear steps with 8.4% and 12% global yield, respectively. The development of a second-generation strategy led to an improvement for the synthesis of cannflavin C in terms of halving the number of steps required and doubling the overall yield, giving 23% yield in six steps. This synthetic shortcut was achieved using a BF2 complex as a traceless directing and protecting group to provide a highly functionalized intermediate in the synthesis of cannflavin C. Current work focuses on the elaboration of a similar strategy for a shorter total synthesis of cannflavin A. We also optimized the synthesis of acetylphloroglucinol in continuous flow chemistry, this phenol being the starting material of Cannflavins. In fact, this Friedel-Crafts acylation using BF3•OEt2 as the Lewis acid and AcCl as the acylating agent in EtOAc as the green solvent has been optimized to achieve 98% yield with a productivity of 99 g/h in the scale-up setup. From now on, we are trying to use this continuously produced BF2 complex to synthesize a late intermediate in the synthesis of cannflavin A.
276

Stabilizing Q-Learning for continuous control

Hui, David Yu-Tung 12 1900 (has links)
L'apprentissage profond par renforcement a produit des décideurs qui jouent aux échecs, au Go, au Shogi, à Atari et à Starcraft avec une capacité surhumaine. Cependant, ces algorithmes ont du mal à naviguer et à contrôler des environnements physiques, contrairement aux animaux et aux humains. Manipuler le monde physique nécessite la maîtrise de domaines d'actions continues tels que la position, la vitesse et l'accélération, contrairement aux domaines d'actions discretes dans des jeux de société et de vidéo. L'entraînement de réseaux neuronaux profonds pour le contrôle continu est instable: les agents ont du mal à apprendre et à conserver de bonnes habitudes, le succès est à haute variance sur hyperparamètres, graines aléatoires, même pour la même tâche, et les algorithmes ont du mal à bien se comporter en dehors des domaines dans lesquels ils ont été développés. Cette thèse examine et améliore l'utilisation de réseaux de neurones profonds dans l'apprentissage par renforcement. Le chapitre 1 explique comment le principe d'entropie maximale produit des fonctions d'objectifs pour l'apprentissage supervisé et non supervisé et déduit, à partir de la dynamique d'apprentissage des réseaux neuronaux profonds, certains termes régulisants pour stabiliser les réseaux neuronaux profonds. Le chapitre 2 fournit une justification de l'entropie maximale pour la forme des algorithmes acteur-critique et trouve une configuration d'un algorithme acteur-critique qui s'entraîne le plus stablement. Enfin, le chapitre 3 examine la dynamique d'apprentissage de l'apprentissage par renforcement profond afin de proposer deux améliorations aux réseaux cibles et jumeaux qui améliorent la stabilité et la convergence. Des expériences sont réalisées dans les simulateurs de physique idéale DeepMind Control, MuJoCo et Box2D. / Deep Reinforcement Learning has produced decision makers that play Chess, Go, Shogi, Atari, and Starcraft with superhuman ability. However, unlike animals and humans, these algorithms struggle to navigate and control physical environments. Manipulating the physical world requires controlling continuous action spaces such as position, velocity, and acceleration, unlike the discrete action spaces of board and video games. Training deep neural networks for continuous control is unstable: agents struggle to learn and retain good behaviors, performance is high variance across hyperparameters, random seed, and even multiple runs of the same task, and algorithms struggle to perform well outside the domains they have been developed in. This thesis finds principles behind the success of deep neural networks in other learning paradigms and examines their impact on reinforcement learning for continuous control. Chapter 1 explains how the maximum-entropy principle produces supervised and unsupervised learning loss functions and derives some regularizers used to stabilize deep networks from the training dynamics of deep learning. Chapter 2 provides a maximum-entropy justification for the form of actor-critic algorithms and finds a configuration of an actor-critic algorithm that trains most stably. Finally, Chapter 3 considers the training dynamics of deep reinforcement learning to propose two improvements to target and twin networks that improve stability and convergence. Experiments are performed within the DeepMind Control, MuJoCo, and Box2D ideal-physics simulators.
277

The role of continual learning and adaptive computation in improving computational efficiency of deep learning

Gupta, Kshitij 01 1900 (has links)
Au cours de la dernière décennie, des progrès significatifs ont été réalisés dans le domaine de l’IA, principalement grâce aux progrès de l’apprentissage automatique, de l’apprentissage profond et de l’utilisation de modèles à grande échelle. Cependant, à mesure que ces modèles évoluent, ils présentent de nouveaux défis en termes de gestion de grands ensembles de données et d’efficacité informatique. Cette thèse propose des approches pour réduire les coûts de calcul de la formation et de l’inférence dans les systèmes d’intelligence artificielle (IA). Plus précisément, ce travail étudie les techniques d’apprentissage continu et de calcul adaptatif, démontrant des stratégies possibles pour préserver les niveaux de performance de ces systèmes tout en réduisant considérablement les coûts de formation et d’inférence. Les résultats du premier article montrent que les modèles de base peuvent être continuellement pré-entraînés grâce à une méthode d’échauffement et de relecture, ce qui réduit considérable- ment les coûts de calcul de l’entraînement tout en préservant les performances par rapport à un entraînement à partir de zéro. Par la suite, la thèse étudie comment les stratégies de calcul adaptatif, lorsqu’elles sont combinées avec la mémoire, peuvent être utilisées pour créer des agents d’IA plus efficaces au moment de l’inférence pour des tâches de raisonnement complexes, telles que le jeu stratégique de Sokoban. Nos résultats montrent que les modèles peuvent offrir des per- formances similaires ou améliorées tout en utilisant beaucoup moins de ressources de calcul. Les résultats de cette étude ont de vastes implications pour l’amélioration de l’efficacité in- formatique des systèmes d’IA, soutenant à terme le développement de technologies d’IA plus abordables, accessibles et efficaces. / Over the past decade, significant progress has been made by the field of AI, primarily due to advances in machine learning, deep learning, and the usage of large scale models. However, as these models scale, they present new challenges with respect to handling large datasets and being computationally efficient. This thesis proposes approaches to reducing computational costs of training and inference in artificial intelligence (AI) systems. Specifically, this work investigates how Continual Learning and Adaptive Computation techniques can be used to reducing training and inference costs while preserving the perfor- mance levels of these systems . The findings of the first article show that foundation models can be continually pre-trained through a method of warm-up and replay, which significantly decreases training computational costs while preserving performance compared to training from scratch. Subsequently, the thesis investigates how adaptive computation strategies, when com- bined with memory, can be utilized to create more computationally efficient AI agents at inference time for complex reasoning tasks, such as the strategic game of Sokoban. Our results exhibit that models can deliver similar or improved performances while using signifi- cantly fewer computational resources. Findings from this study have broad implications for improving the computational efficiency of AI systems, ultimately supporting the development of more affordable, accessible, and efficient AI technologies.
278

Assessing the impact of transcranial direct current stimulation on impulsive behavior in borderline personality disorder : a feasibility study

AL ZATAM, Ahmad 04 1900 (has links)
Borderline personality disorder (BPD) is debilitating mental disorder that affects approximately 2 percent of individuals in community samples. Despite advances in psychiatry, a lack of clear guidance for diagnosis and treatment hinders the pursuit of appropriate treatments and a comprehensive understanding of this mental disorder. Transcranial direct current stimulation is a novel therapeutic tool that has shown positive outcome amongst different psychiatric illnesses. Concerning BPD, with the complexity of diagnosis and the lack of targeted-symptom treatments, data is limited and scarce. Although the available data is limited, with only five published articles, these studies have demonstrated positive outcomes in patients with BPD. However, discrepancies among trials have impeded further comparisons and clear recommendations. Therefore, the research team at Montreal Mental Health University Institute (IUSMM) launched a pilot study to examine the feasibility of tDCS on BPD. In doing so, we also aim to examine the effects of tDCS on some of BPD symptoms. Results revealed that acceptance of tDCS among BPD has a recruitment rate of 68 % and drop off rate of 23% with minimum temporary adverse effects. The effect of tDCS on BPD has shown increased impulsivity whereas improved mood post tDCS. Long term tDCS effects conjugated with psychotherapy revealed overall improvement in BPD psychopathology on BPDSI. To sum up, this study showed that tDCS is a feasible therapeutic tool for patients with BPD. The heightened impulsivity in the presence of alleviation (improvement) of other BPD psychopathologies urge us to initiate standardized protocols. This would help initiating accurate parameters and building a deeper understanding of some common symptoms of BPD. / Le trouble de la personnalité limite (TPL) concernerait environ 2 % de la populaHon générale. Même si la recherche clinique a largement progressé sur les dernières décennies, les psychothérapies spécialisées soutenues par ces dernières restent parHellement accessibles, acceptables et d’efficacité modérée. Ainsi, le développement de nouvelles formes thérapeuHques reste d’actualité. Par ailleurs, la sHmulaHon transcrânienne à courant conHnu (StCC) est un nouvel ouHl thérapeuHque qui a montré des résultats posiHfs dans diverses maladies psychiatriques. En ce qui concerne le TPL, les données demeurent limitées, avec seulement cinq études contrôlées publiées sur le sujet. Alors qu’elles sont encourageantes, notamment sur l’impulsivité, les divergences entre les essais limitent la possibilité de conclusions fermes. Ainsi, dans ce\e étude, nous évaluons la faisabilité et l’efficacité de la StCC pour traiter l'impulsivité chez les personnes a\eintes de TPL. Nous avons recruté 41 paHents sur une période de 10 mois. Le taux de recrutement de la StCC chez les paHents vivant avec un TPL à qui l’étude a été proposée est de 68 % et le taux d'abandon après recrutement de 23 %. Les effets indésirables sont temporaires et minimes. En pré-post StCC, « impulsivité » (score total UPPS) a augmenté, tandis que l'humeur dépressive (MADRS) a diminué. À 3 mois l’associaHon de la StCC et de la psychothérapie est associée à une diminuHon globale de l’intensité du TPL (BPDSI). En conclusion, ce\e étude souHent la faisabilité de l’approche de StCC pour les paHents a\eints de TPL. Si globalement, l’humeur est améliorée avec la StCC et l’intensité du TPL avec la combinaison, l'augmentaHon de l'impulsivité quesHonne les paramètres de sHmulaHon des futures études.
279

The shifting landscape of data : learning to tame distributional shifts

Ibrahim, Adam 05 1900 (has links)
Les modèles d'apprentissage automatique (ML) atteignent des performances remarquables sur les tâches pour lesquelles ils sont entraînés. Cependant, ils sont souvent sensibles aux changements dans la distribution des données, ce qui peut nuir à leur fiabilité. Cela peut se produire lorsque la distribution des données rencontrées au déploiement diffère de celle vue pendant l'entraînement, entraînant une dégradation considérable des performances. Pire encore, les attaquants peuvent également induire de tels changements afin d'induire les modèles d'apprentissage automatique en erreur. Enfin, cela peut même arriver si l'entraînement est effectué séquentiellement sur des distributions de données différentes. Ces changements de distribution sont omniprésents en ML, nuisant à l'équité, à la fiabilité, à la sécurité et à l'efficacité des modèles d'apprentissage automatique. Cette thèse se concentre sur la compréhension et l'amélioration de la robustesse et de l'adaptation des modèles de ML aux changements de distribution, englobant à la fois des travaux théoriques et expérimentaux. Tout d'abord, nous étudions les limites fondamentales de l'optimisation différentiable à plusieurs objectifs. Une meilleure compréhension de ces limites est importante car les travaux sur les changements de distribution reposent souvent sur des formulations de la théorie des jeux. Nous fournissons de nouvelles bornes inférieures sur la vitesse de convergence d'une large classe de méthodes, ainsi que de nouvelles métriques de conditionnement qui aident à évaluer la difficulté d'optimiser des classes de jeux, et expliquent le potentiel de convergence rapide, même sans forte convexité ou forte concavité. Deuxièmement, nous abordons le manque de robustesse aux attaques adversarielles contre plusieurs types d'attaques, une limitation courante des méthodes de pointe. Nous proposons une approche inspirée de la généralisation de domaine, utilisant l'extrapolation des risques (REx) pour promouvoir la robustesse à plusieurs attaques. Notre méthode atteint des performances supérieures aux bases de référence existantes, que les attaques aient été vues ou non lors de l'entraînement. Enfin, nous nous intéressons aux défis du pré-entraînement continu pour les grands modèles de langage (LLM). Ces modèles sont confrontés à un compromis: soit ils oublient de manière catastrophique les connaissances antérieures lorsqu'ils sont mis à jour sur de nouvelles données, soit ils nécessitent un réentraînement complet coûteux en calcul. Nous démontrons qu'une combinaison de réchauffement et de re-décroissance du taux d'apprentissage, et de réutilisation des données précédemment utilisées permet aux LLM d'apprendre continuellement à partir de nouvelles distributions tout en préservant leurs performances sur les données auparavant apprises. Cette approche permet d'atteindre les performances d'un réentraînement complet, mais à une fraction du coût en calcul. Dans l'ensemble, cette thèse apporte des considérations importantes pour améliorer la robustesse et l'adaptation aux changements de distribution. Ces contributions ouvrent des voies prometteuses pour relever les défis du ML du monde réel dans l'optimisation multiobjectif, la défense contre les adversaires et l'apprentissage continu des grands modèles de langage. / Machine learning (ML) models achieve remarkable performance on tasks they are trained for. However, they often are sensitive to shifts in the data distribution, which may lead to unexpected behaviour. This can happen when the data distribution encountered during deployment differs from that used for training, leading to considerable degradation of performance. Worse, attackers may also induce such shifts to fool machine learning models. Finally, this can even happen when training sequentially on different data distribution. These distributional shifts are pervasive in ML, hindering the fairness, reliability, safety and efficiency of machine learning models. This thesis is focused on understanding and improving the robustness and adaptation of ML models to distributional shifts, encompassing both theoretical and experimental work. First, we investigate the fundamental limits of differentiable multiobjective optimisation. This investigation is important because works on distributional shifts often rely on game theoretical formulations. We provide new lower bounds on the speed of convergence of a large class of methods, along with novel condition numbers that help assess the difficulty to optimise classes of games, and explain the potential for fast convergence even without strong convexity or strong concavity. Second, we address the lack of adversarial robustness against multiple attack types, a common limitation of state-of-the-art methods. We propose a domain generalisation-inspired approach, using Risk Extrapolation (REx) to promote robustness across a range of attacks. Our method achieves performance superior to existing baselines for both seen and novel types of attacks. Finally, we tackle the challenges of continual pretraining for large language models (LLMs). These models face a trade-off: either they catastrophically forget previous knowledge when updated on new data, or they require computationally expensive full retraining. We demonstrate that a combination of learning rate re-warming, re-decaying, and the replay of previous data allows LLMs to continually learn from new distributions while preserving past knowledge. This approach matches the performance of full retraining, but at a fraction of the computational cost. Overall, this thesis contributes impactful considerations towards improving robustness and adaptation to distributional shifts. These contributions open promising avenues for addressing real-world ML challenges across multiobjective optimisation, adversarial defense, and continual learning of large language models.
280

Contribution to the DC-AC conversion in photovoltaic systems : Module oriented converters / Contribution à l’étude de la conversion DC-AC dans des systèmes photovoltaïques : Convertisseurs orientés au module PV

Lopez Santos, Oswaldo 06 February 2015 (has links)
Ces dernières années, un intérêt croissant pour les systèmes électroniques de puissance a été motivé par l'émergence de sources d'énergie distribuées et renouvelables raccordées aux réseaux électriques. Dans ce contexte, la nécessité de topologies de faibles puissances alimentées par quelques modules photovoltaïques, en évitant l'utilisation de transformateurs, a ouvert l'étude de convertisseurs spéciaux et l’étude des stratégies de commande associées afin d’assurer la stabilité, la fiabilité et un rendement élevé du dispositif. Une possible solution est d’utiliser un dispositif générique connu dans la littérature scientifique et commerciale comme « micro-onduleur » ou «convertisseur intégré au module » qui avec le module photovoltaïque définit un produit « plug and play » appelé "module AC".Ce travail est consacré à l'étude d'un micro-onduleur monophasé avec deux étapes sans transformateur raccordée au réseau. La topologie proposée est composé d’un convertisseur DC-DC non isolé élévateur avec un gain quadratique et un onduleur réducteur lié au réseau connectés en cascade. Le convertisseur DC-DC extrait en permanence la puissance maximale du module photovoltaïque malgré les changements dans les conditions environnementales. L'étape DC-AC injecte la puissance extraite par l'étape DC-DC dans le réseau et assure un niveau élevé de qualité de l’énergie. Les efforts de recherche de ce travail sont concentrés sur la mise au point de commandes utilisant comment base, la théorie de contrôle par mode de glissement, qui conduit à une mise en œuvre simple avec une description théorique complète validée á partir de simulations et expérimentations.Après avoir décrit l'état de l’art dans le premier chapitre, le manuscrit est divisé en quatre chapitres, qui sont dédiés respectivement à l’algorithme de recherche du point de puissance maximale (MPPT), á l’étape de conversion DC-DC, á l'étape de conversion DC-AC et finalement au micro-onduleur complet. Un nouvel algorithme de recherche extrémal du point de puissance maximale est développé (SM-ESC). Pour la étape DC-DC, le convertisseur élévateur quadratique avec seulement un interrupteur contrôlé est étudié utilisant le concept de résistance sans perte par mode de glissement (de l’acronyme anglais : Sliding-Mode Loss-Free-Resistor – SM-LFR) afin d’obtenir un gain de tension élevé avec un fonctionnement sûr et compatible avec l’algorithme MPPT. Pour la étape DC-AC, le convertisseur de pont complet est contrôlé comme un onduleur de source de puissance (de l’acronyme anglais : Power Source Inverter - PSI) en utilisant une commande par mode de glissement qui poursuit une référence sinusoïdale de courant de sortie. Cette commande est complétée par une boucle de régulation de la tension du bus DC qui assure une haute qualité d’énergie injectée dans le réseau. Enfin, les trois étapes constitutives sont fusionnées pour obtenir un micro-onduleur complètement contrôlé par la technique de mode de glissement, ce qui constitue le principal résultat et contribution de cette thèse. / These last years, a growing interest in power electronic systems has been motivated by the emergence of distributed renewable energy resources and their interconnection with the grid. In this context, the need of low power topologies fed by a few photovoltaic modules avoiding the use of transformers opens the study of special converters and the associated control strategies ensuring stability, reliability and high efficiency. A resulted generic device known in the commercial and scientific literature as “microinverter” or “module integrated converter” performs a plug and play product together with the PV module called an “AC module”.This work is devoted to the study of a transformer-less single-phase double-stage grid-connected microinverter. The proposed topology has a non-isolated high-gain boost type DC-DC converter and a non-isolated buck type DC-AC converter connected in cascade through a DC bus. The DC-DC converter permanently extracts the maximum power of the PV module ensuring at the same time a good performance coping with power changes introduced by the change in the environmental conditions. The DC-AC stage injects the power extracted by the DC-DC stage into the grid ensuring a high level of power quality. The research efforts focus on the involved control functions based on the sliding mode control theory, which leads to a simple implementation with a comprehensive theoretical description validated through simulation and experimental results.After giving the state-of-the-art in the first chapter, the manuscript is divided into four chapters, which are dedicated to the Maximum Power Point Tracking (MPPT), the DC-DC stage and its control, the DC-AC stage and its control and the complete microinverter. A new Extremum Seeking Control (ESC) MPPT algorithm is proposed. The single-switch quadratic boost converter is studied operating as a Loss-Free-Resistor (LFR) obtaining a high DC output voltage level with a safe operation. The full-bridge converter is controlled as a Power Source Inverter (PSI) using a simple sliding-mode based tracking law, regulating the voltage of the DC bus and then ensuring a high power quality level in the grid connection. Finally, the three building blocks are merged to obtain a sliding mode controlled microinverter constituting the main result and contribution of the work

Page generated in 0.0777 seconds