• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 204
  • 78
  • 27
  • 2
  • 2
  • 1
  • Tagged with
  • 314
  • 119
  • 51
  • 47
  • 46
  • 43
  • 42
  • 41
  • 39
  • 35
  • 34
  • 32
  • 31
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Développement d'une réaction d'amidation utilisant le diphénylsilane en tant qu'agent de couplage et d'une réaction de borocyclopropanation photochimique

Sayes, Morgane 08 1900 (has links)
Ce manuscrit décrit les travaux de doctorat réalisés au sein du laboratoire du Pr. Charette entre 2015 et 2019. Ceux-ci s’inscrivent dans deux thématiques de recherche différentes : le développement de nouvelles stratégies d’amidation et le développement de nouvelles méthodologies de cyclopropanation. La synthèse de liaisons amides est, encore aujourd’hui, un défi pour la communauté chimique. En effet, le développement de méthodologies simples, robustes, économes en atomes, et plus respectueuses de l’environnement reste l’une des priorités de recherche en chimie organique. Afin d’apporter une contribution à ce domaine, une méthodologie de synthèse d’amides a été développée en utilisant le diphénylsilane en tant qu’agent de couplage. Celui-ci est disponible commercialement, stable et peu onéreux. De plus, il ne génère qu’un siloxane et du dihydrogène gazeux en fin de réaction. La méthodologie mise au point a également pu être appliquée à la synthèse d’une série de di- et tripeptides. L’utilisation du motif cyclopropanique n’a cessé de prendre de l’ampleur dans le secteur pharmaceutique. En effet, celui-ci peut influer sur différents paramètres cruciaux dans le développement de molécules biologiquement actives. Le développement de nouvelles méthodologies de cyclopropanation est donc un domaine pertinent. La synthèse de borocyclopropanes est particulièrement intéressante : en effet, ces composés peuvent permettre de créer de la diversité structurale via une fonctionnalisation du boronate. Afin d’obtenir un procédé de synthèse de ces composés simple, robuste et plus « vert », une approche photochimique utilisant la technologie en débit continu a été favorisée. Une réaction de borocyclopropanation photorédox de styrènes a pu être mise au point ; celle-ci est réalisée sous irradiation UV-A en présence de xanthone en tant que photocatalyseur. Les études menées afin d’élucider le mécanisme ont permis de conclure que cette transformation se déroulait selon deux cycles catalytiques photorédox concomitants. Finalement, un nouveau réactif diiodé comportant une fonction ester boronique de pinacol et un groupement triméthylsilyle a été développé afin d’accéder à des cyclopropanes gem-disubstitués. Les bases d’un procédé photochimique UV-visible utilisant ce nouveau réactif ont ensuite pu être établies. Ainsi, le premier exemple d’un gem-borocyclopropyl silane dérivé du styrène a pu être synthétisé. / This manuscript describes the work carried out in Pr. Charette’s laboratory between 2015 and 2019. It can be divided into two different topics: the development of new amidation strategies and the development of new cyclopropanation methodologies. Amide synthesis is still a challenge for the scientific community nowadays. Indeed, the development of simple, robust, atom economical and environmental friendly procedures remain one of the research priority in organic chemistry. To contribute to this field, an amide synthesis methodology has been developed by using diphenylsilane as a coupling reagent. The latter is commercially available, stable and cheap. Moreover, only a siloxane and dihydrogen are generated during the reaction. The developed methodology has also been applied to the synthesis of a series of di- and tripeptides. The cyclopropane moiety has been increasingly used in pharmaceuticals. Indeed, this moiety can influence different crucial parameters in the development of bioactive molecules. The development of new cyclopropanation methodologies is therefore a relevant field. Borocyclopropane synthesis is of particular interest: as a matter of fact, these compounds can create structural diversity via boronate functionalization. In order to obtain a user-friendly, robust and greener chemical process, a photochemical approach using continuous flow technology has been favored. A photoredox borocyclopropanation of styrenes has been developed; the latter is carried out under UV-A irradiation with xanthone as a photosensitizer. Mechanistic studies have supported that this transformation proceeds according to two concurrent photoredox catalytic cycles. Finally, a new diiodo reagent bearing a pinacol boronate group and a trimethylsilyl group has been developed to access gem-disubstituted cyclopropanes. The bases of a UV-visible photochemical process using this new reagent have then been established. Thereby, the first example of a gem-borocyclopropyl silane derived from styrene has been synthesized.
202

Contribution to the implementation of a process control system for continuous powder mixing / Contribution à l'implémentation d'un système de contrôle-commande pour mélange de poudres en continu

Zhao, Xiaojuan 26 November 2013 (has links)
Le mélange de poudres est une opération essentielle dans divers domaines industriels, tels que les produits pharmaceutiques, agro-alimentaires, ciments, etc. Le mélange de poudres en continu, comme alternative intéressante au mélange conventionnel en batch, suscite beaucoup d'intérêt surtout en raison de sa capacité à gérer de grands volumes de production. Ce travail vise à contribuer à l'implémentation des applications de contrôle-commande. Avant de développer des stratégies de contrôle-commande, de nouveaux développements ont été présentés pour mieux comprendre le mélange continu de deux composants. La masse retenue et la répartition relative de la masse retenue de chaque composant dans le mélangeur ont été étudiées et prédites sous les différentes conditions opératoires. L'amélioration d'un modèle basé sur les chaînes de Markov a été finalement présentée pour prédire la concentration moyenne des mélanges obtenus à la sortie du mélangeur. L'implémentation d'un contrôleur PID a été expérimentalement réalisée comme une première tentative pour contrôler en temps réel l'homogénéité du mélange produit. La vitesse de rotation du mobile d'agitation, identifiée comme un facteur important influençant l'efficacité du mixer, a été considérée comme la variable manipulée. La commande en boucle fermée est basée, soit sur la concentration moyenne, soit sur le coefficient de variation. Les performances des boucles fermées proposées ont été évaluées pour le mélange continu subi à des changements d'échelon dans les débits d'alimentation du mélangeur. Quatre études de cas ont été définies et présentées. Le défi principal dans le système de contrôle-commande est le réglage des paramètres PID. La performance de commande en boucle fermée soit de la concentration moyenne, soit du coefficient de variation a été comparée à l'opération en boucle ouverte. / Powder mixing is an essential operation in various industrial fields, such as pharmaceuticals, agro-food, cements, etc. Continuous powder mixing, as an alternative to conventional batch mixing, has attracted a lot of interest mainly due to its capacity in handling high volume manufacturing. This work aims at the contribution to the implementation of process control applications for powder mixing in a pilot-scale continuous mixer. Prior to developing process control strategies, new developments have been presented for better understanding continuous mixing of two components. Hold-up weight and relative hold-up weight distribution of each component in the whole mixer have been experimentally investigated under different operating conditions. An improved Markov chain model has been finally presented to predict the mean concentration of the mixtures obtained at the mixer's outlet. The implementation of a proportional-integral-derivative (PID) controller has been experimentally performed as an initial attempt to real-time control the homogeneity of the mixture produced. The rotational speed of the stirrer, identified as an important deciding factor towards the mixer's efficiency, has been considered as the manipulated variable. The closed-loop control is based on either the mean concentration or the relative standard deviation. The performances of the proposed closed-loops have been evaluated for continuous mixing subjected to step changes in feed rates of the mixer. Four case studies have been defined and presented. The main challenge in the process control system is the tuning of PID parameters. The performance of closed-loop control of either the mean concentration or the relative standard deviation has been compared to open-loop operation.
203

Caractérisation et modélisation de l’écoulement de boues résiduaires dans un sécheur à palettes / Characterization and modeling of the flow pattern of sewage sludge in a paddle dryer

Charlou, Christophe 28 April 2014 (has links)
Le séchage est une opération incontournable pour la valorisation énergétique des boues résiduaires. La flexibilité pour ajuster la teneur en matière sèche finale de la boue est un critère important pour le choix d'une technologie. Cet objectif est difficile à atteindre pour les sécheurs à palettes. La modélisation du processus est alors essentielle. Malheureusement, le comportement rhéologique des boues est complexe et la mécanique des fluides numérique est hors de portée. La notion de Distribution des Temps de Séjour est employée ici pour caractériser l'écoulement. Un protocole fiable et reproductible a été établi et mis en œuvre sur un pilote de laboratoire. Des injections Dirac d'oxyde de titane et de sels métalliques, avec la spectrométrie de fluorescence X comme méthode de détection, ont été employées pour caractériser les DTS du solide anhydre et de la boue humide. Pré-Mélanger la boue pâteuse, pour disperser le traceur par exemple, modifie la structure du matériau. Ceci a été mis en évidence par des mesures de distribution en taille des particules et par des caractérisations rhéologiques. Cependant, des expériences de séchage en batch ont montré que ce pré-Mélange n'a aucune influence sur la cinétique et sur la phase plastique. Nous avons montré que le solide anhydre et le solide humide s'écoulent de la même manière. Une seconde méthode, basée sur une détection par conductimétrie, a alors été développée. Plus facile à mettre en œuvre et moins onéreuse, cette méthode s'avère tout aussi fiable que la première. L'influence de la durée de stockage de la boue, avant séchage, a été évaluée. Le temps de séjour de la boue dans le sécheur double quand la durée de stockage passe de 24h à 48h. Finalement, un modèle d'écoulement, basé sur la théorie de chaînes de Markov, a été développé. L'écoulement du solide anhydre est décrit par une chaîne de n cellules parfaitement mélangées, n correspondant au nombre de palettes. Les probabilités de transition entre les cellules sont régies par deux paramètres : le ratio de recyclage interne, R, et la masse de solides retenus, MS. R est déterminé par la relation de Van der Laan et MS est identifié par ajustement du modèle aux données expérimentales. Le modèle décrit de manière satisfaisante les DTS. La masse de solides retenus identifiée est toujours plus faible que la quantité mesurée expérimentalement. Une partie de la boue, collée aux parois du sécheur et au rotor, agit comme un volume mort. / Drying is an unavoidable operation prior to sludge valorization in incineration, pyrolysis or gasification. The flexibility to adapt the solid content of the dried sludge to the demand is a major requirement of any drying system. This objective is difficult to reach for paddle dryers. Modeling the process is thus essential. Unfortunately, sludge rheological behavior is complex and computational fluid dynamics is out of reach for the time being. The concept of Residence Time Distribution (RTD) is used here to investigate sludge flow pattern in a paddle dryer. A reliable and reproducible protocol was established and implemented on a lab-Scale continuous dryer. Pulse injections of titanium oxide and of salt metals, with X-Ray fluorescence spectroscopy as detection method, were used to characterize the RTD of anhydrous solid and wet sludge, respectively. Premixing the pasty sludge, for tracer powder dispersion for instance, changes the structure of the material. This was highlighted through the measurements of particle size distributions and characterization of rheological properties. However, drying experiments performed in batch emphasized that premixing does not have any influence on the kinetic and the sticky phase. The RTD curves of the anhydrous solid are superimposed on those of the moist sludge. Consequently, a simpler protocol, based on pulse injection of chloride sodium and offline conductivity measurements, was established. Easier to implement in industry and cheaper, this method proves to be as reliable as the first one. The influence of storage duration prior to drying was assessed. The mean residence time doubles when the storage duration changes from 24h to 48h. Finally, a model based on the theory of Markov chains has been developed to represent the RTD. The flow of anhydrous solids is described by a chain of n perfectly mixed cells, n corresponding to the number of paddles. The transition probabilities between the cells are governed by two parameters: the ratio of internal recirculation, R, and the solids hold-Up, MS. R is determined from the Van der Laan's relation and MS is identified by fitting the model to the experimental RTD. The model describes the flow pattern with a good accuracy. The computed hold-Up is lower than the experimental one. Part of the sludge is stuck to the walls of the dryer, acting as dead volumes in the process.
204

Commande d'une éolienne à base de GSAP connectée au réseau électrique par convertisseur multiniveaux

Berhail, Abdelkader January 2020 (has links) (PDF)
No description available.
205

Synthèse de sulfilimines et sulfoximines à partir de N-mésyloxycarbamates catalysée par des complexes de fer

Lai, Calvine 06 1900 (has links)
Les sulfilimines et sulfoximines sont des analogues monoazotés des sulfoxydes et des sulfones. Ces motifs ont récemment connu un regain d’intérêt considérable, notamment dû à leurs présences dans plusieurs molécules d’intérêt pour l’industrie pharmaceutique et pour l’agrochimie. Les travaux présentés dans ce manuscrit visent à développer de nouvelles stratégies de synthèse pour accéder à ces composés. Ces méthodes sont basées sur l’amination de thioéthers et de sulfoxydes via un intermédiaire nitrène métallique. Au cours des dernières années, notre groupe de recherche a mis au point un précurseur de nitrènes stable et facile à manipuler, les N-mésyloxycarbamates. Leur association avec des dimères de rhodium a permis de développer des réactions d’amination variées telles que l’insertion dans un lien C-H, l’aziridination de styrènes ou encore l’amination de thioéthers ou sulfoxydes pour former des sulfilimines et sulfoximines. Dans la perspective d’utiliser un métal de transition moins toxique et coûteux, il a été choisi d’étudier les complexes de fer. Dans un premier temps, une réaction d’amination photochimique de thioéthers en flux continu a été développée. Cette stratégie repose sur l’utilisation du Fe(acac)3 comme catalyseur et de la lumière UVA pour générer un nitrène métallique à partir de N-mésyloxycarbamates. Le choix d’un solvant biphasique constitué d’acétate d’éthyle et d’eau a permis de solubiliser le sous-produit de la réaction, à savoir le mésylate de sodium. Par la suite, une nouvelle méthode d’amination de thioéthers et de sulfoxydes, basée sur la formation in situ d’un complexe Fe butylimidazole a été mise au point. L’utilisation du butylimidazole comme base a permis d’obtenir des conditions homogènes grâce à la formation d’un liquide ionique comme sous-produit de la réaction. Cette méthodologie donne accès à plusieurs sulfilimines et sulfoximines avec d’excellents rendements, en batch ou en flux continu. Enfin, la réaction d’amination stéréosélective de thioéthers a été étudiée. Un système catalytique constitué d’un catalyseur de fer (II) et d’un ligand Pyox a permis d’obtenir des résultats prometteurs. / Sulfilimines and sulfoximines are aza-analogues of sulfoxides and sulfones. In recent years, these motifs have received considerable attention as they can be found in an array of biologically relevant molecules, including pharmaceuticals and agrochemicals. In the present thesis, we have developed new strategies to access these compounds. The methods are based on the amination of sulfides and sulfoxides via a metal nitrene species. Our research group has developed stable and easy to handle nitrene precursors, namely N-mesyloxycarbamates. We have performed various amination reactions such as C-H insertion, aziridination or sulfimidation in the presence of a rhodium dimer catalyst. As an alternative to rhodium, we have decided to study iron catalysts because of their low toxicity and wide availability. First, a photochemical amination reaction of sulfides was developed in continuous flow. The strategy relies on the use of Fe(acac)3 as a catalyst and UVA light to generate a metal nitrene from N-mesyloxycarbamates. A biphasic mixture was used as it allowed the solubilization of the by-product, namely sodium mesylate. Then, a novel amination reaction was also developed. The use of 1-butylimidazole as a base proved instrumental in enabling a homogenous reaction mixture. The methodology allowed the access to a wide range of sulfilimines and sulfoximines with excellent yields, in batch or in continuous flow. Finally, the stereoselective amination of thioanisole was studied. A catalytic system consisting of iron (II) catalyst and a Pyox ligand showed promising results.
206

Conception de modulateurs Delta-Sigma passe-bas en technologie CMOS pour des applications à large bande passante et haute résolution / Design of wideband high-resolution low-pass continuous-time delta-sigma modulators in CMOS process

Fakhoury, Hussein 19 December 2014 (has links)
Le marché des convertisseurs analogique-numérique peut être segmenté en deux catégories de circuits. Nous distinguons d’une part, les blocs de propriété intellectuelle (IP) qui sont généralement optimisés pour une application spécifique. Et d’autre part, les circuits intégrés discrets qui sont conçus pour répondre aux besoins d’une plus large gamme d’applications. Ce travail de thèse concerne la deuxième catégorie de composants. Il s’inscrit dans le cadre d'un programme de recherche et développement initié en 2010 dans le projet européen FP7 SACRA et dont le but était d'étudier la faisabilité d'un convertisseur analogique-numérique Delta-Sigma (DS) qui pourrait rivaliser avec l'architecture pipeline pour des applications nécessitant une large bande passante (≥10MHz) et une haute résolution (>10-bit) comme l’imagerie médicale, les communications numériques sans fils ou câblées, la vidéo ou encore l’instrumentation. Ce manuscrit synthétise les travaux de conception, fabrication et mesure d’un modulateur DS Passe-bas à temps continu avec une bande passante de 40MHz, et visant une résolution effective de 12-bit tout en consommant moins de 100mW. / The market of A/D converters can be segmented in two categories. From one side we distinguish the Intellectual Property (IP) blocks that are generally optimized for a specific application. On the other side, the general-purpose discrete Integrated Circuits (ICs) that are designed such as they could be used in different applications. This thesis work deals with the second category. It is part of a research and development program initiated in 2010 in the European project FP7 SACRA, whose purpose was to study the feasibility of a delta-sigma (DS) analog-to-digital converter that could compete with the pipeline architecture for applications that require high bandwidth (≥10MHz) and high resolution (>10-bit) such as medical imaging, wireless and wireline communications, video or instrumentation. Currently, the pipeline is still largely predominant for such applications and the few commercial wideband solutions based on a DS architecture have a signal bandwidth limited to 10 MHz or 25 MHz while consuming respectively 100mW and 20mW for an ENOB around 12-bit. This manuscript summarizes the design, fabrication and measurement of a low-pass CT DS modulator with a signal bandwidth of 40MHz, while targeting an effective resolution of 12-bit and a power consumption of less than 100mW.
207

Modélisation mésoscopique en 3D par le modèle Discret-Continu de la stabilité des fissures courtes dans les métaux CFC / A 3D mesoscopic study of the stability of three-dimensional short cracks in FCC metals using the Discrete-Continuous Model

Korzeczek, Laurent 10 July 2017 (has links)
Le mode de propagation complexe des fissures courtes observé dans les métaux ductiles sous chargement cyclique est généralement attribué à différents mécanismes de stabilisation intervenant à l’échelle de la microstructure, l’échelle mésoscopique. Parmi ces mécanismes, l’interaction de la fissure avec la microstructure de dislocation semble jouer un rôle majeur. La dynamique des dislocations contrôle la déformation plastique et le transfert de chaleur qui lui est associé et réduit ainsi la quantité d’énergie élastique stockée dans le matériau. De plus, la microstructure de dislocations peut « écranter » le champ élastique induit par la fissure par son propre champ de contraintes et modifier la géométrie de la fissure par l’émoussement des surfaces en pointe. Pour la première fois, ces mécanismes sont étudiés avec des simulations 3D de Dynamique des Dislocation avec le modèle Discrete-Continu. Trois orientations de fissure sont testées sous un chargement monotone en traction, promouvant une ouverture en fond de fissure en mode I. De manière surprenante, les simulations montrent que les effets d’écrantage et d’émoussement n’ont pas un rôle clé dans la stabilisation des fissures testées en mode I. Le mécanisme principal se trouve être la capacité du matériau à se déformer plastiquement sans mettre en oeuvre un durcissement important par le mécanisme de la forêt. Des recherches supplémentaires sur deux effets de taille confirment ces résultats et montrent également la contribution mineure d’une densité de dislocations polarisées et du durcissement cinématique associé à la stabilisation des fissures. / The erratic behaviour of short cracks propagation under low cyclic loading in ductile metals is commonly attributed to a complex interplay between stabilisation mechanisms that occur at the mescopic scale. Among these mechanisms, the interaction with the existing dislocation microstructure play a major role. The dislocation microstructure is source of plastic deformation and heat transfer that reduce the specimen stored elastic energy, screen the crack field due to its self generated stress field or change the crack geometry through blunting mechanisms. For the first time, these mechanisms are investigated with 3D-DD simulations using the Discrete- Continuous Model, modelling three different crack orientations under monotonic traction loading promoting mode I crack opening.Surprisingly, screening and blunting effects do not seem to have a key role on mode I crack stabilisation. Rather, the capability of the specimen to deform plastically without strong forest hardening is found to be the leading mechanism. Additional investigations of two different size effects confirm those results and show the minor contribution of a polarised dislocations density and the associated kinematic hardening on crack stabilisation.
208

Interopérabilité des systèmes distribués produisant des flux de données sémantiques au profit de l'aide à la prise de décision / Interoperability of distributed systems producing semantic data stream for decision-making

Belghaouti, Fethi 26 January 2017 (has links)
Internet est une source infinie de données émanant de sources telles que les réseaux sociaux ou les capteurs (domotique, ville intelligente, véhicule autonome, etc.). Ces données hétérogènes et de plus en plus volumineuses, peuvent être gérées grâce au web sémantique, qui propose de les homogénéiser et de les lier et de raisonner dessus, et aux systèmes de gestion de flux de données, qui abordent essentiellement les problèmes liés au volume, à la volatilité et à l’interrogation continue. L’alliance de ces deux disciplines a vu l’essor des systèmes de gestion de flux de données sémantiques RSP (RDF Stream Processing systems). L’objectif de cette thèse est de permettre à ces systèmes, via de nouvelles approches et algorithmes à faible coût, de rester opérationnels, voire plus performants, même en cas de gros volumes de données en entrée et/ou de ressources système limitées.Pour atteindre cet objectif, notre thèse s’articule principalement autour de la problématique du : "Traitement de flux de données sémantiques dans un contexte de systèmes informatiques à ressources limitées". Elle adresse les questions de recherche suivantes : (i) Comment représenter un flux de données sémantiques ? Et (ii) Comment traiter les flux de données sémantiques entrants, lorsque leurs débits et/ou volumes dépassent les capacités du système cible ?Nous proposons comme première contribution une analyse des données circulant dans les flux de données sémantiques pour considérer non pas une succession de triplets indépendants mais plutôt une succession de graphes en étoiles, préservant ainsi les liens entre les triplets. En utilisant cette approche, nous avons amélioré significativement la qualité des réponses de quelques algorithmes d’échantillonnage bien connus dans la littérature pour le délestage des flux. L’analyse de la requête continue permet d’optimiser cette solution en repèrant les données non pertinentes pour être délestées les premières. Dans la deuxième contribution, nous proposons un algorithme de détection de motifs fréquents de graphes RDF dans les flux de données RDF, appelé FreGraPaD (Frequent RDF Graph Patterns Detection). C’est un algorithme en une passe, orienté mémoire et peu coûteux. Il utilise deux structures de données principales un vecteur de bits pour construire et identifier le motif de graphe RDF assurant une optimisation de l’espace mémoire et une table de hachage pour le stockage de ces derniers. La troisième contribution de notre thèse consiste en une solution déterministe de réduction de charge des systèmes RSP appelée POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). Elle utilise des opérateurs booléens très peu coûteux, qu’elle applique aux deux motifs binaires construits de la donnée et de la requête continue pour déterminer et éjecter celle qui est non-pertinente. Elle garantit un rappel de 100%, réduit la charge du système et améliore son temps de réponse. Enfin, notre quatrième contribution est un outil de compression en ligne de flux RDF, appelé Patorc (Pattern Oriented Compression for RSP systems). Il se base sur les motifs fréquents présents dans les flux qu’il factorise. C’est une solution de compression sans perte de données dont l’interrogation sans décompression est très envisageable. Les solutions apportées par cette thèse permettent l’extension des systèmes RSP existants en leur permettant le passage à l’échelle dans un contexte de Bigdata. Elles leur permettent ainsi de manipuler un ou plusieurs flux arrivant à différentes vitesses, sans perdre de leur qualité de réponse et tout en garantissant leur disponibilité au-delà même de leurs limites physiques. Les résultats des expérimentations menées montrent que l’extension des systèmes existants par nos solutions améliore leurs performances. Elles illustrent la diminution considérable de leur temps de réponse, l’augmentation de leur seuil de débit de traitement en entrée tout en optimisant l’utilisation de leurs ressources systèmes / Internet is an infinite source of data coming from sources such as social networks or sensors (home automation, smart city, autonomous vehicle, etc.). These heterogeneous and increasingly large data can be managed through semantic web technologies, which propose to homogenize, link these data and reason above them, and data flow management systems, which mainly address the problems related to volume, volatility and continuous querying. The alliance of these two disciplines has seen the growth of semantic data stream management systems also called RSP (RDF Stream Processing Systems). The objective of this thesis is to allow these systems, via new approaches and "low cost" algorithms, to remain operational, even more efficient, even for large input data volumes and/or with limited system resources.To reach this goal, our thesis is mainly focused on the issue of "Processing semantic data streamsin a context of computer systems with limited resources". It directly contributes to answer the following research questions : (i) How to represent semantic data stream ? And (ii) How to deal with input semantic data when their rates and/or volumes exceed the capabilities of the target system ?As first contribution, we propose an analysis of the data in the semantic data streams in order to consider a succession of star graphs instead of just a success of andependent triples, thus preserving the links between the triples. By using this approach, we significantly impoved the quality of responses of some well known sampling algoithms for load-shedding. The analysis of the continuous query allows the optimisation of this solution by selection the irrelevant data to be load-shedded first. In the second contribution, we propose an algorithm for detecting frequent RDF graph patterns in semantic data streams.We called it FreGraPaD for Frequent RDF Graph Patterns Detection. It is a one pass algorithm, memory oriented and "low-cost". It uses two main data structures : A bit-vector to build and identify the RDF graph pattern, providing thus memory space optimization ; and a hash-table for storing the patterns.The third contribution of our thesis consists of a deterministic load-shedding solution for RSP systems, called POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). It uses very low-cost boolean operators, that we apply on the built binary patterns of the data and the continuous query inorder to determine which data is not relevant to be ejected upstream of the system. It guarantees a recall of 100%, reduces the system load and improves response time. Finally, in the fourth contribution, we propose Patorc (Pattern Oriented Compression for RSP systems). Patorc is an online compression toolfor RDF streams. It is based on the frequent patterns present in RDF data streams that factorizes. It is a data lossless compression solution whith very possible querying without any need to decompression.This thesis provides solutions that allow the extension of existing RSP systems and makes them able to scale in a bigdata context. Thus, these solutions allow the RSP systems to deal with one or more semantic data streams arriving at different speeds, without loosing their response quality while ensuring their availability, even beyond their physical limitations. The conducted experiments, supported by the obtained results show that the extension of existing systems with the new solutions improves their performance. They illustrate the considerable decrease in their engine’s response time, increasing their processing rate threshold while optimizing the use of their system resources
209

Rethinking continual learning approach and study out-of-distribution generalization algorithms

Laleh, Touraj 08 1900 (has links)
L'un des défis des systèmes d'apprentissage automatique actuels est que les paradigmes d'IA standard ne sont pas doués pour transférer (ou exploiter) les connaissances entre les tâches. Alors que de nombreux systèmes ont été formés et ont obtenu des performances élevées sur une distribution spécifique d'une tâche, il est pas facile de former des systèmes d'IA qui peuvent bien fonctionner sur un ensemble diversifié de tâches qui appartiennent aux différentes distributions. Ce problème a été abordé sous différents angles dans différents domaines, y compris l'apprentissage continu et la généralisation hors distribution. Si un système d'IA est formé sur un ensemble de tâches appartenant à différentes distributions, il pourrait oublier les connaissances acquises lors des tâches précédentes. En apprentissage continu, ce processus entraîne un oubli catastrophique qui est l'un des problèmes fondamentaux de ce domaine. La première projet de recherche dans cette thèse porte sur la comparaison d'un apprenant chaotique et d'un naïf configuration de l'apprentissage continu. La formation d'un modèle de réseau neuronal profond nécessite généralement plusieurs itérations, ou époques, sur l'ensemble de données d'apprentissage, pour mieux estimer les paramètres du modèle. La plupart des approches proposées pour ce problème tentent de compenser les effets de mises à jour des paramètres dans la configuration incrémentielle par lots dans laquelle le modèle de formation visite un grand nombre de échantillons pour plusieurs époques. Cependant, il n'est pas réaliste de s'attendre à ce que les données de formation soient toujours alimenté au modèle. Dans ce chapitre, nous proposons un apprenant de flux chaotique qui imite le chaotique comportement des neurones biologiques et ne met pas à jour les paramètres du réseau. De plus, il peut fonctionner avec moins d'échantillons par rapport aux modèles d'apprentissage en profondeur sur les configurations d'apprentissage par flux. Fait intéressant, nos expériences sur différents ensembles de données montrent que l'apprenant de flux chaotique a moins d'oubli catastrophique de par sa nature par rapport à un modèle CNN en continu apprentissage. Les modèles d'apprentissage en profondeur ont une performance de généralisation hors distribution naïve où la distribution des tests est inconnue et différente de la formation. Au cours des dernières années, il y a eu eu de nombreux projets de recherche pour comparer les algorithmes hors distribution, y compris la moyenne et méthodes basées sur les scores. Cependant, la plupart des méthodes proposées ne tiennent pas compte du niveau de difficulté de tâches. Le deuxième projet de recherche de cette thèse, l'analyse de certains éléments logiques et pratiques les forces et les inconvénients des méthodes existantes de comparaison et de classement hors distribution algorithmes. Nous proposons une nouvelle approche de classement pour définir les ratios de difficulté des tâches afin de comparer les algorithmes de généralisation hors distribution. Nous avons comparé la moyenne, basée sur le score, et des classements basés sur la difficulté de quatre tâches sélectionnées du benchmark WILDS et cinq algorithmes hors distribution populaires pour l'expérience. L'analyse montre d'importantes changements dans les ordres de classement par rapport aux approches de classement actuelles. / One of the challenges of current machine learning systems is that standard AI paradigms are not good at transferring (or leveraging) knowledge across tasks. While many systems have been trained and achieved high performance on a specific distribution of a task, it is not easy to train AI systems that can perform well on a diverse set of tasks that belong to different distributions. This problem has been addressed from different perspectives in different domains including continual learning and out-of-distribution generalization. If an AI system is trained on a set of tasks belonging to different distributions, it could forget the knowledge it acquired from previous tasks. In continual learning, this process results in catastrophic forgetting which is one of the core issues of this domain. The first research project in this thesis focuses on the comparison of a chaotic learner and a naive continual learning setup. Training a deep neural network model usually requires multiple iterations, or epochs, over the training data set, to better estimate the parameters of the model. Most proposed approaches for this issue try to compensate for the effects of parameter updates in the batch incremental setup in which the training model visits a lot of samples for several epochs. However, it is not realistic to expect training data will always be fed to the model. In this chapter, we propose a chaotic stream learner that mimics the chaotic behavior of biological neurons and does not update network parameters. In addition, it can work with fewer samples compared to deep learning models on stream learning setups. Interestingly, our experiments on different datasets show that the chaotic stream learner has less catastrophic forgetting by its nature in comparison to a CNN model in continual learning. Deep Learning models have a naive out-of-distribution~(OoD) generalization performance where the testing distribution is unknown and different from the training. In the last years, there have been many research projects to compare OoD algorithms, including average and score-based methods. However, most proposed methods do not consider the level of difficulty of tasks. The second research project in this thesis, analysis some logical and practical strengths and drawbacks of existing methods for comparing and ranking OoD algorithms. We propose a novel ranking approach to define the task difficulty ratios to compare OoD generalization algorithms. We compared the average, score-based, and difficulty-based rankings of four selected tasks from the WILDS benchmark and five popular OoD algorithms for the experiment. The analysis shows significant changes in the ranking orders compared with current ranking approaches.
210

Problem hierarchies in continual learning

Normandin, Fabrice 06 1900 (has links)
La recherche en apprentissage automatique peut être vue comme une quête vers l’aboutissement d’algorithmes d’apprentissage de plus en plus généraux, applicable à des problèmes de plus en plus réalistes. Selon cette perspective, le progrès dans ce domaine peut être réalisé de deux façons: par l’amélioration des méthodes algorithmiques associées aux problèmes existants, et par l’introduction de nouveaux types de problèmes. Avec le progrès marqué du côté des méthodes d’apprentissage machine, une panoplie de nouveaux types de problèmes d’apprentissage ont aussi été proposés, où les hypothèses de problèmes existants sont assouplies ou généralisées afin de mieux refléter les conditions du monde réel. Le domaine de l’apprentissage en continu (Continual Learning) est un exemple d’un tel domaine, où l’hypothèse de la stationarité des distributions encourues lors de l’entrainement d’un modèles est assouplie, et où les algorithmes d’apprentissages doivent donc s’adapter à des changements soudains ou progressifs dans leur environnement. Dans cet ouvrage, nous introduisons les hiérarchiées de problèmes, une application du concept de hiérarchie des types provenant des sciences informatiques, au domaine des problèmes de recherche en apprentissage machine. Les hierarchies de problèmes organisent et structurent les problèmes d’apprentissage en fonction de leurs hypothéses. Les méthodes peuvent donc définir explicitement leur domaine d’application, leur permettant donc d’être partagées et réutilisées à travers différent types de problèmes de manière polymorphique: Une méthode conçue pour un domaine donné peut aussi être appli- quée à un domaine plus précis que celui-ci, tel qu’indiqué par leur relation dans la hierarchie de problèmes. Nous démontrons que ce système, lorsque mis en oeuvre, comporte divers bienfaits qui addressent directement plusieurs des problèmes encourus par les chercheurs en apprentissage machine. Nous démontrons la viabilité de ce principe avec Sequoia, une infrastructure logicielle libre qui implémente une hierarchie des problèmes en apprentissage continu. Nous espérons que ce nouveau paradigme, ainsi que sa première implémentation, pourra servir à unifier et accélérer les divers efforts de recherche en apprentissage continu, ainsi qu’à encourager des efforts similaires dans d’autres domaines de recherche. Vous pouvez nous aider à faire grandir l’arbre en visitant github.com/lebrice/Sequoia. / Research in Machine Learning (ML) can be viewed as a quest to develop increasingly general algorithmic solutions (methods) for increasingly challenging research problems (settings). From this perspective, progress can be realized in two ways: by introducing better methods for current settings, or by proposing interesting new settings for the research community to solve. Alongside recent progress in methods, a wide variety of research settings have also been introduced, often as variants of existing settings where underlying assumptions are removed to make the problem more realistic or general. The field of Continual Learning (CL), for example, consists of a family of settings where the stationarity assumption is removed, and where methods as a result have to learn from environments or data distributions that can change over time. In this work, we introduce the concept of problem hierarchies: hierarchical structures in which research settings are systematically organized based on their assumptions. Methods can then explicitly state their assumptions by selecting a target setting from this hierarchy. Most importantly, these structures make it possible to easily share and reuse research methods across different settings using inheritance, since a method developed for a given setting is also directly applicable onto any of its children in the hierarchy. We argue that this simple mechanism can have great implications for ML research in practice. As a proof-of-concept of this approach, we introduce Sequoia, an open-source research framework in which we construct a hierarchy of the settings and methods in CL. We hope that this new paradigm and its first implementation can help unify and accelerate research in CL and serve as inspiration for future work in other fields. You can help us grow the tree by visiting github.com/lebrice/Sequoia.

Page generated in 0.0652 seconds