• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 174
  • 125
  • 14
  • Tagged with
  • 321
  • 186
  • 167
  • 145
  • 111
  • 79
  • 67
  • 67
  • 59
  • 48
  • 46
  • 39
  • 35
  • 34
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Comportement mécanique sous sollicitations alternées de voiles béton armé renforcés par matériaux composites / Mechanical behavior of RC walls under seismic activity strenghtened with CFRP

Qazi, Samiullah 17 January 2013 (has links)
Les enquêtes récentes sur les séismes ont fait ressortir l'importance des murs en béton armé en tant que partie intégrante des structures. L’évolution des règlements prend en compte ces considérations, par contre le bâti existant doit subir des renforcements dans l’objectif de leur mise en conformité. Dans cette thèse une étude expérimentale faite sur douze murs (six élancés et six courts) renforcés par un collage externe en composite a été conduite. Les murs ont été conçus en étant sous-renforcés à la flexion et cisaillement. Quatre de ces six échantillons ont été renforcés par des bandes de PRFC collées. Deux spécimens, un témoin et un renforcé, ont été soumis à un test de chargement statique et quatre échantillons, l'un témoin et trois rénovés, ont été soumis à des essais de charge cyclique. La discussion et l’analyse des tests incluent la description de la fissuration, l’analyse de la rigidité, de la capacité de charge ultime, de la ductilité. / Recent earthquake surveys have revealed the significance of RC walls as an integral part of structures. It reduces the structure damage to some extent. However, like other structural member they too are vulnerable. Researchers on basis of their post eartthquake survey and laboratary experiments have concluded that the RC wall buildings sustained damage, mainly due to design and construction work flaws. In this thesis experimental result of shear walls is discussed. They were designed under-reinforced to fail in shear in ase of short wall and in flexure for slender walls. Three out of these six specimens, in each case, were strengthened externally with CFRP strips bonded to wall panel and mesh anchors installed at wall foundation joint. Two specimens, one RC and one CFRP retrofitted (short and slender wall each), were subjected to static load test and three specimens, one RC and two to three CFRP retrofitted, were subjected to quasi static cyclic load tests. The test result analysis discussion includes failure mode, stiffness, ultimate load capacity, ductility, and energy dissipation.
312

Nanostructuration de résines polyester insaturé par des copolymères à blocs : application aux composites SMC et BMC / Nanostructuration of unsaturated polyester resins by block copolymers : application to SMC and BMC composites

Lamy, Yoann 06 September 2012 (has links)
On s’intéresse dans cette étude au potentiel de copolymères à blocs (BCP) de types PBA-b-P(MMA-co-DMA) et PBA-b-P(BA-co-DMA) en tant qu’additifs multifonctionnels nanostructurant la matrice thermodurcissable polyester insaturé de composites SMC et BMC. La nanostructuration de la résine polyester insaturé (UPR) est assurée par la ségrégation du bloc élastomère poly(acrylate de butyle), ainsi que par la miscibilité du deuxième bloc dans le réseau grâce à la bonne compatibilité des motifs diméthylacrylamide (auto-assemblage). Ces BCP sont tout d’abord étudiés en tant qu’agents renforçants et anti-retrait dans les composites SMC et BMC, en étant substitués et comparés aux additifs anti-retrait conventionnels PVAc et P(MMA-co-S) incorporés traditionnellement afin de compenser le retrait de la résine polyester. Ces additifs nanostructurants sont ensuite évalués en tant qu’agents de mûrissement des compounds SMC. La nanostructuration des BCP dans la résine UP réactive pouvant entrainer une importante augmentation de la viscosité (formation d’un gel), ces additifs pourraient peut-être constituer des agents de mûrissement plus efficaces que l’oxyde de magnésium couramment utilisé à cet effet. Une étude des matrices [UPR + BCP, UPR + PVAc et UPR + P(MMA-co-S)] est réalisée dans un premier temps, les composites BMC et SMC chargés par du carbonate de calcium et renforcés par des fibres de verre étant étudiés par la suite. En absence de charges et de fibres de verre (matrice seule), la nanostructuration est moins efficace que la macroséparation de phase des additifs conventionnels PVAc et P(MMA-co-S) pour compenser le retrait du réseau polyester. Dans un composite en revanche, la nanostructuration conduit à une compensation du retrait intermédiaire entre celles du P(MMA-co-S) et du PVAc. Au niveau de la matrice seule, la nanostructuration permet d’éviter une diminution conséquente de l’énergie de rupture du réseau polyester et permet même dans certains cas une amélioration significative de cette dernière, alors que les additifs conventionnels engendrent un effondrement de cette propriété. Cette différence est cependant beaucoup moins visible dans le cas des composites, les charges entrainant une fissuration prématurée de la matrice. Un composite nanostructuré peut tout de même présenter un renforcement significatif par rapport aux composites conventionnels lorsqu’il contient des nanovides compensateurs de retrait de tailles conséquentes qui améliorent la ténacité du matériau. En ce qui concerne le mûrissement d’un compound SMC par nanostructuration au cours du refroidissement (passage de la transition ordre-désordre), si l’augmentation de la viscosité d’un système réactif UPR + BCP semble suffisamment importante et abrupte, elle est cependant insuffisante en présence des charges ou alors intervient à une température trop faible en raison de l’influence de ces dernières sur la nanostructuration. / The aim of this study is to evaluate the potential of PBA-b-P(MMA-co-DMA) and PBA-b-P(BA-co-DMA) block copolymers (BCP) as multifunctional additives nanostructuring the unsaturated polyester thermosetting matrix of SMC and BMC composites. The nanostructuration of the unsaturated polyester resin (UPR) is ensured by the segregation of the poly(butyl acrylate) elastomeric block, and by the miscibility of the second block in the thermoset thanks to the good compatibility of dimethylacrylamide units (self-assembly). These BCP are first studied as reinforcing and anti-shrinkage agents in SMC and BMC composites, as compared to conventional low profile additives PVAc and P(MMA-co-S) traditionally blended to compensate the polyester resin shrinkage. These nanostructuring additives are then studied as thickening agents in SMC compounds. As the nanostructuration of BCP in the UP reactive resin can lead to a high viscosity increase (gel formation), BCP might provide a more efficient thickening than the conventional additive magnesium oxide. Matrices are studied first [UPR + BCP, UPR + PVAc and UPR + P(MMA-co-S)], BMC and SMC composites filled with calcium carbonate and reinforced by chopped glass fibres being then considered. In the absence of fillers and fibres (neat matrix), the nanostructuration is less efficient than the macrophase separation of PVAc and P(MMA-co-S) to compensate the polyester resin shrinkage. However, in a composite, the nanostructuration leads to an intermediate shrinkage compensation between those of P(MMA-co-S) and PVAc. In the neat matrix, the nanostructuration avoids a substantial decrease of polyester network toughness and can even lead sometimes to a significant reinforcement, whereas conventional additives decrease tremendously this property. However, this difference is not observed in composites, fillers giving rise to an early cracking of the matrix. A nanostructured composite can still present a significant reinforcement compared to conventional composites when it contains large nanovoids (compensating shrinkage) which improve the fracture toughness of the material. As regards the thickening of an SMC compound by nanostructuration during cooling (crossing of the order-disorder transition), the viscosity increase of a UPR + BCP reactive system seems important and sharp enough, but in the presence of fillers the viscosity increase is not sufficient or the order-disorder transition temperature is too low because of the influence of fillers on the nanostructuration.
313

Développement d'un système réactif pour composites acryliques par procédé RTM / Acrylic thermoplastic-based composites as processed by RTM

Fontanier, Jean-Charles 27 March 2017 (has links)
Le contexte environnemental actuel conduit les constructeurs automobiles à diminuer les émissions globales de CO2. Afin de répondre à cet objectif, plusieurs voies sont accessibles mais l’allègement de la structure du véhicule apparaît comme la solution la plus prometteuse grâce à la substitution des pièces métalliques par des matériaux composites et plus particulièrement des composites thermoplastiques à matrices acryliques. Cette étude s’est donc intéressée à développer et caractériser plusieurs formulations à base acrylique afin d’identifier les différents leviers (choix du monomère / condition de polymérisation) permettant d’atteindre une polymérisation rapide (< 3 à 5 min) adaptée aux hautes cadences de l’industrie automobile. Le moulage par transfert de résine (RTM) ayant été choisi comme procédé de mise en œuvre, une seconde étape de travail a été de caractériser l’évolution de la viscosité au cours de la polymérisation. En disposant des mesures cinétiques et rhéologiques, il a aussi été possible, par modèle inverse, de proposer un suivi in-situ de la polymérisation via la corrélation des données par des mesures diélectrométriques. Puis, dans une optique d’amélioration de la tenue chimique du PMMA, la synthèse d’un polymère réversible présentant alternativement une structure tridimensionnelle et une structure linéaire a été réalisée. Ainsi, grâce à la préparation d’un comonomère présentant des fonctions Diels-Alder, il a été possible d’obtenir un polymère ayant la capacité d’emprunter les propriétés de résistance chimique des réseaux thermodurcissables tout en conservant l’aptitude à la transformation des thermoplastiques. Enfin, une dernière étude s’est portée sur le renforcement du PMMA par mélange avec différents polymères. Ainsi, grâce à un choix judicieux de polymères présentant des caractéristiques physico-chimiques intéressantes, il a été possible d’améliorer significativement la tenue en température mais également la résistance au choc de la matrice acrylique développée. / Nowadays, polymer matrix composites are widely used for aerospace, automotive, railway and sport industries. For similar structural properties, these materials coul be very attractive since they could be 30 to 40% lighter than metallic counterparts. In the current context of environmental development issues, thermoplastic-based composites, (in our case acrylic matrix based one), can be considered as they can be easily recycled as opposed to thermoset-based ones. Furthermore, they could exhibit good mechanical properties, i.e. stiffness and impact resistance, enabling them to be relevant for many applications. Manufacturing structural composites requires to produce parts without defects having complex geometries. For this purpose Resin Transfer Molding (RTM) has been selected to process such composites. Indeed, it corresponds to a low temperature closed-mold process allowing for manufacturing complex continuous fiber-based-reinforced parts. However, it requires precursors with a very low viscosity (η < 1 Pa.s) to ensure a good impregnation of the dry preform. To be cost effective, fast reactive systems have also to be selected. Thermoplastic polymers which own a very high viscosity in molten state cannot be directly used. Our strategy is to design an acrylic-based reactive formulation exhibiting a very low initial viscosity, i.e. about 100 mPa.s and which can subsequently polymerizes via a free radical mechanism once the mold is filled and the preform fully impregnated. Therefore, our main objective is to optimize curing conditions (especially thermal initiator ratios and temperature) of RTM-compatible acrylic-based reactive formulations to lead to suitable composite parts with high conversion rate, low residual monomer content and relevant process cycles.
314

Virtual reality therapy for Alzheimer’s disease with speech instruction and real-time neurofeedback system

Ai, Yan 05 1900 (has links)
La maladie d'Alzheimer (MA) est une maladie cérébrale dégénérative qui entraîne une perte progressive de la mémoire, un déclin cognitif et une détérioration graduelle de la capacité d'une personne à faire face à la complexité et à l'exigence des tâches quotidiennes nécessaires pour vivre en autonomie dans notre société actuelle. Les traitements pharmacologiques actuels peuvent ralentir le processus de dégradation attribué à la maladie, mais ces traitements peuvent également provoquer certains effets secondaires indésirables. L'un des traitements non pharmacologiques qui peut soulager efficacement les symptômes est la thérapie assistée par l'animal (T.A.A.). Mais en raison de certaines limitations telles que le prix des animaux et des problèmes d'hygiène, des animaux virtuels sont utilisés dans ce domaine. Cependant, les animaux virtuels animés, la qualité d'image approximative et le mode d'interaction unidirectionnel des animaux qui attendent passivement les instructions de l’utilisateur, peuvent difficilement stimuler le retour émotionnel entre l'utilisateur et les animaux virtuels, ce qui affaiblit considérablement l'effet thérapeutique. Cette étude vise à explorer l'efficacité de l'utilisation d'animaux virtuels à la place d’animaux vivants et leur impact sur la réduction des émotions négatives chez le patient. Cet objectif a été gardé à l'esprit lors de la conception du projet Zoo Therapy, qui présente un environnement immersif d'animaux virtuels en 3D, où l'impact sur l'émotion du patient est mesuré en temps réel par électroencéphalographie (EEG). Les objets statiques et les animaux virtuels de Zoo Therapy sont tous présentés à l'aide de modèles 3D réels. Les mouvements des animaux, les sons et les systèmes de repérage spécialement développés prennent en charge le comportement interactif simulé des animaux virtuels. De plus, pour que l'expérience d'interaction de l'utilisateur soit plus réelle, Zoo Therapy propose un mécanisme de communication novateur qui met en œuvre une interaction bidirectionnelle homme-machine soutenue par 3 méthodes d'interaction : le menu sur les panneaux, les instructions vocales et le Neurofeedback. La manière la plus directe d'interagir avec l'environnement de réalité virtuelle (RV) est le menu sur les panneaux, c'est-à-dire une interaction en cliquant sur les boutons des panneaux par le contrôleur de RV. Cependant, il était difficile pour certains utilisateurs ayant la MA d'utiliser le contrôleur de RV. Pour accommoder ceux qui ne sont pas bien adaptés ou compatibles avec le contrôleur de RV, un système d'instructions vocales peut être utilisé comme interface. Ce système a été reçu positivement par les 5 participants qui l'ont essayé. Même si l'utilisateur choisit de ne pas interagir activement avec l'animal virtuel dans les deux méthodes ci-dessus, le système de Neurofeedback guidera l'animal pour qu'il interagisse activement avec l'utilisateur en fonction des émotions de ce dernier. Le système de Neurofeedback classique utilise un système de règles pour donner des instructions. Les limites de cette méthode sont la rigidité et l'impossibilité de prendre en compte la relation entre les différentes émotions du participant. Pour résoudre ces problèmes, ce mémoire présente une méthode basée sur l'apprentissage par renforcement (AR) qui donne des instructions à différentes personnes en fonction des différentes émotions. Dans l'expérience de simulation des données émotionnelles synthétiques de la MD, la méthode basée sur l’AR est plus sensible aux changements émotionnels que la méthode basée sur les règles et peut apprendre automatiquement des règles potentielles pour maximiser les émotions positives de l'utilisateur. En raison de l'épidémie de Covid-19, nous n'avons pas été en mesure de mener des expériences à grande échelle. Cependant, un projet de suivi a combiné la thérapie de RV Zoo avec la reconnaissance des gestes et a prouvé son efficacité en évaluant les valeurs d'émotion EEG des participants. / Alzheimer’s disease (AD) is a degenerative brain disease that causes progressive memory loss, cognitive decline, and gradually impairs one’s ability to cope with the complexity and requirement of the daily routine tasks necessary to live in autonomy in our current society. Actual pharmacological treatments can slow down the degradation process attributed to the disease, but such treatments may also cause some undesirable side effects. One of the non-pharmacological treatments that can effectively relieve symptoms is animal-assisted treatment (AAT). But due to some limitations such as animal cost and hygiene issues, virtual animals are used in this field. However, the animated virtual animals, the rough picture quality presentation, and the one-direction interaction mode of animals passively waiting for the user's instructions can hardly stimulate the emotional feedback background between the user and the virtual animals, which greatly weakens the therapeutic effect. This study aims to explore the effectiveness of using virtual animals in place of their living counterpart and their impact on the reduction of negative emotions in the patient. This approach has been implemented in the Zoo Therapy project, which presents an immersive 3D virtual reality animal environment, where the impact on the patient’s emotion is measured in real-time by using electroencephalography (EEG). The static objects and virtual animals in Zoo Therapy are all presented using real 3D models. The specially developed animal movements, sounds, and pathfinding systems support the simulated interactive behavior of virtual animals. In addition, for the user's interaction experience to be more real, the innovation of this approach is also in its communication mechanism as it implements a bidirectional human-computer interaction supported by 3 interaction methods: Menu panel, Speech instruction, and Neurofeedback. The most straightforward way to interact with the VR environment is through Menu panel, i.e., interaction by clicking buttons on panels by the VR controller. However, it was difficult for some AD users to use the VR controller. To accommodate those who are not well suited or compatible with VR controllers, a speech instruction system can be used as an interface, which was received positively by the 5 participants who tried it. Even if the user chooses not to actively interact with the virtual animal in the above two methods, the Neurofeedback system will guide the animal to actively interact with the user according to the user's emotions. The mainstream Neurofeedback system has been using artificial rules to give instructions. The limitation of this method is inflexibility and cannot take into account the relationship between the various emotions of the participant. To solve these problems, this thesis presents a reinforcement learning (RL)-based method that gives instructions to different people based on multiple emotions accordingly. In the synthetic AD emotional data simulation experiment, the RL-based method is more sensitive to emotional changes than the rule-based method and can automatically learn potential rules to maximize the user's positive emotions. Due to the Covid-19 epidemic, we were unable to conduct large-scale experiments. However, a follow-up project combined VR Zoo Therapy with gesture recognition and proved the effectiveness by evaluating participant's EEG emotion values.
315

Accelerated algorithms for temporal difference learning methods

Rankawat, Anushree 12 1900 (has links)
L'idée centrale de cette thèse est de comprendre la notion d'accélération dans les algorithmes d'approximation stochastique. Plus précisément, nous tentons de répondre à la question suivante : Comment l'accélération apparaît-elle naturellement dans les algorithmes d'approximation stochastique ? Nous adoptons une approche de systèmes dynamiques et proposons de nouvelles méthodes accélérées pour l'apprentissage par différence temporelle (TD) avec approximation de fonction linéaire : Polyak TD(0) et Nesterov TD(0). Contrairement aux travaux antérieurs, nos méthodes ne reposent pas sur une conception des méthodes de TD comme des méthodes de descente de gradient. Nous étudions l'interaction entre l'accélération, la stabilité et la convergence des méthodes accélérées proposées en temps continu. Pour établir la convergence du système dynamique sous-jacent, nous analysons les modèles en temps continu des méthodes d'approximation stochastique accélérées proposées en dérivant la loi de conservation dans un système de coordonnées dilaté. Nous montrons que le système dynamique sous-jacent des algorithmes proposés converge à un rythme accéléré. Ce cadre nous fournit également des recommandations pour le choix des paramètres d'amortissement afin d'obtenir ce comportement convergent. Enfin, nous discrétisons ces ODE convergentes en utilisant deux schémas de discrétisation différents, Euler explicite et Euler symplectique, et nous analysons leurs performances sur de petites tâches de prédiction linéaire. / The central idea of this thesis is to understand the notion of acceleration in stochastic approximation algorithms. Specifically, we attempt to answer the question: How does acceleration naturally show up in SA algorithms? We adopt a dynamical systems approach and propose new accelerated methods for temporal difference (TD) learning with linear function approximation: Polyak TD(0) and Nesterov TD(0). In contrast to earlier works, our methods do not rely on viewing TD methods as gradient descent methods. We study the interplay between acceleration, stability, and convergence of the proposed accelerated methods in continuous time. To establish the convergence of the underlying dynamical system, we analyze continuous-time models of the proposed accelerated stochastic approximation methods by deriving the conservation law in a dilated coordinate system. We show that the underlying dynamical system of our proposed algorithms converges at an accelerated rate. This framework also provides us recommendations for the choice of the damping parameters to obtain this convergent behavior. Finally, we discretize these convergent ODEs using two different discretization schemes, explicit Euler, and symplectic Euler, and analyze their performance on small, linear prediction tasks.
316

Apprentissage de stratégies de calcul adaptatives pour les réseaux neuronaux profonds

Kamanda, Aton 07 1900 (has links)
La théorie du processus dual stipule que la cognition humaine fonctionne selon deux modes distincts : l’un pour le traitement rapide, habituel et associatif, appelé communément "système 1" et le second, ayant un traitement plus lent, délibéré et contrôlé, que l’on nomme "système 2". Cette distinction indique une caractéristique sous-jacente importante de la cognition humaine : la possibilité de passer de manière adaptative à différentes stratégies de calcul selon la situation. Cette capacité est étudiée depuis longtemps dans différents domaines et de nombreux bénéfices hypothétiques semblent y être liés. Cependant, les réseaux neuronaux profonds sont souvent construits sans cette capacité à gérer leurs ressources calculatoires de manière optimale. Cette limitation des modèles actuels est d’autant plus préoccupante que de plus en plus de travaux récents semblent montrer une relation linéaire entre la capacité de calcul utilisé et les performances du modèle lors de la phase d’évaluation. Pour résoudre ce problème, ce mémoire propose différentes approches et étudie leurs impacts sur les modèles, tout d’abord, nous étudions un agent d’apprentissage par renforcement profond qui est capable d’allouer plus de calcul aux situations plus difficiles. Notre approche permet à l’agent d’adapter ses ressources computationnelles en fonction des exigences de la situation dans laquelle il se trouve, ce qui permet en plus d’améliorer le temps de calcul, améliore le transfert entre des tâches connexes et la capacité de généralisation. L’idée centrale commune à toutes nos approches est basée sur les théories du coût de l’effort venant de la littérature sur le contrôle cognitif qui stipule qu’en rendant l’utilisation de ressource cognitive couteuse pour l’agent et en lui laissant la possibilité de les allouer lors de ses décisions il va lui-même apprendre à déployer sa capacité de calcul de façon optimale. Ensuite, nous étudions des variations de la méthode sur une tâche référence d’apprentissage profond afin d’analyser précisément le comportement du modèle et quels sont précisément les bénéfices d’adopter une telle approche. Nous créons aussi notre propre tâche "Stroop MNIST" inspiré par le test de Stroop utilisé en psychologie afin de valider certaines hypothèses sur le comportement des réseaux neuronaux employant notre méthode. Nous finissons par mettre en lumière les liens forts qui existent entre apprentissage dual et les méthodes de distillation des connaissances. Notre approche a la particularité d’économiser des ressources computationnelles lors de la phase d’inférence. Enfin, dans la partie finale, nous concluons en mettant en lumière les contributions du mémoire, nous détaillons aussi des travaux futurs, nous approchons le problème avec les modèles basés sur l’énergie, en apprenant un paysage d’énergie lors de l’entrainement, le modèle peut ensuite lors de l’inférence employer une capacité de calcul dépendant de la difficulté de l’exemple auquel il fait face plutôt qu’une simple propagation avant fixe ayant systématiquement le même coût calculatoire. Bien qu’ayant eu des résultats expérimentaux infructueux, nous analysons les promesses que peuvent tenir une telle approche et nous émettons des hypothèses sur les améliorations potentielles à effectuer. Nous espérons, avec nos contributions, ouvrir la voie vers des algorithmes faisant un meilleur usage de leurs ressources computationnelles et devenant par conséquent plus efficace en termes de coût et de performance, ainsi que permettre une compréhension plus intime des liens qui existent entre certaines méthodes en apprentissage machine et la théorie du processus dual. / The dual-process theory states that human cognition operates in two distinct modes: one for rapid, habitual and associative processing, commonly referred to as "system 1", and the second, with slower, deliberate and controlled processing, which we call "system 2". This distinction points to an important underlying feature of human cognition: the ability to switch adaptively to different computational strategies depending on the situation. This ability has long been studied in various fields, and many hypothetical benefits seem to be linked to it. However, deep neural networks are often built without this ability to optimally manage their computational resources. This limitation of current models is all the more worrying as more and more recent work seems to show a linear relationship between the computational capacity used and model performance during the evaluation phase. To solve this problem, this thesis proposes different approaches and studies their impact on models. First, we study a deep reinforcement learning agent that is able to allocate more computation to more difficult situations. Our approach allows the agent to adapt its computational resources according to the demands of the situation in which it finds itself, which in addition to improving computation time, enhances transfer between related tasks and generalization capacity. The central idea common to all our approaches is based on cost-of-effort theories from the cognitive control literature, which stipulate that by making the use of cognitive resources costly for the agent, and allowing it to allocate them when making decisions, it will itself learn to deploy its computational capacity optimally. We then study variations of the method on a reference deep learning task, to analyze precisely how the model behaves and what the benefits of adopting such an approach are. We also create our own task "Stroop MNIST" inspired by the Stroop test used in psychology to validate certain hypotheses about the behavior of neural networks employing our method. We end by highlighting the strong links between dual learning and knowledge distillation methods. Finally, we approach the problem with energy-based models, by learning an energy landscape during training, the model can then during inference employ a computational capacity dependent on the difficulty of the example it is dealing with rather than a simple fixed forward propagation having systematically the same computational cost. Despite unsuccessful experimental results, we analyze the promise of such an approach and speculate on potential improvements. With our contributions, we hope to pave the way for algorithms that make better use of their computational resources, and thus become more efficient in terms of cost and performance, as well as providing a more intimate understanding of the links that exist between certain machine learning methods and dual process theory.
317

On choice models in the context of MDPs

Mohammadpour, Sobhan 10 1900 (has links)
Cette thèse se penche sur les modèles de choix, des distributions sur des ensembles d'alternatives. Les modèles de choix sur les processus décisionnels de Markov (MDP) peuvent décomposer de très grands espaces alternatifs en procédures étape par étape conçues pour non seulement combattre la malédiction de la dimensionnalité mais aussi pour mieux refléter la dynamique sous-jacente. La première partie est consacrée à l'estimation du temps de trajet dans le cadre de la modélisation du choix de chemin. Les modèles de choix de chemin sont des modèles de choix sur l'ensemble des chemins utilisés pour modéliser le flux de circulation. Intuitivement, le temps de trajet est l'une des caractéristiques les plus importantes lors du choix des chemins, mais les temps de trajet ne sont pas toujours connus. En revanche, le cadre classique suppose que ces deux étapes sont séquentielles, car les temps de trajet des arcs font partie de l'entrée du processus d'estimation du choix de chemin. Pourtant, les interdépendances complexes signifient que ce modèle de choix de chemin peut complémenter toute observation lors de l'estimation des temps de trajet. Nous construisons un modèle statistique pour l'estimation du temps de trajet et proposons de marginaliser les caractéristiques non observées. En utilisant ces idées, nous montrons que nous sommes capables d'apprendre des modèles de choix de chemin sans observer de chemins réels et à différentes granularités. La deuxième partie se concentre sur les échecs des MDP régularisés et comment la régularisation peut avoir des effets secondaires inattendus, tels que la divergence dans les chemins stochastiques les plus courts ou des fonctions de valeur déraisonnablement grandes. Les MDP régularisés ne sont rien d'autre qu'une application des modèles de choix aux MDP. Ils sont utilisés dans l'apprentissage par renforcement (RL) pour obtenir, entre autres choses, un modèle de choix sur les trajectoires possibles pour l'apprentissage par renforcement inverse, transférer des connaissances préalables au modèle, ou obtenir des politiques qui exploitent tous les objectifs dans l'environnement. Ces effets secondaires sont exacerbés dans les espaces d'action dépendants de l'état. Comme mesure d'atténuation, nous introduisons deux transformations potentielles, et nous évaluons leur performance sur un problème de conception de médicaments. / This thesis delves on choice models, distributions on sets of alternatives. Choice models on Markov decision processes (MDPs) can break down very large alternative spaces into step-by-step procedures designed to not only tackle the curse of dimensionality but also to reflect the underlying dynamics better. The first part is devoted to travel time estimation as part of path choice modeling. Path choice models are choice models on the set of paths used to model traffic flow. Intuitively, travel time is one of the more important features when choosing paths, yet travel times are not always known. In contrast, the classical setting assumes that these two steps are sequential, as arc travel times are part of the input of the path choice estimation process. Yet the intricate interdependences mean that that path choice model can complement any observation when estimating travel times. We build a statistical model for travel time estimation and propose marginalizing the unobserved features. Using these ideas, we show that we are able to learn path choice models without observing actual paths and at different granularity. The second part focuses on the failings of regularized MDPs and how regularization may have unexpected side effects, such as divergence in stochastic shortest paths or unreasonably large value functions. Regularized MDPs are nothing but an application of choice models to MDPs. They are used in reinforcement learning (RL) to get, among other things, a choice model on possible trajectories for inverse reinforcement learning, transfer prior knowledge to the model, or to get policies that exploit all goals in the environment. These side effects are exacerbated in state-dependent action spaces. As a mitigation, we introduce two potential transformations, and we benchmark their performance on a drug design problem.
318

Metaheuristics for vehicle routing problems : new methods and performance analysis

Guillen Reyes, Fernando Obed 02 1900 (has links)
Cette thèse s’intéresse au problème classique de tournées de véhicules avec contraintes de capacité (CVRP pour Capacitated Vehicle Routing Problem) ainsi qu’une variante beaucoup plus complexe, soit le problème de tournées de véhicules dépendant du temps avec fenêtres de temps et points de transfert défini sur un réseau routier (TDVRPTWTP-RN pour Time-Dependent Vehicle Routing Problem with Time Windows and Transfer Points on a Road Network). Dans le premier article, le TDVRPTWTP-RN est résolu en adaptant une métaheuristique qui représente l’état de l’art pour le CVRP, appelé Slack Induction for String Removals (SISR). Cette métaheuristique fait appel au principe “détruire et reconstruire” en retirant des séquences de clients consécutifs dans les routes de la solution courante et en réinsérant ensuite ces clients de façon à créer une nouvelle solution. Le problème est défini sur un réseau routier où différents chemins alternatifs peuvent être utilisés pour se déplacer d’un client à l’autre. De plus, le temps de parcours sur chacun des arcs du réseau n’est pas fixe, mais dépend du moment où le véhicule quitte le sommet origine. S’inspirant de problèmes rencontrés en logistique urbaine, nous considérons également deux types de véhicules, de petite et grande capacité, où les grands véhicules sont interdits de passage au centre-ville. Ainsi, les clients du centre-ville ne peuvent être servis que suite au transfert de leur demande d’un grand à un petit véhicule à un point de transfert. Comme un point de transfert n’a pas de capacité, une problématique de synchronisation apparaît quand un grand véhicule doit y rencontrer un ou plusieurs petits véhicules pour leur transférer une partie de son contenu. Contrairement aux problèmes stricts de tournées de véhicules à deux échelons, les grands véhicules peuvent aussi servir des clients localisés à l’extérieur du centre-ville. Comme le problème abordé est beaucoup plus complexe que le CVRP, des modifications importantes ont dû être apportées à la métaheuristique SISR originale. Pour évaluer la performance de notre algorithme, un ensemble d’instances tests a été généré à partir d’instances existantes pour le TDVRPTW-RN. Les réseaux omt été divisés en trois régions : centre-ville, frontière et extérieur. Le centre-ville et l’extérieur sont respectivemnt les royaumes des petits et grands véhicules, tandis que la frontière (où l’on retrouve les points de transfert) peut être visité par les deux types de véhicules. Les résultats numériques montrent que la métaheuristique proposée exploite les opportunités d’optimiser une solution en déplaçant autant que possible les clients neutres, soit ceux qui peuvent être servis indifféremment par un petit ou un grand véhicule, des routes des petits véhicules vers les routes des grands véhicules, réduisant ainsi les coûteuses visites aux points de transfert. Les deuxième et troisième article s’intéressent à des concepts plus fondamentaux et font appel au problème plus simple du CVRP pour les évaluer. Dans le second article, un étude expérimentale est conçue afin d’examiner l’impact de données (distances) imprécises sur la performance de différents types d’heuristiques, ainsi qu’une méthode exacte, pour le CVRP. À cette fin, différents niveaux d’imprécision ont été introduits dans des instances tests classiques pour le CVRP avec 100 à 1 000 clients. Nous avons observé que les meilleures métaheuristiques demeurent les meilleures, même en présence de hauts niveaux d’imprécision, et qu’elles ne sont pas affectées autant par les imprécisions qu’une heuristique simple. Des expériences avec des instances réelles ont mené aux mêmes conclusions. Le troisième article s’intéresse à l’intégration de l’apprentissage automatique dans la métaheuristique SISR qui représente l’état de l’art pour le CVRP. Dans ce travail, le principe “détruire et reconstruire” au coeur de SISR est hybridé avec une méthode d’apprentissage par renforcement qui s’inspire des systèmes de colonies de fourmis. L’ap- prentissage automatique a pour but d’identifier les arêtes les plus intéressantes, soit celles qui se retrouvent le plus fréquemment dans les solutions de grande qualité précédemment rencontrées au cours de la recherche. L’inclusion de telles arêtes est alors favorisé lors de la réinsertion des clients ayant été retirés de la solution par le mécanisme de destruction. Les instances utilisées pour tester notre approche hybride sont les mêmes que celles du second article. Nous avons observé que notre algorithme ne peut produire que des solutions lé- gèrement meilleures que la métaheuristique SISR originale, celle-ci étant déjà quasi-optimale. / This thesis is concerned both with the classical Capacitated Vehicle Routing Problem (CVRP) and a much more complex variant called the Time-Dependent Vehicle Routing Problem with Time Windows and Transfer Points on a Road Network (TDVRPTWTP-RN ). In the first paper, the TDVRPTWTP RN is solved by adapting a state-of-the-art metaheuris- tic for the CVRP, called Slack Induction for String Removals (SISR). This metaheuristic is based on the ruin and recreate principle and removes strings of consecutive customers in the routes of the current solution and then reinserts the removed customers to create a new solution. The problem is formulated in a full road network where different alternative paths can be used to go from one customer to the next. Also, the travel time on each arc of the road network is not fixed, but depends on the departure time from the origin node. Motivated from city logistics applications, we also consider two types of vehicles, large and small, with large vehicles being forbidden from the downtown area. Thus, downtown customers can only be served through a transfer of their goods from large to small vehicles at designated transfer points. Since transfer points have no capacity, synchronization issues arise when a large vehicle must meet one or more small vehicles to transfer goods. As opposed to strict two-echelon VRPs, large vehicles can also directly serve customers that are outside of the downtown area. Given that the TDVRPTWTP-RN is much more complex than the CVRP, important modifications to the original SISR metaheuristic were required. To evaluate the performance of our algorithm, we generated a set of test instances by extending existing instances of the TDVRPTW-RN . The road networks are divided into three regions: downtown, boundary and outside. The downtown and outside areas are the realm of small and large vehicles, respectively, while the boundary area that contains the transfer points can be visited by both small and large vehicles. The results show that the proposed metaheuristic exploits optimization opportunities by moving as much as possible neutral customers (which can be served by either small or large vehicles) from the routes of small vehicles to those of large vehicles, thus avoiding costly visits to transfer points. The second and third papers examine more fundamental issues, using the classical CVRP as a testbed. In the second paper, an experimental study is designed to examine the impact of inaccurate data (distances) on the performance of different types of heuristics, as well as one exact method, for the CVRP. For this purpose, different levels of distance inaccuracies were introduced into well-known benchmark instances for the CVRP with 100 to 1,000 customers. We observed that the best state-of-the-art metaheuristics remain the best, even in the presence of high inaccuracy levels, and that they are not as much affected by inaccuracies when compared to a simple heuristic. Some experiments performed on real-world instances led to the same conclusions. The third paper focuses on the integration of learning into the state-of-the-art SISR for the CVRP. In this work, the ruin and recreate mechanism at the core of SISR is enhanced by a reinforcement learning technique inspired from ant colony systems. The learning component is aimed at identifying promising edges, namely those that are often found in previously encountered high-quality solutions. The inclusion of these promising edges is then favored during the reinsertion of removed customers. The benchmark instances of the second paper were also used here to test the new hybrid algorithm. We observed that the latter can produce only slightly better solutions than the original SISR, due to the quasi-optimality of the original solutions.
319

Etude des dalles sur sols renforcés au moyen d'inclusions rigides ou non

Antoine, Pierre-Cornélius 21 December 2010 (has links)
Soft soil reinforcement by inclusion is a growing technique caracterized by a pile grid and a granular embankment introduced between the reinforced soil and the structure. Unlike traditionnal methods, the load is partially transferred to the pile heads by arching in the embankment. The application area of this research focuses on the shallow foundations case, in which the thickness of the embankment is small. The litterature review shows that only a few studies were dedicated to that case, and that fundamental questions remains concerning the load transfer in the embankment. Chosen method for this research consists in two-dimensionnal physical modelling, analysis of the conducted simulations, and development of an analytical model in order to predict the load transfer to the piles by arching in the embankment. The results of this PhD thesis provide original elements of evidence of the load transfer in the studied system, proposes an analytical model based on block division of the granular embankment by shear bands - which is in good agreement with experimental data - and lead to a better understanding of arching in soils.
320

Neural approaches to dialog modeling

Sankar, Chinnadhurai 08 1900 (has links)
Cette thèse par article se compose de quatre articles qui contribuent au domaine de l’apprentissage profond, en particulier dans la compréhension et l’apprentissage des ap- proches neuronales des systèmes de dialogue. Le premier article fait un pas vers la compréhension si les architectures de dialogue neuronal couramment utilisées capturent efficacement les informations présentes dans l’historique des conversations. Grâce à une série d’expériences de perturbation sur des ensembles de données de dialogue populaires, nous constatons que les architectures de dialogue neuronal couramment utilisées comme les modèles seq2seq récurrents et basés sur des transformateurs sont rarement sensibles à la plupart des perturbations du contexte d’entrée telles que les énoncés manquants ou réorganisés, les mots mélangés, etc. Le deuxième article propose d’améliorer la qualité de génération de réponse dans les systèmes de dialogue de domaine ouvert en modélisant conjointement les énoncés avec les attributs de dialogue de chaque énoncé. Les attributs de dialogue d’un énoncé se réfèrent à des caractéristiques ou des aspects discrets associés à un énoncé comme les actes de dialogue, le sentiment, l’émotion, l’identité du locuteur, la personnalité du locuteur, etc. Le troisième article présente un moyen simple et économique de collecter des ensembles de données à grande échelle pour modéliser des systèmes de dialogue orientés tâche. Cette approche évite l’exigence d’un schéma d’annotation d’arguments complexes. La version initiale de l’ensemble de données comprend 13 215 dialogues basés sur des tâches comprenant six domaines et environ 8 000 entités nommées uniques, presque 8 fois plus que l’ensemble de données MultiWOZ populaire. / This thesis by article consists of four articles which contribute to the field of deep learning, specifically in understanding and learning neural approaches to dialog systems. The first article takes a step towards understanding if commonly used neural dialog architectures effectively capture the information present in the conversation history. Through a series of perturbation experiments on popular dialog datasets, wefindthatcommonly used neural dialog architectures like recurrent and transformer-based seq2seq models are rarely sensitive to most input context perturbations such as missing or reordering utterances, shuffling words, etc. The second article introduces a simple and cost-effective way to collect large scale datasets for modeling task-oriented dialog systems. This approach avoids the requirement of a com-plex argument annotation schema. The initial release of the dataset includes 13,215 task-based dialogs comprising six domains and around 8k unique named entities, almost 8 times more than the popular MultiWOZ dataset. The third article proposes to improve response generation quality in open domain dialog systems by jointly modeling the utterances with the dialog attributes of each utterance. Dialog attributes of an utterance refer to discrete features or aspects associated with an utterance like dialog-acts, sentiment, emotion, speaker identity, speaker personality, etc. The final article introduces an embedding-free method to compute word representations on-the-fly. This approach significantly reduces the memory footprint which facilitates de-ployment in on-device (memory constraints) devices. Apart from being independent of the vocabulary size, we find this approach to be inherently resilient to common misspellings.

Page generated in 0.0405 seconds