• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 3
  • 1
  • Tagged with
  • 9
  • 9
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Research and application of adaptive finite element Mesh generation

Shan, Ju-Lin Guo, Ying Qiao @Zhang, Hong-Wu. @Guan, Zhen-Gun. January 2007 (has links) (PDF)
Reproduction de : Thèse doctorat : Mécanique : Reims : 2007. / Texte en chinois, résumé et légendes en anglais. Titre provenant de l'écran titre. Bibliogr. f. 140-150.
2

Perfectionnement d'un algorithme adaptatif d'Optimisation par Essaim Particulaire application en génie médical et en électronique /

Cooren, Yann Siarry, Patrick January 2008 (has links) (PDF)
Thèse de doctorat : Sciences de l'ingénieur : optimisation : Paris Est : 2008. / Titre provenant de l'écran-titre.
3

Suivi de fronts par des méthodes de raffinement de maillage adaptatif et application à la simulation du procédé de récupération Steam Assited Gravity Drainage

Mamaghani, Magnolia 02 February 2010 (has links) (PDF)
Le Steam Assisted Gravity Drainage (SAGD) est le procédé de récupération thermique sur lequel plusieurs compagnies pétrolières fondent de grande espoirs. Il consiste en deux horizontaux forés l'un au-dessus de l'autre à quelques mètres d'écart. De la vapeur est injectée dans le réservoir par le puits supérieur ce qui provoque la formation d'une chambre. L'huile au voisinage des parois de la chambre se réchauffe et descend ensuite par gravité vers le puits producteur avec l'eau liquide issue de la condensation de la vapeur. La simulation numérique de ce procédé est un outil qui permet de comprendre les mécanismes physiques, d'estimer la production et d'évaluer les investissement ainsi que les risques associés. Cependant, les simulations numériques de SAGD présentent des inconvénients : la zone d'écoulement est peu épaisse comparée aux dimensions du réservoir. La discrétisation en espace doit être assez fine si l'on souhaite prédire de façon précise la production, ce qui peut amener à des simulations à plusieurs millions de mailles dans des cas réels et donc à des temps de simulation extrêments longs. A l'IFP, un générateur de maillages adaptatifs permet de mettre à jour le maillage au cours de la simulation en raffinant localement les mailles situées dans la zone d'écoulement. Basés sur des estimations d'erreur a posteriori pour des schémas volumes finis pour des équations hyperboliques non linéaires, les nouveaux critères de raffinement que nous proposons ont la particularité de dépendre des données initiales du problème
4

LA DECOMPOSITION PROPRE GENERALISEE POUR LA RESOLUTTON DE PROBLEMES MULTIPHYSIQUES TRANSITOlRES COUPLES DEDIES A LA MECANIQUE DES MATERIAUX - MAILLAGE ADAPTATIF ET COUPLAGE AVEC LA MAN

Nguyen, Tuan Linh 20 November 2012 (has links) (PDF)
Ce travail de recherche est une contribution au développement de la méthode Décomposition Propre Généralisée (PGD) à la résolution de problèmes multiphysiques transitoires couplés à différents temps caractéristiques dédiés à la mécanique des matériaux. Cette méthode se résume à la recherche de solutions d'Equations aux Dérivées Partielles sous forme séparée. L'équation de la chaleur transitoire 2D est tout d'abord traitée. Une technique de maillage adaptatif automatique est proposée afin d'adapter la discrétisation aux différentes zones transitoires de la solution. L'imbrication entre la technique de maillage adaptatif et la PGD est discutée à travers deux types de couplage. Le premier consiste à recalculer la solution PGD sur chaque nouveau maillage à partir de la solution nulle et le second à calculer la solution sur chaque nouveau maillage en conservant les fonctions de base de la solution générées sur le maillage précédent. Le premier couplage apparaît plus performant dans la mesure où peu de modes sont nécessaires pour décrire précisément la solution sur le maillage final. Néanmoins, le second couplage permet de réduire fortement le nombre d'enrichissements cumulé au cours de l'ensemble du procédé de maillage adaptatif. Quel que soit le couplage utilisé, la technique de maillage adaptatif est capable de décrire automatiquement des transitoires localisés. La résolution de l'équation de la chaleur ID transitoire avec une non linéarité dans le terme source est envisagée. Une nouvelle approche couplant la méthode PGD et la Méthode Asymptotique Numérique (MAN) est proposée et testée. Elle permet de résoudre efficacement certaines familles de problèmes transitoires non linéaires. Enfm, deux problèmes multiphysiques multitemps sont traités. Il s'agit d'un partiellement couplé diffusothermique et d'un fortement couplé thermoviscoélastique. La PGD permet de prédire précisément la réponse de ces problèmes multiphysiques pour lesquels les termes de couplage font apparaître des transitoires spécifiques que l'on obtient avec un maillage suffisamment fin. La stratégie de maillage adaptatif associée à la PGD trouve alors tout son sens dans ces situations multitemps fortement couplées. L'association de la technique de maillage adaptatif avec la PGD mène aux mêmes conclusions que dans le cas avec une seule physique. La discussion porte sur deux stratégies de construction des maillages : concaténer les deux maillages temporelles de chaque physique ou adapter indépendamment le maillage de chaque physique. La concaténation des deux maillages permet de converger avec moins d'étapes de maillage adaptatif mais avec des densités de maillage beaucoup plus importantes.
5

Vers des solutions adaptatives et génériques pour l'extraction de motifs intéressants dans les données

Flouvat, Frédéric 08 December 2006 (has links) (PDF)
La découverte de motifs fréquents est un des problèmes en fouille de données. Afin de mieux comprendre l'influence des données sur les algorithmes, nous présentons une étude expérimentale des jeux de données communément utilisés par la communauté. Cette étude permet d'aboutir à une nouvelle classification des données en fonction des bordures : stable et en accord avec les performances des algorithmes. Malgré le grand nombre de travaux et un cadre théorique des problèmes d'extraction de motifs intéressants, l'utilisation de ces algorithmes pour résoudre des problèmes "équivalents" est peu répandue et reste délicate. Face à ces limites, nous proposons un algorithme générique de découverte des bordures des motifs intéressants, appelé ABS (Adaptive borders Search), adaptant dynamiquement sa stratégie en fonction des données. De plus, une librairie générique de composants C++ a été proposée pour faciliter le développement de solutions logicielles pour cette famille de problèmes.
6

Modélisation multiphysique de structures nanométriques résonantes / Multiphysics medling of resonant nanostructures

Mezghani, Fadhil 26 September 2016 (has links)
La simulation multiphysique de l'interaction rayonnement-matière, des effets thermiques et mécaniques induits dans un matériau nanostructuré à un intérêt notamment lorsqu'il s'agit d'élaborer des capteurs voire de les optimiser. En effet, les effets thermiques peuvent être utilisés pour des applications chimiques ou biologiques et les dilatations mécaniques peuvent influer sur la durabilité du capteur et sur son efficacité. A l’échelle nanométrique, les longueurs caractéristiques des effets thermo-électro-magnétique-mécaniques ne sont pas du même ordre de grandeur et la simulation éléments finis doit être adaptée à chaque problème avec un contrôle adapté à l'erreur de la solution physique. Une procédure utilisant un remailleur adaptatif 3D Optiform et Comsol Multiphysics permet une relaxation du maillage ou un raffinement adapté afin d'accélérer la résolution (RAM et CPU) et améliorer la solution physique. Des simulations numériques des nano-objets de formes simples et des nanoantennes pour lesquelles l'exaltation du champ électromagnétique est localisée dans des zones de quelques nanomètres, alors que le gradient de température est beaucoup plus homogène dans le domaine de calcul et les dilatations sont nanométriques sont effectuées / Multiphysics simulation of light-matter interaction, induced temperature and dilation in nanostructures is of interest especially when it comes to develop or optimize sensors. Indeed, thermal effects can be used for chemical or biological applications, and mechanical dilation can affect the durability of the sensor and its effectiveness.However, the characteristic lengths of electromagnetic fields, temperature and dilation are not of the same magnitude and the mesh used in a finite element multiphysics model must be adapted to each problem. An efficient numerical model for controlling the error in the computational domain is necessary while allowing the relaxation or the refinement of the mesh, in order to decrease the computational time and memory.The purpose of this thesis is to show that the adaptation loop of the mesh for solving a multiphysics 3D problem using Comsol Multiphysics in OPTIFORM mesher, based on the error estimation of the physical solution, is more efficient than a conventional remeshing process.The proposed procedure is applied to simulate nano-objects with simple shapes and to nanoantennas for which the confinement of the electromagnetic field is localized on a few nanometers, while the gradient of the temperature is much smoother in the computational domain but leading to nanoscale dilation
7

Développement d'une méthode numérique multi-échelle et multi-approche appliquée à l'atomisation / Development of a multi-approach and multi-scale numerical method applied to atomization

Dabonneville, Felix 20 June 2018 (has links)
L’objet de cette thèse a été de développer une méthode numérique multi-approche et multiéchelle appliquée à la simulation d’écoulements diphasiques de fluides non miscibles, incompressibles et isothermiques et plus particulièrement à l’atomisation primaire. Cette méthode repose sur une approche couplée entre un maillage local raffiné et un maillage global plus large. Le couplage est explicite avec raffinement en temps, c’est-à-dire que chaque domaine évolue selon son propre pas de temps. Afin de prendre en compte les différentes échelles en temps et en espace dans le processus d’atomisation, cette méthode numérique couple deux méthodes numériques diphasiques différentes : une méthode de capture de l’interface dans le domaine local raffiné près de l’injecteur et une méthode de sous-maille dans le domaine global grossier et la région du spray dispersé. Le code développé et parallélisé dans le logiciel OpenFOAMR s’avère capable de réduire de manière significative le temps de calcul d’une simulation aux grandes échelles de l’atomisation dans un injecteur coaxial, tout en prédisant de manière fiable les données expérimentales. / The purpose of this work has been to develop a multi-approach and multi-scale numerical method applied to the simulation of two-phase flows involving non miscible, incompressible and isothermal fluids, and more specifically primary atomization. This method is based on a coupled approach between a refined local mesh and a coarser global mesh. The coupling is explicit with refinement in time, i.e. each domain evolves following its own time-step. In order to account for the different scales in space and time of the atomization process, this numerical method couples two different two-phase numerical methods: an interface capturing method in the refined local domain near the injector and a sub-grid method in the coarser global domain in the dispersed spray region. The code has been developed and parallelized in the OpenFOAMR software. It is able to reduce significantly the computational cost of a large eddy simulation of a coaxial atomization, while predicting with accuracy the experimental data.
8

Neurobiologically-inspired models : exploring behaviour prediction, learning algorithms, and reinforcement learning

Spinney, Sean 11 1900 (has links)
Le développement du domaine de l’apprentissage profond doit une grande part de son avancée aux idées inspirées par la neuroscience et aux études sur l’apprentissage humain. De la découverte de l’algorithme de rétropropagation à la conception d’architectures neuronales comme les Convolutional Neural Networks, ces idées ont été couplées à l’ingénierie et aux améliorations technologiques pour engendrer des algorithmes performants en utilisation aujourd’hui. Cette thèse se compose de trois articles, chacun éclairant des aspects distincts du thème central de ce domaine interdisciplinaire. Le premier article explore la modélisation prédictive avec des données d’imagerie du cerveau de haute dimension en utilisant une nouvelle approche de régularisation hybride. Dans de nombreuses applications pratiques (comme l’imagerie médicale), l’attention se porte non seulement sur la précision, mais également sur l’interprétabilité d’un modèle prédictif formé sur des données haute dimension. Cette étude s’attache à combiner la régularisation l1 et l2, qui régularisent la norme des gradients, avec l’approche récemment proposée pour la modélisation prédictive robuste, l’Invariant Learning Consistency, qui impose l’alignement entre les gradients de la même classe lors de l’entraînement. Nous examinons ici la capacité de cette approche combinée à identifier des prédicteurs robustes et épars, et nous présentons des résultats prometteurs sur plusieurs ensembles de données. Cette approche tend à améliorer la robustesse des modèles épars dans presque tous les cas, bien que les résultats varient en fonction des conditions. Le deuxième article se penche sur les algorithmes d’apprentissage inspirés de la biologie, en se concentrant particulièrement sur la méthode Difference Target Propagation (DTP) tout en l’intégrant à l’optimisation Gauss-Newton. Le développement de tels algorithmes biologiquement plausibles possède une grande importance pour comprendre les processus d’apprentissage neuronale, cependant leur extensibilité pratique à des tâches réelles est souvent limitée, ce qui entrave leur potentiel explicatif pour l’apprentissage cérébral réel. Ainsi, l’exploration d’algorithmes d’apprentissage qui offrent des fondements théoriques solides et peuvent rivaliser avec la rétropropagation dans des tâches complexes gagne en importance. La méthode Difference Target Propagation (DTP) se présente comme une candidate prometteuse, caractérisée par son étroite relation avec les principes de l’optimisation Gauss-Newton. Néanmoins, la rigueur de cette relation impose des limites, notamment en ce qui concerne la formation couche par couche des poids synaptiques du chemin de rétroaction, une configuration considérée comme plus biologiquement plausible. De plus, l’alignement entre les mises à jour des poids DTP et les gradients de perte est conditionnel et dépend des scénarios d’architecture spécifiques. Cet article relève ces défis en introduisant un schéma innovant d’entraînement des poids de rétroaction. Ce schéma harmonise la DTP avec la BP, rétablissant la viabilité de la formation des poids de rétroaction couche par couche sans compromettre l’intégrité théorique. La validation empirique souligne l’efficacité de ce schéma, aboutissant à des performances exceptionnelles de la DTP sur CIFAR-10 et ImageNet 32×32. Enfin, le troisième article explore la planification efficace dans la prise de décision séquentielle en intégrant le calcul adaptatif à des architectures d’apprentissage profond existantes, dans le but de résoudre des casse-tête complexes. L’étude introduit des principes de calcul adaptatif inspirés des processus cognitifs humains, ainsi que des avancées récentes dans le domaine du calcul adaptatif. En explorant en profondeur les comportements émergents du modèle de mémoire adaptatif entraîné, nous identifions plusieurs comportements reconnaissables similaires aux processus cognitifs humains. Ce travail élargit la discussion sur le calcul adaptatif au-delà des gains évidents en efficacité, en explorant les comportements émergents en raison des contraintes variables généralement attribuées aux processus de la prise de décision chez les humains. / The development of the field of deep learning has benefited greatly from biologically inspired insights from neuroscience and the study of human learning more generally, from the discovery of backpropagation to neural architectures such as the Convolutional Neural Network. Coupled with engineering and technological improvements, the distillation of good strategies and algorithms for learning inspired from biological observation is at the heart of these advances. Although it would be difficult to enumerate all useful biases that can be learned by observing humans, they can serve as a blueprint for intelligent systems. The following thesis is composed of three research articles, each shedding light on distinct facets of the overarching theme. The first article delves into the realm of predictive modeling on high-dimensional fMRI data, a landscape where not only accuracy but also interpretability are crucial. Employing a hybrid approach blending l1 and l2 regularization with Invariant Learning Consistency, this study unveils the potential of identifying robust, sparse predictors capable of transmuting noise laden datasets into coherent observations useful for pushing the field forward. Conversely, the second article delves into the domain of biologically-plausible learning algorithms, a pivotal endeavor in the comprehension of neural learning processes. In this context, the investigation centers upon Difference Target Propagation (DTP), a prospective framework closely related to Gauss-Newton optimization principles. This exploration delves into the intricate interplay between DTP and the tenets of biologically-inspired learning mechanisms, revealing an innovative schema for training feedback weights. This schema reinstates the feasibility of layer-wise feedback weight training within the DTP framework, while concurrently upholding its theoretical integrity. Lastly, the third article explores the role of memory in sequential decision-making, and proposes a model with adaptive memory. This domain entails navigating complex decision sequences within discrete state spaces, where the pursuit of efficiency encounters difficult scenarios such as the risk of critical irreversibility. The study introduces adaptive computation principles inspired by human cognitive processes, as well as recent advances in adaptive computing. By studying in-depth the emergent behaviours exhibited by the trained adaptive memory model, we identify several recognizable behaviours akin to human cognitive processes. This work expands the discussion of adaptive computing beyond the obvious gains in efficiency, but to behaviours emerging due to varying constraints usually attributable to dynamic response times in humans.
9

Towards computationally efficient neural networks with adaptive and dynamic computations

Kim, Taesup 08 1900 (has links)
Ces dernières années, l'intelligence artificielle a été considérablement avancée et l'apprentissage en profondeur, où des réseaux de neurones profonds sont utilisés pour tenter d'imiter vaguement le cerveau humain, y a contribué de manière significative. Les réseaux de neurones profonds sont désormais capables d'obtenir un grand succès sur la base d'une grande quantité de données et de ressources de calcul suffisantes. Malgré leur succès, leur capacité à s'adapter rapidement à de nouveaux concepts, tâches et environnements est assez limitée voire inexistante. Dans cette thèse, nous nous intéressons à la façon dont les réseaux de neurones profonds peuvent s'adapter à des circonstances en constante évolution ou totalement nouvelles, de la même manière que l'intelligence humaine, et introduisons en outre des modules architecturaux adaptatifs et dynamiques ou des cadres de méta-apprentissage pour que cela se produise de manière efficace sur le plan informatique. Cette thèse consiste en une série d'études proposant des méthodes pour utiliser des calculs adaptatifs et dynamiques pour aborder les problèmes d'adaptation qui sont étudiés sous différentes perspectives telles que les adaptations au niveau de la tâche, au niveau temporel et au niveau du contexte. Dans le premier article, nous nous concentrons sur l'adaptation rapide des tâches basée sur un cadre de méta-apprentissage. Plus précisément, nous étudions l'incertitude du modèle induite par l'adaptation rapide à une nouvelle tâche avec quelques exemples. Ce problème est atténué en combinant un méta-apprentissage efficace basé sur des gradients avec une inférence variationnelle non paramétrique dans un cadre probabiliste fondé sur des principes. C'est une étape importante vers un méta-apprentissage robuste que nous développons une méthode d'apprentissage bayésienne à quelques exemples pour éviter le surapprentissage au niveau des tâches. Dans le deuxième article, nous essayons d'améliorer les performances de la prédiction de la séquence (c'est-à-dire du futur) en introduisant une prédiction du futur sauteur basée sur la taille du pas adaptatif. C'est une capacité critique pour un agent intelligent d'explorer un environnement qui permet un apprentissage efficace avec une imagination sauteur futur. Nous rendons cela possible en introduisant le modèle hiérarchique d'espace d'état récurrent (HRSSM) qui peut découvrir la structure temporelle latente (par exemple, les sous-séquences) tout en modélisant ses transitions d'état stochastiques de manière hiérarchique. Enfin, dans le dernier article, nous étudions un cadre qui peut capturer le contexte global dans les données d'image de manière adaptative et traiter davantage les données en fonction de ces informations. Nous implémentons ce cadre en extrayant des concepts visuels de haut niveau à travers des modules d'attention et en utilisant un raisonnement basé sur des graphes pour en saisir le contexte global. De plus, des transformations au niveau des caractéristiques sont utilisées pour propager le contexte global à tous les descripteurs locaux de manière adaptative. / Over the past few years, artificial intelligence has been greatly advanced, and deep learning, where deep neural networks are used to attempt to loosely emulate the human brain, has significantly contributed to it. Deep neural networks are now able to achieve great success based on a large amount of data and sufficient computational resources. Despite their success, their ability to quickly adapt to new concepts, tasks, and environments is quite limited or even non-existent. In this thesis, we are interested in how deep neural networks can become adaptive to continually changing or totally new circumstances, similarly to human intelligence, and further introduce adaptive and dynamic architectural modules or meta-learning frameworks to make it happen in computationally efficient ways. This thesis consists of a series of studies proposing methods to utilize adaptive and dynamic computations to tackle adaptation problems that are investigated from different perspectives such as task-level, temporal-level, and context-level adaptations. In the first article, we focus on task-level fast adaptation based on a meta-learning framework. More specifically, we investigate the inherent model uncertainty that is induced from quickly adapting to a new task with a few examples. This problem is alleviated by combining the efficient gradient-based meta-learning with nonparametric variational inference in a principled probabilistic framework. It is an important step towards robust meta-learning that we develop a Bayesian few-shot learning method to prevent task-level overfitting. In the second article, we attempt to improve the performance of sequence (i.e. future) prediction by introducing a jumpy future prediction that is based on the adaptive step size. It is a critical ability for an intelligent agent to explore an environment that enables efficient option-learning and jumpy future imagination. We make this possible by introducing the Hierarchical Recurrent State Space Model (HRSSM) that can discover the latent temporal structure (e.g. subsequences) while also modeling its stochastic state transitions hierarchically. Finally, in the last article, we investigate a framework that can capture the global context in image data in an adaptive way and further process the data based on that information. We implement this framework by extracting high-level visual concepts through attention modules and using graph-based reasoning to capture the global context from them. In addition, feature-wise transformations are used to propagate the global context to all local descriptors in an adaptive way.

Page generated in 0.4667 seconds