Spelling suggestions: "subject:"réseaux dde neurones"" "subject:"réseaux dee neurones""
381 |
Deep reinforcement learning for multi-modal embodied navigationWeiss, Martin 12 1900 (has links)
Ce travail se concentre sur une tâche de micro-navigation en plein air où le but est de naviguer
vers une adresse de rue spécifiée en utilisant plusieurs modalités (par exemple, images, texte
de scène et GPS). La tâche de micro-navigation extérieure s’avère etre un défi important pour
de nombreuses personnes malvoyantes, ce que nous démontrons à travers des entretiens et
des études de marché, et nous limitons notre définition des problèmes à leurs besoins. Nous
expérimentons d’abord avec un monde en grille partiellement observable (Grid-Street et Grid
City) contenant des maisons, des numéros de rue et des régions navigables. Ensuite, nous
introduisons le Environnement de Trottoir pour la Navigation Visuelle (ETNV), qui contient
des images panoramiques avec des boîtes englobantes pour les numéros de maison, les portes
et les panneaux de nom de rue, et des formulations pour plusieurs tâches de navigation. Dans
SEVN, nous formons un modèle de politique pour fusionner des observations multimodales
sous la forme d’images à résolution variable, de texte visible et de données GPS simulées afin
de naviguer vers une porte d’objectif. Nous entraînons ce modèle en utilisant l’algorithme
d’apprentissage par renforcement, Proximal Policy Optimization (PPO). Nous espérons que
cette thèse fournira une base pour d’autres recherches sur la création d’agents pouvant aider
les membres de la communauté des gens malvoyantes à naviguer le monde. / This work focuses on an Outdoor Micro-Navigation (OMN) task in which the goal is to
navigate to a specified street address using multiple modalities including images, scene-text,
and GPS. This task is a significant challenge to many Blind and Visually Impaired (BVI)
people, which we demonstrate through interviews and market research. To investigate the
feasibility of solving this task with Deep Reinforcement Learning (DRL), we first introduce
two partially observable grid-worlds, Grid-Street and Grid City, containing houses, street
numbers, and navigable regions. In these environments, we train an agent to find specific
houses using local observations under a variety of training procedures. We parameterize
our agent with a neural network and train using reinforcement learning methods. Next, we
introduce the Sidewalk Environment for Visual Navigation (SEVN), which contains panoramic
images with labels for house numbers, doors, and street name signs, and formulations for
several navigation tasks. In SEVN, we train another neural network model using Proximal
Policy Optimization (PPO) to fuse multi-modal observations in the form of variable resolution
images, visible text, and simulated GPS data, and to use this representation to navigate to
goal doors. Our best model used all available modalities and was able to navigate to over 100
goals with an 85% success rate. We found that models with access to only a subset of these
modalities performed significantly worse, supporting the need for a multi-modal approach to
the OMN task. We hope that this thesis provides a foundation for further research into the
creation of agents to assist members of the BVI community to safely navigate.
|
382 |
L’intelligence artificielle pour analyser des protocoles avec alternance de traitementsHeng, Emily 08 1900 (has links)
Les protocoles avec alternance de traitements sont des protocoles expérimentaux à cas uniques utiles pour évaluer et pour comparer l’efficacité d’interventions. Pour l’analyse de ces protocoles, les meilleures pratiques suggèrent aux chercheurs et aux professionnels d’utiliser conjointement les analyses statistiques et visuelles, mais ces méthodes produisent des taux d’erreurs insatisfaisants sous certaines conditions. Dans le but de considérer cet enjeu, notre étude a examiné l’utilisation de réseaux de neurones artificiels pour analyser les protocoles avec alternance de traitements et a comparé leurs performances à trois autres approches récentes. Plus précisément, nous avons examiné leur précision, leur puissance statistique et leurs erreurs de type I sous différentes conditions. Bien qu’il ne soit pas parfait, le modèle de réseaux de neurones artificiels présentait en général de meilleurs résultats et une plus grande stabilité à travers les analyses. Nos résultats suggèrent que les réseaux de neurones artificiels puissent être des solutions prometteuses pour analyser des protocoles avec alternance de traitements. / Alternating-treatment designs are useful single-case experimental designs for the evaluation and comparison of intervention effectiveness. Most guidelines suggest that researchers and practitioners use a combination of statistical and visual analyses to analyze these designs, but current methods still produce inadequate levels of errors under certain conditions. In an attempt to address this issue, our study examined the use of artificial neural networks to analyze alternating-treatment designs and compared their performances to three other recent approaches. Specifically, we examined accuracy, statistical power, and type I error rates under various conditions. Albeit not perfect, the artificial neural networks model generally provided better and more stable results across analyses. Our results suggest that artificial neural networks are promising alternatives to analyze alternating-treatment designs.
|
383 |
QoS provisioning in future wireless local area networks / Amélioration de la qualité de service dans les futures réseaux locaux sans filPaudel, Indira 15 January 2015 (has links)
Les réseaux locaux sans fil (WLAN) constituent encore le moyen le plus populaire de connexion à domicile et au bureau. Initialement conçus pour le transfert de données, avec des débits relativement faibles, il y a eu ces dernières années de fortes évolutions technologiques avec de nouveaux standards et des débits allant jusqu’à plusieurs dizaines de Mbps voire même plusieurs Gbps (IEEE 802.11n/ac). La gestion de la QoS sur les réseaux locaux sans fil basés sur la technique d’accès aléatoire constitue une problématique et un défi majeur pour les prochaines années, surtout si l’on considère la volonté des opérateurs de faire transiter des flux tels que la voix ou la vidéo. De nouvelles améliorations sont aujourd’hui plus que nécessaires afin de prendre en compte la QoS. Après l’analyse de l’état de l’art, notre première contribution concerne un mécanisme d’agrégation adaptative qui permet une différentiation de la QoS pour chaque classe de service. Nous avons ensuite étudié la Qualité d’Expérience (QoE). Nous l’avons évaluée pour le service vidéo avec différentes conditions radio et de charge. Nous avons ensuite proposé un système de prédiction de la QoE utilisant les systèmes de réseaux de neurones aléatoires (Random Neural Networks). Cette solution est ensuite utilisée pour l’analyse de l’impact des différents paramètres MAC sur la QoE pour le service vidéo. Nous avons ensuite proposé deux améliorations du mécanisme MAC. La première amélioration consiste à sélectionner des valeurs appropriées pour le Backoff. La seconde amélioration permet de renforcer la propriétarisation des flux en agissant sur les valeurs du paramètre AIFSN (Arbitration Inter-Frame Space Number). Les analyses de performances montrent que la solution proposée permet d’améliorer considérablement la QoS, particulièrement en permettant un accès assez régulier, minimiser les collisions et d’accroitre l’efficacité de l’usage des ressources radio disponibles / Wireless Local Area Networks (WLAN) are today the most popular access networking solution at homes and offices. Although initially, WLANs were designed to carry best effort traffic, users today are adopting them for various multimedia services and applications that have stringent QoS requirements. WLAN standards based on CSMA/CA technique are not able to provide QoS guarantees and furthermore lead to bad performances when the number of competing stations/flows increases. Moreover, standard QoS solutions rely on centralized approaches (e.g. PCF, HCCA) that are not widely used on terminals. The distributed approach, based on concurrent access remains fundamental in WLAN. In this thesis, we propose solutions to improve both QoS and QoE (Quality of Experience) of multimedia services over WLAN. The main contributions include proposal of an aggregation scheme that relies on QoS differentiation for different service classes. We then evaluated the QoE of video services over IEEE 802.11n networks for various radio, MAC and load conditions. Based on this study, a random neural network solution is then proposed to automate video QoE prediction from system parameters. Furthermore, an enhancement to the distributed access mechanism in IEEE 802.11 networks is also proposed. First, we proposed to select appropriate and specific Backoff values according to QoS requirements. Second, a new flow prioritization based on AIFSN (Arbitration Inter-Frame Space Number) values, allocated according to traffic load and traffic types is proposed. Through analysis, we showed that these solutions can enhance QoS and provide regular access, minimize collisions and provide better resource utilization
|
384 |
Mid-level representations for modeling objects / Représentations de niveau intermédiaire pour la modélisation d'objetsTsogkas, Stavros 15 January 2016 (has links)
Dans cette thèse, nous proposons l'utilisation de représentations de niveau intermédiaire, et en particulier i) d'axes médians, ii) de parties d'objets, et iii) des caractéristiques convolutionnels, pour modéliser des objets.La première partie de la thèse traite de détecter les axes médians dans des images naturelles en couleur. Nous adoptons une approche d'apprentissage, en utilisant la couleur, la texture et les caractéristiques de regroupement spectral pour construire un classificateur qui produit une carte de probabilité dense pour la symétrie. Le Multiple Instance Learning (MIL) nous permet de traiter l'échelle et l'orientation comme des variables latentes pendant l'entraînement, tandis qu'une variante fondée sur les forêts aléatoires offre des gains significatifs en termes de temps de calcul.Dans la deuxième partie de la thèse, nous traitons de la modélisation des objets, utilisant des modèles de parties déformables (DPM). Nous développons une approche « coarse-to-fine » hiérarchique, qui utilise des bornes probabilistes pour diminuer le coût de calcul dans les modèles à grand nombre de composants basés sur HOGs. Ces bornes probabilistes, calculés de manière efficace, nous permettent d'écarter rapidement de grandes parties de l'image, et d'évaluer précisément les filtres convolutionnels seulement à des endroits prometteurs. Notre approche permet d'obtenir une accélération de 4-5 fois sur l'approche naïve, avec une perte minimale en performance.Nous employons aussi des réseaux de neurones convolutionnels (CNN) pour améliorer la détection d'objets. Nous utilisons une architecture CNN communément utilisée pour extraire les réponses de la dernière couche de convolution. Nous intégrons ces réponses dans l'architecture DPM classique, remplaçant les descripteurs HOG fabriqués à la main, et nous observons une augmentation significative de la performance de détection (~14.5% de mAP).Dans la dernière partie de la thèse nous expérimentons avec des réseaux de neurones entièrement convolutionnels pous la segmentation de parties d'objets.Nous réadaptons un CNN utilisé à l'état de l'art pour effectuer une segmentation sémantique fine de parties d'objets et nous utilisons un CRF entièrement connecté comme étape de post-traitement pour obtenir des bords fins.Nous introduirons aussi un à priori sur les formes à l'aide d'une Restricted Boltzmann Machine (RBM), à partir des segmentations de vérité terrain.Enfin, nous concevons une nouvelle architecture entièrement convolutionnel, et l'entraînons sur des données d'image à résonance magnétique du cerveau, afin de segmenter les différentes parties du cerveau humain.Notre approche permet d'atteindre des résultats à l'état de l'art sur les deux types de données. / In this thesis we propose the use of mid-level representations, and in particular i) medial axes, ii) object parts, and iii)convolutional features, for modelling objects.The first part of the thesis deals with detecting medial axes in natural RGB images. We adopt a learning approach, utilizing colour, texture and spectral clustering features, to build a classifier that produces a dense probability map for symmetry. Multiple Instance Learning (MIL) allows us to treat scale and orientation as latent variables during training, while a variation based on random forests offers significant gains in terms of running time.In the second part of the thesis we focus on object part modeling using both hand-crafted and learned feature representations. We develop a coarse-to-fine, hierarchical approach that uses probabilistic bounds for part scores to decrease the computational cost of mixture models with a large number of HOG-based templates. These efficiently computed probabilistic bounds allow us to quickly discard large parts of the image, and evaluate the exact convolution scores only at promising locations. Our approach achieves a $4times-5times$ speedup over the naive approach with minimal loss in performance.We also employ convolutional features to improve object detection. We use a popular CNN architecture to extract responses from an intermediate convolutional layer. We integrate these responses in the classic DPM pipeline, replacing hand-crafted HOG features, and observe a significant boost in detection performance (~14.5% increase in mAP).In the last part of the thesis we experiment with fully convolutional neural networks for the segmentation of object parts.We re-purpose a state-of-the-art CNN to perform fine-grained semantic segmentation of object parts and use a fully-connected CRF as a post-processing step to obtain sharp boundaries.We also inject prior shape information in our model through a Restricted Boltzmann Machine, trained on ground-truth segmentations.Finally, we train a new fully-convolutional architecture from a random initialization, to segment different parts of the human brain in magnetic resonance image data.Our methods achieve state-of-the-art results on both types of data.
|
385 |
Image forgery detection using textural features and deep learningMalhotra, Yishu 06 1900 (has links)
La croissance exponentielle et les progrès de la technologie ont rendu très pratique le partage de données visuelles, d'images et de données vidéo par le biais d’une vaste prépondérance de platesformes disponibles. Avec le développement rapide des technologies Internet et multimédia, l’efficacité de la gestion et du stockage, la rapidité de transmission et de partage, l'analyse en temps réel et le traitement des ressources multimédias numériques sont progressivement devenus un élément indispensable du travail et de la vie de nombreuses personnes. Sans aucun doute, une telle croissance technologique a rendu le forgeage de données visuelles relativement facile et réaliste sans laisser de traces évidentes. L'abus de ces données falsifiées peut tromper le public et répandre la désinformation parmi les masses.
Compte tenu des faits mentionnés ci-dessus, la criminalistique des images doit être utilisée pour authentifier et maintenir l'intégrité des données visuelles. Pour cela, nous proposons une technique de détection passive de falsification d'images basée sur les incohérences de texture et de bruit introduites dans une image du fait de l'opération de falsification.
De plus, le réseau de détection de falsification d'images (IFD-Net) proposé utilise une architecture basée sur un réseau de neurones à convolution (CNN) pour classer les images comme falsifiées ou vierges. Les motifs résiduels de texture et de bruit sont extraits des images à l'aide du motif binaire local (LBP) et du modèle Noiseprint. Les images classées comme forgées sont ensuite utilisées pour mener des expériences afin d'analyser les difficultés de localisation des pièces forgées dans ces images à l'aide de différents modèles de segmentation d'apprentissage en profondeur.
Les résultats expérimentaux montrent que l'IFD-Net fonctionne comme les autres méthodes de détection de falsification d'images sur l'ensemble de données CASIA v2.0. Les résultats discutent également des raisons des difficultés de segmentation des régions forgées dans les images du jeu de données CASIA v2.0. / The exponential growth and advancement of technology have made it quite convenient for people to share visual data, imagery, and video data through a vast preponderance of available platforms. With the rapid development of Internet and multimedia technologies, performing efficient storage and management, fast transmission and sharing, real-time analysis, and processing of digital media resources has gradually become an indispensable part of many people’s work and life. Undoubtedly such technological growth has made forging visual data relatively easy and realistic without leaving any obvious visual clues. Abuse of such tampered data can deceive the public and spread misinformation amongst the masses. Considering the facts mentioned above, image forensics must be used to authenticate and maintain the integrity of visual data. For this purpose, we propose a passive image forgery detection technique based on textural and noise inconsistencies introduced in an image because of the tampering operation.
Moreover, the proposed Image Forgery Detection Network (IFD-Net) uses a Convolution Neural Network (CNN) based architecture to classify the images as forged or pristine. The textural and noise residual patterns are extracted from the images using Local Binary Pattern (LBP) and the Noiseprint model. The images classified as forged are then utilized to conduct experiments to analyze the difficulties in localizing the forged parts in these images using different deep learning segmentation models.
Experimental results show that both the IFD-Net perform like other image forgery detection methods on the CASIA v2.0 dataset. The results also discuss the reasons behind the difficulties in segmenting the forged regions in the images of the CASIA v2.0 dataset.
|
386 |
Classification, apprentissage profond et réseaux de neurones : application en science des donnéesDiouf, Jean Noël Dibocor January 2020 (has links) (PDF)
No description available.
|
387 |
Classification, réduction de dimensionnalité et réseaux de neurones : données massives et science des donnéesSow, Aboubakry Moussa January 2020 (has links) (PDF)
No description available.
|
388 |
Learning to compare nodes in branch and bound with graph neural networksLabassi, Abdel Ghani 08 1900 (has links)
En informatique, la résolution de problèmes NP-difficiles en un temps raisonnable est d’une grande importance : optimisation de la chaîne d’approvisionnement, planification, routage, alignement de séquences biologiques multiples, inference dans les modèles graphiques pro- babilistes, et même certains problèmes de cryptographie sont tous des examples de la classe NP-complet. En pratique, nous modélisons beaucoup d’entre eux comme un problème d’op- timisation en nombre entier, que nous résolvons à l’aide de la méthodologie séparation et évaluation. Un algorithme de ce style divise un espace de recherche pour l’explorer récursi- vement (séparation), et obtient des bornes d’optimalité en résolvant des relaxations linéaires sur les sous-espaces (évaluation). Pour spécifier un algorithme, il faut définir plusieurs pa- ramètres, tel que la manière d’explorer les espaces de recherche, de diviser une recherche l’espace une fois exploré, ou de renforcer les relaxations linéaires. Ces politiques peuvent influencer considérablement la performance de résolution.
Ce travail se concentre sur une nouvelle manière de dériver politique de recherche, c’est à dire le choix du prochain sous-espace à séparer étant donné une partition en cours, en nous servant de l’apprentissage automatique profond. Premièrement, nous collectons des données résumant, sur une collection de problèmes donnés, quels sous-espaces contiennent l’optimum et quels ne le contiennent pas. En représentant ces sous-espaces sous forme de graphes bipartis qui capturent leurs caractéristiques, nous entraînons un réseau de neurones graphiques à déterminer la probabilité qu’un sous-espace contienne la solution optimale par apprentissage supervisé. Le choix d’un tel modèle est particulièrement utile car il peut s’adapter à des problèmes de différente taille sans modifications. Nous montrons que notre approche bat celle de nos concurrents, consistant à des modèles d’apprentissage automatique plus simples entraînés à partir des statistiques du solveur, ainsi que la politique par défaut de SCIP, un solveur open-source compétitif, sur trois familles NP-dures: des problèmes de recherche de stables de taille maximum, de flots de réseau multicommodité à charge fixe, et de satisfiabilité maximum. / In computer science, solving NP-hard problems in a reasonable time is of great importance, such as in supply chain optimization, scheduling, routing, multiple biological sequence align- ment, inference in probabilistic graphical models, and even some problems in cryptography. In practice, we model many of them as a mixed integer linear optimization problem, which we solve using the branch and bound framework. An algorithm of this style divides a search space to explore it recursively (branch) and obtains optimality bounds by solving linear relaxations in such sub-spaces (bound). To specify an algorithm, one must set several pa- rameters, such as how to explore search spaces, how to divide a search space once it has been explored, or how to tighten these linear relaxations. These policies can significantly influence resolution performance.
This work focuses on a novel method for deriving a search policy, that is, a rule for select- ing the next sub-space to explore given a current partitioning, using deep machine learning. First, we collect data summarizing which subspaces contain the optimum, and which do not. By representing these sub-spaces as bipartite graphs encoding their characteristics, we train a graph neural network to determine the probability that a subspace contains the optimal so- lution by supervised learning. The choice of such design is particularly useful as the machine learning model can automatically adapt to problems of different sizes without modifications. We show that our approach beats the one of our competitors, consisting of simpler machine learning models trained from solver statistics, as well as the default policy of SCIP, a state- of-the-art open-source solver, on three NP-hard benchmarks: generalized independent set, fixed-charge multicommodity network flow, and maximum satisfiability problems.
|
389 |
Utilisation de l’apprentissage automatique pour approximer l’énergie d’échange-corrélationCuierrier, Étienne 01 1900 (has links)
Le sujet de cette thèse est le développement de nouvelles approximations à l’énergie
d’échange-corrélation (XC) en théorie de la fonctionnelle de la densité (DFT).
La DFT calcule l’énergie électronique d’une molécule à partir de la densité électronique,
une quantité qui est considérablement plus simple que la fonction d’onde. Cette théorie a
été développée durant les années 1960 et elle est devenue la méthode de choix en chimie
quantique depuis 1990, grâce à un ratio coût/précision très favorable. En pratique, la DFT
est utilisée par les chercheurs et l’industrie pour prédire des spectres infrarouges, la longueur
des liens chimiques, les barrières d’activation, etc. Selon l’approche Kohn-Sham, seulement
le terme de l’énergie XC est inconnu et doit être approximé. Les chapitres de ce texte sont
des articles consacrés au développement d’approches non locales et à l’utilisation de
l’apprentissage automatique pour améliorer la précision et/ou la rapidité des calculs de l’énergie
XC.
Le premier article de cette thèse concerne le développement d’approximations non locales
au trou XC [Cuierrier, Roy, et Ernzerhof, JCP (2021)]. Notre groupe de recherche a précédemment
développé la méthode du facteur de corrélation (CFX) [Pavlíková Přecechtělová,
Bahmann, Kaupp, et Ernzerhof, JCP (2015)] et malgré les résultats supérieurs de CFX
comparativement aux fonctionnelles courantes en DFT pour le calcul de l’énergie, cette approche
n’est pas exacte pour les systèmes uniélectroniques. Les méthodes non locales telles que le
facteur X [Antaya, Zhou, et Ernzerhof, PRA (2014)] corrigent ce problème. Ainsi, le but
du projet du premier article est de combiner CFX avec le facteur X, afin de former un facteur XC
exact pour l’atome d’hydrogène, tout en conservant les bonnes prédictions de CFX
pour les molécules. Nos résultats montrent que notre modèle non local est exact pour les
systèmes uniélectroniques, cependant, la densité électronique non locale a un comportement
fortement oscillatoire qui rend difficile la construction du facteur XC et la qualité de ses
prédictions pour les propriétés moléculaires est inférieure aux fonctionnelles hybrides. Notre
étude permet de fournir une explication concernant l’échec des méthodes non locales en
chimie, comme l’approximation de la densité pondérée [Gunnarsson, Jonson, et Lundqvist,
PLA (1976)]. Les nombreuses oscillations de la densité non locale limitent la performance
des facteurs XC qui sont trop simples et qui ne peuvent pas atténuer ces oscillations.
vLe sujet du deuxième article de cette thèse [Cuierrier, Roy et Ernzerhof, JCP (2021)]
est relié aux difficultés rencontrées durant le premier projet. L’apprentissage automatique
(ML) est devenu une méthode populaire dans tous les domaines de la science. Les réseaux de
neurones artificiels (NN) sont particulièrement puissants, puisqu’ils permettent un contrôle
et une flexibilité considérables lors de la construction de fonctions approximatives. Ainsi,
nous utilisons un NN pour modéliser le trou X à partir de contraintes physiques. Durant le
premier projet de cette thèse, nous avons observé qu’une fonction mathématique simple n’est
pas adaptée pour être combinée avec la densité non locale, les NN pourraient donc être un
outil utile pour approximer un trou X. Néanmoins, ce chapitre s’intéresse à la densité locale,
avant de s’attaquer à la non-localité. Les résultats que nous avons obtenus lors du calcul
des énergies X des atomes montrent le potentiel des NN pour construire automatiquement
des modèles du trou X. Une deuxième partie de l’article suggère qu’un NN permet d’ajouter
d’autres contraintes à des approximations du trou X déjà existantes, ce qui serait utile pour
améliorer CFX. Sans les NN, il est difficile de trouver une équation analytique pour accomplir
cette tâche. L’utilisation du ML est encore récente en DFT, mais ce projet a contribué à
montrer que les NN ont beaucoup d’avenir dans le domaine de la construction de trou XC.
Finalement, le dernier chapitre concerne un projet [Cuierrier, Roy, Wang, et Ernzerhof,
JCP (2022)] qui utilise aussi des NN en DFT. Des travaux précédents du groupe ont montré
que le terme de quatrième ordre du développement en série de puissances de la distance
interélectronique du trou X (Tσ (r)) [Wang, Zhou, et Ernzerhof, PRA (2017)] est un ingrédient
utile pour améliorer les approximations du calcul de l’énergie X pour les molécules. Cependant,
il n’a pas été possible de construire un modèle qui satisfait le deuxième et le quatrième
terme du développement en série de puissances simultanément. Ainsi, avec l’expertise
développée en apprentissage automatique lors du deuxième projet, le but de l’étude du troisième
article est d’utiliser Tσ (r) comme une variable d’entrée à un NN qui approxime l’énergie
X. Nous avons montré qu’en utilisant comme ingrédients la fonctionnelle de PBE, Tσ (r) et
un NN, il est possible de s’approcher de la qualité des résultats d’une fonctionnelle hybride
(PBEh) pour le calcul d’énergies d’atomisation, de barrières d’activation et de prédiction de
la densité électronique. Cette étude démontre que Tσ (r) contient de l’information utile pour
le développement de nouvelles fonctionnelles en DFT. Tσ (r) est en principe plus rapide à
calculer que l’échange exact, donc nos fonctionnelles pourraient s’approcher de l’exactitude
d’une fonctionnelle hybride, tout en étant plus rapides à calculer. / The subject of this thesis is the development of new approximations for the exchange-
correlation (XC) energy in Density Functional Theory (DFT).
DFT calculates the electronic energy from the electronic density, which is a considerably
simpler quantity than the wave function. DFT was developed during the 1960s and became
the most popular method in quantum chemistry during the 1990s, thanks to its favourable
cost/precision ratio. In practice, DFT is used by scientists and the industry to predict
infrared spectra, bond lengths, activation energies, etc. The Kohn-Sham approach in DFT
is by far the most popular, since it is exact in theory and only the XC functional has to be
be approximated. The exact form of the XC functional is unknown, thus the development
of new approximations for the XC functional is an important field of theoretical chemistry.
In this thesis, we will describe the development of new non-local methods and the use of
machine learning to improve the prediction and the efficiency of the calculation of XC energy.
The first article in this thesis [Cuierrier, Roy, and Ernzerhof, JCP (2021)] is about the
development of non-local approximations of the XC hole. Our research group previously
developed the correlation factor approach (CFX) [Pavlíková Přecechtělová, Bahmann, Kaupp, and
Ernzerhof, JCP (2015)]. The prediction of CFX for molecular properties compares favourably
to other common functionals. However, CFX suffers from one-electron self-interaction error
(SIE). Non-local models such as the X factor [Antaya, Zhou, and Ernzerhof, PRA (2014)]
can fix the SIE, thus the goal of this project is to combine CFX with the X factor to build a
non-local XC factor. We show that our method is exact for one-electron systems, however,
our simple XC factor is not appropriate for the oscillatory behaviour of the non-local density
and the results for molecules are inferior when compared to hybrid functionals. Our study
provides an explanation of why non-local models, such as the weighted density
approximation [Gunnarsson, Jonson, and Lundqvist, PLA (1976)], are not as successful as the common
DFT functionals (PBE, B3LYP, etc.) in chemistry. The non-local electronic density is an
elaborate function and often has a large number of local minima and maxima. The
development of functionals using simple XC factors does not lead to satisfying results for the
prediction of molecular energies. Therefore, a sophisticated XC factor that could attenuate
the oscillatory shape of the non-local density is required.
viiThe second article [Cuierrier, Roy, and Ernzerhof, JCP(2021)] addresses the difficulties
observed for the development of non-local functionals during the first project. Machine
learning (ML) is a useful technique that is gaining popularity in many fields of science, including
DFT. Neural networks (NN) are particularly powerful, since their structure allows
considerable flexibility to approximate functions. Thus, in this chapter, we use a NN to approximate
the X hole by considering many of its known physical and mathematical constraints during
the training of the NN. The results we obtain, for the calculation of energies of atoms using
the NN, reveal the potential of this method for the automation of the construction of X
holes. The second part of the paper shows that an NN can be used to add more constraints
to an existing X hole approximation, which would be quite useful to improve CFX. The X
hole obtained for a stretched H2 molecule is promising when compared to the exact values.
ML is still a new tool in DFT and our work shows that it has considerable potential for the
construction of XC hole approximations.
Finally, the last chapter [Cuierrier, Roy, Wang, and Ernzerhof, JCP (2022)] describes a
project that also uses NN. In a previous work by our group, it is shown that the fourth-order
term of the expansion of the X hole (Tσ (r)) could improve the calculation of the X energy for
molecules [Wang, Zhou, and Ernzerhof, PRA (2017)]. However, developing an equation that
satisfies both the second and fourth-order terms simultaneously proved difficult. Thus, using
the expertise in ML we developed during the second project, we build a new NN that uses
the fourth-order term of the expansion of the X hole as a new ingredient to approximate
the XC energy. Starting from the PBE functional, we trained a NN to reproduce the X
energy of the hybrid functional PBEh. Our results show that this approach is a considerable
improvement compared to PBE for the calculation of atomization energies, barrier heights
and the prediction of electronic density. This study confirms that the fourth-order term of
the expansion of the X hole does include useful information to build functionals in DFT.
Since the calculation of the fourth-order term has a more favourable computational scaling
compared to the exact exchange energy, our new functionals could lead to faster calculations
in DFT.
|
390 |
Modélisation, simulation et analyse des dynamiques spatiales des zones humides urbaines par automate cellulaire : une étude de cas à la ville de Bogota, ColombieCuellar Roncancio, Yenny Andrea 08 1900 (has links)
Les zones humides sont écosystèmes reconnus de vitale importance pour la conservation de la biodiversité et pour un développement soutenable. En Colombie, 26 % du territoire continental national est couvert de ces écosystèmes. Le complexe de zones humides urbaines de Bogota, en fait partie, avec 15 écosystèmes, dont la Convention Ramsar reconnaît 11. Ils sont uniques et jouent un rôle important dans l’approvisionnement des services écosystèmes à la zone urbaine. Cependant, ces écosystèmes urbains font face à de nombreux défis en raison de leur emplacement. Les causes et les conséquences de leur transformation sont très complexes. En appliquant des approches des systèmes complexes, sa dynamique de changement peut être étudiée. Les automates cellulaires sont l’une des techniques largement utilisées dans la modélisation de la dynamique spatiotemporelle des changements de l’usage et de l’occupation des sols. Cette étude propose l’analyse et la simulation des zones humides urbaines en appliquant une approche hybride par un modèle couplé de chaîne de Markov, de réseaux de neurones artificiels et d’automates cellulaires, afin d’estimer leurs changements d’étendue pour les années 2016, 2022, 2028 et 2034 dans la ville de Bogota, en Colombie. Pour extraire le changement d’occupation et d’utilisation du sol, trois images analogues des années 1998, 2004 et 2010 ont été a utilisées. Les résultats ont montré une diminution de 0,30 % de la couverture des zones humides en douze ans. De plus, les résultats suggèrent que la couverture des zones humides représentera 1,97 % de la zone d’étude totale en 2034, représentant une probabilité de diminution de 14 % en 24 ans. D’ailleurs, en appliquant l’analyse d’intensité, il a été constaté que le gain de cultures et de pâturages cible la perte de zones humides. Bien dont ces écosystèmes soient protégés et d’utilisation restreinte, leur patron de réduction se poursuivra en 2034. La pertinence de ce projet réside dans sa contribution potentielle au processus décisionnel au sein de la ville et en tant qu’instrument de gestion des ressources naturelles. En outre, les résultats de cette étude pourraient aider à atteindre l’objectif de développement durable 6 « Eau propre et assainissement » et l’atténuation du changement climatique. / Wetlands are ecosystems recognized as being of vital importance for the conservation of biodiversity and for sustainable development. In Colombia, 26% of the national continental territory is covered by these ecosystems. The complex of urban wetlands of Bogota is one of them, with 15 ecosystems, of which the Ramsar Convention recognizes 11. They are unique and play an important role in providing ecosystem services to the urban area. However, these urban ecosystems face many challenges due to their location. The causes and consequences of their transformation are very complex. By applying complex systems approaches, the dynamics of change can be studied. Cellular automata is one of the widely used techniques in modeling the spatiotemporal dynamics of land use and land cover changes. This study proposes the analysis and simulation of urban wetlands by applying a hybrid approach through a coupled model of the Markov chain, artificial neural networks, and cellular automata, in order to estimate the extent of changes for the years 2016, 2022, 2028, and 2034 in the city of Bogota, Colombia. To extract the change in land cover and land use, three analogous images from the years 1998, 2004, and 2010 were used. The results showed a 0.30% decrease in wetland coverage in twelve years. Furthermore, the results suggest that wetland cover will be 1.97% of the total study area in 2034, representing a 14% probability of a decrease in 24 years. Moreover, by applying the intensity analysis, it was found that the gain of crop and pastureland targets the loss of wetlands. Although these ecosystems are protected and of limited use, their pattern of reduction will continue in 2034. The relevance of this project lies in its potential contribution to decision-making within the city and as a natural resource management tool. In addition, the results of this study could help achieve Sustainable Development Goal 6 “Clean Water and Sanitation” and climate change mitigation.
|
Page generated in 0.1825 seconds