Spelling suggestions: "subject:"Rébeaux neuronaux"" "subject:"Rébeaux peronaux""
61 |
Typologie et analyse hydrologique des eaux superficielles à partir de quelques bassins versants représentatifs du MarocRiad, Souad Mania, Jacky. Bouchaou, Lhoussaine January 2003 (has links) (PDF)
Thèse doctorat : Génie civil : Lille 1 : 2003. Thèse doctorat : Génie civil : Université Ibnou Zohr d'Agadir : 2003. / Thèse en cotutelle. N° d'ordre (Lille 1) : 3434. Résumé en français et en anglais. Bibliogr. p. 128-139.
|
62 |
Modelling interaction of land use, urbanization and hydrological factors for the analysis of groundwater quality in mediterranean zone (example the Gaza Strip, Palestine)Almahallawi, Khamis Mania, Jacky. January 2007 (has links)
Reproduction de : Thèse de doctorat : Génie civil : Lille 1 : 2005. / Texte et résumé en anglais. Curriculum vitae. Titre provenant de la page de titre du document numérisé. Bibliogr. f. 192-203.
|
63 |
Characterizing the multi-criteria parameters of integrated water management model in the semi-arid Mediterranean Region application to Gaza Strip as a case study /Jalala, Said Mania, Jacky. January 2007 (has links)
Reproduction de : Thèse de doctorat : Génie civil : Lille 1 : 2005. / N° d'ordre (Lille 1) : 3599. Texte en anglais. Résumé en anglais. Curriculum vitae. Titre provenant de la page de titre du document numérisé. Bibliogr. f. 180-193.
|
64 |
Analyse et conception d'un réseau de neurones formels pour le filtrage d'un signal dynamique /Ennaji, Moulay Abderrahim. January 1992 (has links)
Mémoire (M.Eng.)-- Université du Québec à Chicoutimi, 1992. / Résumé disponible sur Internet. CaQCU Bibliogr.: f. 142-150. Document électronique également accessible en format PDF. CaQCU
|
65 |
Étude de l'impact d'une pollution accidentelle et d'une pollution agricole sur les ressources en eau souterraineTabach, Eddy El Shahrour, Isam. Lancelot, Laurent. January 2007 (has links)
Reproduction de : Thèse de doctorat : Génie civil : Lille 1 : 2005. / N° d'ordre (Lille 1) : 3632. Résumé en français et en anglais. Titre provenant de la page de titre du document numérisé. Bibliogr. p. 160-175.
|
66 |
Deep neural networks for natural language processing and its accelerationLin, Zhouhan 08 1900 (has links)
Cette thèse par article comprend quatre articles qui contribuent au domaine de l'apprentissage profond, en particulier à l'accélération de l’apprentissage par le biais de réseaux à faible précision et à l'application de réseaux de neurones profonds au traitement du langage naturel.
Dans le premier article, nous étudions un schéma d’entraînement de réseau de neurones qui élimine la plupart des multiplications en virgule flottante. Cette approche consiste à binariser ou à ternariser les poids dans la propagation en avant et à quantifier les états cachés dans la propagation arrière, ce qui convertit les multiplications en changements de signe et en décalages binaires. Les résultats expérimentaux sur des jeux de données de petite à moyenne taille montrent que cette approche produit des performances encore meilleures que l’approche standard de descente de gradient stochastique, ouvrant la voie à un entraînement des réseaux de neurones rapide et efficace au niveau du matériel.
Dans le deuxième article, nous avons proposé un mécanisme structuré d’auto-attention d’enchâssement de phrases qui extrait des représentations interprétables de phrases sous forme matricielle. Nous démontrons des améliorations dans 3 tâches différentes: le profilage de l'auteur, la classification des sentiments et l'implication textuelle. Les résultats expérimentaux montrent que notre modèle génère un gain en performance significatif par rapport aux autres méthodes d’enchâssement de phrases dans les 3 tâches.
Dans le troisième article, nous proposons un modèle hiérarchique avec graphe de calcul dynamique, pour les données séquentielles, qui apprend à construire un arbre lors de la lecture de la séquence. Le modèle apprend à créer des connexions de saut adaptatives, ce qui facilitent l'apprentissage des dépendances à long terme en construisant des cellules récurrentes de manière récursive. L’entraînement du réseau peut être fait soit par entraînement supervisée en donnant des structures d’arbres dorés, soit par apprentissage par renforcement. Nous proposons des expériences préliminaires dans 3 tâches différentes: une nouvelle tâche d'évaluation de l'expression mathématique (MEE), une tâche bien connue de la logique propositionnelle et des tâches de modélisation du langage. Les résultats expérimentaux montrent le potentiel de l'approche proposée.
Dans le quatrième article, nous proposons une nouvelle méthode d’analyse par circonscription utilisant les réseaux de neurones. Le modèle prédit la structure de l'arbre d'analyse en prédisant un scalaire à valeur réelle, soit la distance syntaxique, pour chaque position de division dans la phrase d'entrée. L'ordre des valeurs relatives de ces distances syntaxiques détermine ensuite la structure de l'arbre d'analyse en spécifiant l'ordre dans lequel les points de division seront sélectionnés, en partitionnant l'entrée de manière récursive et descendante. L’approche proposée obtient une performance compétitive sur le jeu de données Penn Treebank et réalise l’état de l’art sur le jeu de données Chinese Treebank. / This thesis by article consists of four articles which contribute to the field of deep learning, specifically in the acceleration of training through low-precision networks, and the application of deep neural networks on natural language processing.
In the first article, we investigate a neural network training scheme that eliminates most of the floating-point multiplications. This approach consists of binarizing or ternarizing the weights in the forward propagation and quantizing the hidden states in the backward propagation, which converts multiplications to sign changes and binary shifts. Experimental results on datasets from small to medium size show that this approach result in even better performance than standard stochastic gradient descent training, paving the way to fast, hardware-friendly training of neural networks.
In the second article, we proposed a structured self-attentive sentence embedding that extracts interpretable sentence representations in matrix form. We demonstrate improvements on 3 different tasks: author profiling, sentiment classification and textual entailment. Experimental results show that our model yields a significant performance gain compared to other sentence embedding methods in all of the 3 tasks.
In the third article, we propose a hierarchical model with dynamical computation graph for sequential data that learns to construct a tree while reading the sequence. The model learns to create adaptive skip-connections that ease the learning of long-term dependencies through constructing recurrent cells in a recursive manner. The training of the network can either be supervised training by giving golden tree structures, or through reinforcement learning. We provide preliminary experiments in 3 different tasks: a novel Math Expression Evaluation (MEE) task, a well-known propositional logic task, and language modelling tasks. Experimental results show the potential of the proposed approach.
In the fourth article, we propose a novel constituency parsing method with neural networks. The model predicts the parse tree structure by predicting a real valued scalar, named syntactic distance, for each split position in the input sentence. The order of the relative values of these syntactic distances then determine the parse tree structure by specifying the order in which the split points will be selected, recursively partitioning the input, in a top-down fashion. Our proposed approach was demonstrated with competitive performance on Penn Treebank dataset, and the state-of-the-art performance on Chinese Treebank dataset.
|
Page generated in 0.0583 seconds