• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 165
  • 66
  • 18
  • 18
  • 11
  • 5
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 371
  • 87
  • 58
  • 58
  • 48
  • 40
  • 36
  • 35
  • 31
  • 30
  • 30
  • 29
  • 28
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Baḥt fī al-ṣuʻūbāt al-tīyah tawājahhān ṭalāb al-lugat al-ʻArabīyat bi-al-ṣaff al-khāmis al-thānawī fī jumhūrīya Maurīshīwas / An investigation into the difficulties faced by students of Arabic language at school certificate level in the Republic of Mauritius

Nazīr, ʻAbdu al-Ṣammad 03 January 2013 (has links)
Based on the examiners’ reports of the University of Cambridge on the shortcomings of the students of form V (school certificate level) in Arabic language in the international examinations of year 2008 and 2009 and on the proposals and recommendations therein, the researcher started this research work to address the difficulties faced by students in Arabic language in the grammatical rules when writing essays and in translation from Arabic to English and vice versa in form V (school certificate level) and chose Doha Academy (secondary department) in Mauritius as model. The research work in fact confirmed the errors of students in the grammatical rules after analyzing the examination scripts of the mock examinations run at the school during the year 2009 and 2010 and the researcher came to know about the causes of errors which were also confirmed by means of a questionnaire distributed to the students at this level. The researcher’s interviews with the male and female teachers of Arabic language at School certificate level on the issue were of great benefits and they in fact made mention of the grammatical errors which the researcher came across in the mock examinations’ scripts after close study and analysis. The researcher also considered the importance of the contrastive analysis between Arabic and English due to its effect in learning Arabic as a second language. ط After analysis of the questionnaire and interviews, the researcher came across a number of important issues which he mentioned in details among the results which he concluded. The researcher concluded that most of the errors in grammar are due to the influence of the English language on the Arabic language through linguistic interference, transfer of experience, generalization, as well as errors related to the target language itself like hypercorrection and intralingual phenomenon etc. And that the errors found in translation are caused mainly because of lack of Arabic vocabularies as well as literal translation and a lack of fluency and confidence in using Arabic structures and grammar. Finally, the researcher mentioned a number of recommendations and suggestions which he considers to be a priority and should be executed if we really wish to eliminate difficulties and problems in the process of teaching and learning of the Arabic language at this level and to see the progress of this language in this island. / على (university of Cambridge) بناء على ما قدمّت جامعة كمبرج قصور الطلبة في اللغة العربية في امتحانات كمبرج الدولية للصف الخامس الثانوية للعامين 8002 8002 م، ومن اقتراحات وتوصيات انطلق الباحث في هذا البحث ليتناول الصعوبات التي – يواجهها طلاب اللغة العربية فيما يتعلق بالقواعد عند كتابة المقالات وفي الترجمة من العربية إلى الانجليزية والعكس وذلك في الصف الخامس الثانوي في جمهورية موريشيوس م اختيار أكاديمية الدوحة في موريشيوس نموذجا. لقد أشار البحث فعلا إلى أخطاء الطلاب والطالبات بعد تحليل أوراق إجابات لامتحانين 8000 م كما - في اللغة العربية أُجرِيا في الأكاديمية في العامين 8002 (mock exams) تجريبيين تعرّف الباحث على أسباب الأخطاء التي أكّدها الاستبيان الموزّع على طلاب هذا المستوى. وكانت لمقابلات الباحث م مدرسي ومدرسات هذا المستوى حول القضية ثمراتها حيث أكّدت كذلك ما وجدها الباحث من الأخطاء في النحو والصرف في أوراق إجابات الأمتحان بعد الدراسة والتحليل. رأى الباحث كذلك أهمية التحليل التقابلي بين العربية والانجليزية لتأثير هذه الأخيرة في تعلّم الطلبة اللغة العربية كلغة ثانية. بعد تحليل الاستبيان والمقابلات وصل الباحث إلى عدد من القضايا المهمة وذكرها بالتفصيل في النتائج في آخر البحث. وصل الباحث إلى أن اكثر الأخطاء ترج إلى تأثير اللغة الانجليزية على اللغة العربية تتمثل في التداخل اللغوي ونقل الخبرة والتعميم السلبي كما أن هناك أخطاء تتعلق باللغة اهمدف كالمبالغة في التصويب وتداخل اللغة نفسها. وترج الأخطاء في الترجمة أساسا إلى النقص في المفردات العربية، فضلا عن الترجمة الحرفية وعدم الطلاقة والثقة في استخدام التراكيب العربية والتدقيق النحوي. وأخيرا ذكر الباحث عددا من التوصيات والاقتراحات التي يعتبرها من الأولويات والضروريات ا ولتي يوصي بتنفيذها إذا أُريد بالفعل القضاء على الصعوبات والمشكلات في تعليم اللغة العربية وتعلمه وتقدم هذه اللغة في هذه الجزيرة. / Religious Sudies and Arabic / D.Litt. et Phil. (Arabic)
362

Algoritmo para a extração incremental de sequências relevantes com janelamento e pós-processamento aplicado a dados hidrográficos

Silveira Junior, Carlos Roberto 07 June 2013 (has links)
Made available in DSpace on 2016-06-02T19:06:09Z (GMT). No. of bitstreams: 1 5554.pdf: 2294386 bytes, checksum: ce6dc6cd7128337c0533ddd23c0bc601 (MD5) Previous issue date: 2013-06-07 / The mining of sequential patterns in data from environmental sensors is a challenging task: the data may show noise and may also contain sparse patterns that are difficult to detect. The knowledge extracted from environmental sensor data can be used to determine climate change, for example. However, there is a lack of methods that can handle this type of database. In order to reduce this gap, the algorithm Incremental Miner of Stretchy Time Sequences with Post-Processing (IncMSTS-PP) was proposed. The IncMSTS-PP applies incremental extraction of sequential patterns with post-processing based on ontology for the generalization of the patterns. The post-processing makes the patterns semantically richer. Generalized patterns synthesize the information and makes it easier to be interpreted. IncMSTS-PP implements the Stretchy Time Window (STW) that allows stretchy time patterns (patterns with temporal intervals) are mined from bases that have noises. In comparison with GSP algorithm, IncMSTS-PP can return 2.3 times more patterns and patterns with 5 times more itemsets. The post-processing module is responsible for the reduction in 22.47% of the number of patterns presented to the user, but the returned patterns are semantically richer. Thus, the IncMSTS-PP showed good performance and mined relevant patterns showing, that way, that IncMSTS-PP is effective, efficient and appropriate for domain of environmental sensor data. / A mineração de padrões sequenciais em dados de sensores ambientais é uma tarefa desafiadora: os dados podem apresentar ruídos e podem, também, conter padrões esparsos que são difíceis de serem detectados. O conhecimento extraído de dados de sensores ambientais pode ser usado para determinar mudanças climáticas, por exemplo. Entretanto, há uma lacuna de métodos que podem lidar com este tipo de banco de dados. Com o intuito de diminuir esta lacuna, o algoritmo Incremental Miner of Stretchy Time Sequences with Post- Processing (IncMSTS-PP) foi proposto. O IncMSTS-PP aplica a extração incremental de padrões sequencias com pós-processamento baseado em ontologia para a generalização dos padrões obtidos que acarreta o enriquecimento semântico desses padrões. Padrões generalizados sintetizam a informação e a torna mais fácil de ser interpretada. IncMSTS-PP implementa o método Stretchy Time Window (STW) que permite que padrões de tempo elástico (padrões com intervalos temporais) sejam extraídos em bases que apresentam ruídos. Em comparação com o algoritmo GSP, o IncMSTS-PP pode retornar 2,3 vezes mais sequencias e sequencias com 5 vezes mais itemsets. O módulo de pós-processamento é responsável pela redução em 22,47% do número de padrões apresentados ao usuário, porém os padrões retornados são semanticamente mais ricos, se comparados aos padrões não generalizados. Assim sendo, o IncMSTS-PP apresentou bons resultados de desempenho e minerou padrões relevantes mostrando, assim, que IncMSTS-PP é eficaz, eficiente e apropriado em domínio de dados de sensores ambientais.
363

Strukturované multisystémy a multiautomaty indukované časovými procesy / Structured Multisystems and Multiautomata Induced by Times Processes

Křehlík, Štěpán January 2015 (has links)
In the thesis we discuss binary hyperstructures of linear differential operators of the second order both in general and (inspired by models of specific time processes) in a special case of the Jacobi form. We also study binary hyperstructures constructed from distributive lattices and suggest transfer of this construction to n-ary hyperstructures. We use these hyperstructures to construct multiautomata and quasi-multiautomata. The input sets of all these automata structures are constructed so that the transfer of information for certain specific modeling time functions is facilitated. For this reason we use smooth positive functions or vectors components of which are real numbers or smooth positive functions. The above hyperstructures are state-sets of these automata structures. Finally, we investigate various types of compositions of the above multiautomata and quasi-multiautomata. In order to this we have to generalize the classical definitions of Dörfler. While some of the concepts can be transferred to the hyperstructure context rather easily, in the case of Cartesian composition the attempt to generalize it leads to some interesting results.
364

Large state spaces and self-supervision in reinforcement learning

Touati, Ahmed 08 1900 (has links)
L'apprentissage par renforcement (RL) est un paradigme d'apprentissage orienté agent qui s'intéresse à l'apprentissage en interagissant avec un environnement incertain. Combiné à des réseaux de neurones profonds comme approximateur de fonction, l'apprentissage par renforcement profond (Deep RL) nous a permis récemment de nous attaquer à des tâches très complexes et de permettre à des agents artificiels de maîtriser des jeux classiques comme le Go, de jouer à des jeux vidéo à partir de pixels et de résoudre des tâches de contrôle robotique. Toutefois, un examen plus approfondi de ces remarquables succès empiriques révèle certaines limites fondamentales. Tout d'abord, il a été difficile de combiner les caractéristiques souhaitables des algorithmes RL, telles que l'apprentissage hors politique et en plusieurs étapes, et l'approximation de fonctions, de manière à obtenir des algorithmes stables et efficaces dans de grands espaces d'états. De plus, les algorithmes RL profonds ont tendance à être très inefficaces en raison des stratégies d'exploration-exploitation rudimentaires que ces approches emploient. Enfin, ils nécessitent une énorme quantité de données supervisées et finissent par produire un agent étroit capable de résoudre uniquement la tâche sur laquelle il est entrainé. Dans cette thèse, nous proposons de nouvelles solutions aux problèmes de l'apprentissage hors politique et du dilemme exploration-exploitation dans les grands espaces d'états, ainsi que de l'auto-supervision dans la RL. En ce qui concerne l'apprentissage hors politique, nous apportons deux contributions. Tout d'abord, pour le problème de l'évaluation des politiques, nous montrons que la combinaison des méthodes populaires d'apprentissage hors politique et à plusieurs étapes avec une paramétrisation linéaire de la fonction de valeur pourrait conduire à une instabilité indésirable, et nous dérivons une variante de ces méthodes dont la convergence est prouvée. Deuxièmement, pour l'optimisation des politiques, nous proposons de stabiliser l'étape d'amélioration des politiques par une régularisation de divergence hors politique qui contraint les distributions stationnaires d'états induites par des politiques consécutives à être proches les unes des autres. Ensuite, nous étudions l'apprentissage en ligne dans de grands espaces d'états et nous nous concentrons sur deux hypothèses structurelles pour rendre le problème traitable : les environnements lisses et linéaires. Pour les environnements lisses, nous proposons un algorithme en ligne efficace qui apprend activement un partitionnement adaptatif de l'espace commun en zoomant sur les régions les plus prometteuses et fréquemment visitées. Pour les environnements linéaires, nous étudions un cadre plus réaliste, où l'environnement peut maintenant évoluer dynamiquement et même de façon antagoniste au fil du temps, mais le changement total est toujours limité. Pour traiter ce cadre, nous proposons un algorithme en ligne efficace basé sur l'itération de valeur des moindres carrés pondérés. Il utilise des poids exponentiels pour oublier doucement les données qui sont loin dans le passé, ce qui pousse l'agent à continuer à explorer pour découvrir les changements. Enfin, au-delà du cadre classique du RL, nous considérons un agent qui interagit avec son environnement sans signal de récompense. Nous proposons d'apprendre une paire de représentations qui mettent en correspondance les paires état-action avec un certain espace latent. Pendant la phase non supervisée, ces représentations sont entraînées en utilisant des interactions sans récompense pour encoder les relations à longue portée entre les états et les actions, via une carte d'occupation prédictive. Au moment du test, lorsqu'une fonction de récompense est révélée, nous montrons que la politique optimale pour cette récompense est directement obtenue à partir de ces représentations, sans aucune planification. Il s'agit d'une étape vers la construction d'agents entièrement contrôlables. Un thème commun de la thèse est la conception d'algorithmes RL prouvables et généralisables. Dans la première et la deuxième partie, nous traitons de la généralisation dans les grands espaces d'états, soit par approximation de fonctions linéaires, soit par agrégation d'états. Dans la dernière partie, nous nous concentrons sur la généralisation sur les fonctions de récompense et nous proposons un cadre d'apprentissage non-supervisé de représentation qui est capable d'optimiser toutes les fonctions de récompense. / Reinforcement Learning (RL) is an agent-oriented learning paradigm concerned with learning by interacting with an uncertain environment. Combined with deep neural networks as function approximators, deep reinforcement learning (Deep RL) allowed recently to tackle highly complex tasks and enable artificial agents to master classic games like Go, play video games from pixels, and solve robotic control tasks. However, a closer look at these remarkable empirical successes reveals some fundamental limitations. First, it has been challenging to combine desirable features of RL algorithms, such as off-policy and multi-step learning with function approximation in a way that leads to both stable and efficient algorithms in large state spaces. Moreover, Deep RL algorithms tend to be very sample inefficient due to the rudimentary exploration-exploitation strategies these approaches employ. Finally, they require an enormous amount of supervised data and end up producing a narrow agent able to solve only the task that it was trained on. In this thesis, we propose novel solutions to the problems of off-policy learning and exploration-exploitation dilemma in large state spaces, as well as self-supervision in RL. On the topic of off-policy learning, we provide two contributions. First, for the problem of policy evaluation, we show that combining popular off-policy and multi-step learning methods with linear value function parameterization could lead to undesirable instability, and we derive a provably convergent variant of these methods. Second, for policy optimization, we propose to stabilize the policy improvement step through an off-policy divergence regularization that constrains the discounted state-action visitation induced by consecutive policies to be close to one another. Next, we study online learning in large state spaces and we focus on two structural assumptions to make the problem tractable: smooth and linear environments. For smooth environments, we propose an efficient online algorithm that actively learns an adaptive partitioning of the joint space by zooming in on more promising and frequently visited regions. For linear environments, we study a more realistic setting, where the environment is now allowed to evolve dynamically and even adversarially over time, but the total change is still bounded. To address this setting, we propose an efficient online algorithm based on weighted least squares value iteration. It uses exponential weights to smoothly forget data that are far in the past, which drives the agent to keep exploring to discover changes. Finally, beyond the classical RL setting, we consider an agent interacting with its environments without a reward signal. We propose to learn a pair of representations that map state-action pairs to some latent space. During the unsupervised phase, these representations are trained using reward-free interactions to encode long-range relationships between states and actions, via a predictive occupancy map. At test time, once a reward function is revealed, we show that the optimal policy for that reward is directly obtained from these representations, with no planning. This is a step towards building fully controllable agents. A common theme in the thesis is the design of provable RL algorithms that generalize. In the first and the second part, we deal with generalization in large state spaces either by linear function approximation or state aggregation. In the last part, we focus on generalization over reward functions and we propose a task-agnostic representation learning framework that is provably able to solve all reward functions.
365

On sample efficiency and systematic generalization of grounded language understanding with deep learning

Bahdanau, Dzmitry 01 1900 (has links)
En utilisant la méthodologie de l'apprentissage profond qui préconise de s'appuyer davantage sur des données et des modèles neuronaux flexibles plutôt que sur les connaissances de l'expert dans le domaine, la communauté de recherche a récemment réalisé des progrès remarquables dans la compréhension et la génération du langue naturel. Néanmoins, il reste difficile de savoir si une simple extension des méthodes d'apprentissage profond existantes sera suffisante pour atteindre l'objectif d'utiliser le langage naturel pour l'interaction homme-machine. Nous nous concentrons sur deux aspects connexes dans lesquels les méthodes actuelles semblent nécessiter des améliorations majeures. Le premier de ces aspects est l'inefficacité statistique des systèmes d'apprentissage profond: ils sont connus pour nécessiter de grandes quantités de données pour bien fonctionner. Le deuxième aspect est leur capacité limitée à généraliser systématiquement, à savoir à comprendre le langage dans des situations où la distribution des données change mais les principes de syntaxe et de sémantique restent les mêmes. Dans cette thèse, nous présentons quatre études de cas dans lesquelles nous cherchons à apporter plus de clarté concernant l'efficacité statistique susmentionnée et les aspects de généralisation systématique des approches d'apprentissage profond de la compréhension des langues, ainsi qu'à faciliter la poursuite des travaux sur ces sujets. Afin de séparer le problème de la représentation des connaissances du monde réel du problème de l'apprentissage d'une langue, nous menons toutes ces études en utilisant des langages synthétiques ancrés dans des environnements visuels simples. Dans le premier article, nous étudions comment former les agents à suivre des instructions compositionnelles dans des environnements avec une forme de supervision restreinte. À savoir pour chaque instruction et configuration initiale de l'environnement, nous ne fournissons qu'un état cible au lieu d'une trajectoire complète avec des actions à toutes les étapes. Nous adaptons les méthodes d'apprentissage adversariel par imitation à ce paramètre et démontrons qu'une telle forme restreinte de données est suffisante pour apprendre les significations compositionelles des instructions. Notre deuxième article se concentre également sur des agents qui apprennent à exécuter des instructions. Nous développons la plateforme BabyAI pour faciliter des études plus approfondies et plus rigoureuses de ce cadre d'apprentissage. La plateforme fournit une langue BabyAI compositionnelle avec $10 ^ {19}$ instructions, dont la sémantique est précisément définie dans un environnement partiellement observable. Nous rapportons des résultats de référence sur la quantité de supervision nécessaire pour enseigner à l'agent certains sous-ensembles de la langue BabyAI avec différentes méthodes de formation, telles que l'apprentissage par renforcement et l'apprentissage par imitation. Dans le troisième article, nous étudions la généralisation systématique des modèles de réponse visuelle aux questions (VQA). Dans le scénario VQA, le système doit répondre aux questions compositionelles sur les images. Nous construisons un ensemble de données de questions spatiales sur les paires d'objets et évaluons la performance des différents modèles sur les questions concernant les paires d'objets qui ne se sont jamais produites dans la même question dans la distribution d'entraînement. Nous montrons que les modèles dans lesquels les significations des mots sont représentés par des modules séparés qui effectuent des calculs indépendants généralisent beaucoup mieux que les modèles dont la conception n'est pas explicitement modulaire. Cependant, les modèles modulaires ne généralisent bien que lorsque les modules sont connectés dans une disposition appropriée, et nos expériences mettent en évidence les défis de l'apprentissage de la disposition par un apprentissage de bout en bout sur la distribution d'entraînement. Dans notre quatrième et dernier article, nous étudions également la généralisation des modèles VQA à des questions en dehors de la distribution d'entraînement, mais cette fois en utilisant le jeu de données CLEVR, utilisé pour les questions complexes sur des scènes rendues en 3D. Nous générons de nouvelles questions de type CLEVR en utilisant des références basées sur la similitude (par exemple `` la balle qui a la même couleur que ... '') dans des contextes qui se produisent dans les questions CLEVR mais uniquement avec des références basées sur la localisation (par exemple `` le balle qui est à gauche de ... ''). Nous analysons la généralisation avec zéro ou quelques exemples de CLOSURE après un entraînement sur CLEVR pour un certain nombre de modèles existants ainsi qu'un nouveau modèle. / By using the methodology of deep learning that advocates relying more on data and flexible neural models rather than on the expert's knowledge of the domain, the research community has recently achieved remarkable progress in natural language understanding and generation. Nevertheless, it remains unclear whether simply scaling up existing deep learning methods will be sufficient to achieve the goal of using natural language for human-computer interaction. We focus on two related aspects in which current methods appear to require major improvements. The first such aspect is the data inefficiency of deep learning systems: they are known to require extreme amounts of data to perform well. The second aspect is their limited ability to generalize systematically, namely to understand language in situations when the data distribution changes yet the principles of syntax and semantics remain the same. In this thesis, we present four case studies in which we seek to provide more clarity regarding the aforementioned data efficiency and systematic generalization aspects of deep learning approaches to language understanding, as well as to facilitate further work on these topics. In order to separate the problem of representing open-ended real-world knowledge from the problem of core language learning, we conduct all these studies using synthetic languages that are grounded in simple visual environments. In the first article, we study how to train agents to follow compositional instructions in environments with a restricted form of supervision. Namely for every instruction and initial environment configuration we only provide a goal-state instead of a complete trajectory with actions at all steps. We adapt adversarial imitation learning methods to this setting and demonstrate that such a restricted form of data is sufficient to learn compositional meanings of the instructions. Our second article also focuses on instruction following. We develop the BabyAI platform to facilitate further, more extensive and rigorous studies of this setup. The platform features a compositional Baby language with $10^{19}$ instructions, whose semantics is precisely defined in a partially-observable gridworld environment. We report baseline results on how much supervision is required to teach the agent certain subsets of Baby language with different training methods, such as reinforcement learning and imitation learning. In the third article we study systematic generalization of visual question answering (VQA) models. In the VQA setting the system must answer compositional questions about images. We construct a dataset of spatial questions about object pairs and evaluate how well different models perform on questions about pairs of objects that never occured in the same question in the training distribution. We show that models in which word meanings are represented by separate modules that perform independent computation generalize much better than models whose design is not explicitly modular. The modular models, however, generalize well only when the modules are connected in an appropriate layout, and our experiments highlight the challenges of learning the layout by end-to-end learning on the training distribution. In our fourth and final article we also study generalization of VQA models to questions outside of the training distribution, but this time using the popular CLEVR dataset of complex questions about 3D-rendered scenes as the platform. We generate novel CLEVR-like questions by using similarity-based references (e.g. ``the ball that has the same color as ...'') in contexts that occur in CLEVR questions but only with location-based references (e.g. ``the ball that is to the left of ...''). We analyze zero- and few- shot generalization to CLOSURE after training on CLEVR for a number of existing models as well as a novel one.
366

PatchUp : a feature-space block-level regularization technique for convolutional neural networks

Faramarzi, Mojtaba 07 1900 (has links)
Les modèles d’apprentissage profond à large capacité ont souvent tendance à présenter de hauts écarts de généralisation lorsqu’ils sont entrainés avec une quantité limitée de données étiquetées. Dans ce cas, des réseaux de neurones très profonds et larges auront tendance à mémoriser les échantillons de données et donc ils risquent d’être vulnérables lors d’un léger décalage dans la distribution des données au moment de tester. Ce problème produit une généralisation pauvre lors de changements dans la répartition des données au moment du test. Pour surmonter ce problème, certaines méthodes basées sur la dépendance et l’indépendance de données ont été proposées. Une récente classe de méthodes efficaces pour aborder ce problème utilise plusieurs manières de contruire un nouvel échantillon d’entrainement, en mixant une paire (ou plusieurs) échantillons d’entrainement. Dans cette thèse, nous introduisons PatchUp, une régularisation de l’espace des caractéristiques au niveau des blocs dépendant des données qui opère dans l’espace caché en masquant des blocs contigus parmi les caractéristiques mappées, sélectionnés parmi une paire aléatoire d’échantillons, puis en mixant (Soft PatchUp) ou en échangeant (Hard PatchUp) les blocs contigus sélectionnés. Notre méthode de régularisation n’ajoute pas de surcharge de calcul significative au CNN pendant l’entrainement du modèle. Notre approche améliore la robustesse des modèles CNN face au problème d’intrusion du collecteur qui pourrait apparaitre dans d’autres approches de mixage telles que Mixup et CutMix. De plus, vu que nous mixons des blocs contigus de caractéristiques dans l’espace caché, qui a plus de dimensions que l’espace d’entrée, nous obtenons des échantillons plus diversifiés pour entrainer vers différentes dimensions. Nos expériences sur les ensembles de données CIFAR-10, CIFAR-100, SVHN et Tiny-ImageNet avec des architectures ResNet telles que PreActResnet18, PreActResnet34, WideResnet-28-10, ResNet101 et ResNet152 montrent que PatchUp dépasse ou égalise les performances de méthodes de régularisation pour CNN considérée comme état de l’art actuel. Nous montrons aussi que PatchUp peut fournir une meilleure généralisation pour des transformations affines d’échantillons et est plus robuste face à des attaques d’exemples contradictoires. PatchUp aide aussi les modèles CNN à produire une plus grande variété de caractéristiques dans les blocs résiduels en comparaison avec les méthodes de pointe de régularisation pour CNN telles que Mixup, Cutout, CutMix, ManifoldMixup et Puzzle Mix. Mots clés: Apprentissage en profondeur, Réseau Neuronal Convolutif, Généralisation,Régularisation, Techniques de régularisation dépendantes et indépendantes des données, Robustesse aux attaques adverses. / Large capacity deep learning models are often prone to a high generalization gap when trained with a limited amount of labeled training data. And, in this case, very deep and wide networks have a tendency to memorize the samples, and therefore they might be vulnerable under a slight distribution shift at testing time. This problem yields poor generalization for data outside of the training data distribution. To overcome this issue some data-dependent and data-independent methods have been proposed. A recent class of successful methods to address this problem uses various ways to construct a new training sample by mixing a pair (or more) of training samples. In this thesis, we introduce PatchUp, a feature-space block-level data-dependent regularization that operates in the hidden space by masking out contiguous blocks of the feature map of a random pair of samples, and then either mixes (Soft PatchUp) or swaps (Hard PatchUp) these selected contiguous blocks. Our regularization method does not incur significant computational overhead for CNNs during training. Our approach improves the robustness of CNN models against the manifold intrusion problem that may occur in other state-of-the-art mixing approaches like Mixup and CutMix. Moreover, since we are mixing the contiguous block of features in the hidden space, which has more dimensions than the input space, we obtain more diverse samples for training towards different dimensions. Our experiments on CIFAR-10, CIFAR-100, SVHN, and Tiny-ImageNet datasets using ResNet architectures including PreActResnet18, PreActResnet34, WideResnet-28-10, ResNet101, and ResNet152 models show that PatchUp improves upon, or equals, the performance of current state-of-the-art regularizers for CNNs. We also show that PatchUp can provide a better generalization to affine transformations of samples and is more robust against adversarial attacks. PatchUp also helps a CNN model to produce a wider variety of features in the residual blocks compared to other state-of-the-art regularization methods for CNNs such as Mixup, Cutout, CutMix, ManifoldMixup, and Puzzle Mix. Key words: Deep Learning, Convolutional Neural Network, Generalization, Regular-ization, Data-dependent and Data-independent Regularization Techniques, Robustness to Adversarial Attacks.
367

Verallgemeinerung eindimensionaler Materialmodelle für die Finite-Elemente-Methode

Freund, Michael 15 February 2013 (has links)
Für die Simulation technischer Bauteile mit Hilfe der Finite-Elemente-Methode (FEM) werden tensorielle Stoffgesetze benötigt, die zu einem beliebigen dreidimensionalen Verzerrungszustand und gegebenenfalls der Belastungsvorgeschichte und -geschwindigkeit des Materials die zugehörige Spannungsantwort liefern. Die Entwicklung derart komplexer Materialmodelle verläuft oftmals über Zwischenstufen, die zunächst nur Vorhersagen für den einachsigen Zug-/Druckversuch erlauben. Zur automatischen Verallgemeinerung solcher eindimensionaler Materialbeschreibungen zu vollständig dreidimensionalen Stoffgesetzen für die Finite-Elemente-Methode wird im Rahmen dieser Arbeit das Konzept repräsentativer Raumrichtungen vorgeschlagen, welches auf der Integration einachsiger Spannungszustände über eine diskrete Anzahl gleichmäßig verteilter (repräsentativer) Raumrichtungen basiert. Zur Untersuchung der grundlegenden Eigenschaften des Algorithmus wurden verschiedene inelastische tensorielle Beispielstoffgesetze herangezogen, deren eindimensionale Formulierung als Eingangsmodell für die repräsentativen Raumrichtungen dient. Hierbei zeigt sich, dass die wesentlichen Materialeigenschaften des jeweiligen uniaxialen Eingangsmodells bei der Verallgemeinerung vollständig erhalten bleiben. Weiterhin werden einige wichtige Effekte vom Konzept automatisch generiert, wie z. B. die anisotrope Entfestigung technischer Gummiwerkstoffe oder die formative Verfestigung metallischer Werkstoffe, was eine realitätsnahe Simulation dieser Materialklassen ohne zusätzlichen Arbeitsaufwand erlaubt. Das Konzept wurde zusätzlich auf Stoffgesetze angewendet, die ausschließlich in Form einer eindimensionalen Materialbeschreibung vorliegen und somit konkrete Anwendungsfällle darstellen. Darüber hinaus wurden für einige ausgewählte Stoffgesetze in repräsentativen Raumrichtungen Vergleiche mit Ergebnissen aus experimentellen Versuchen vorgenommen, wobei sich stets eine gute Übereinstimmung zwischen Experiment und Simulation ergibt. Das Konzept repräsentativer Raumrichtungen wurde in die zwei kommerziellen Finite-Elemente-Programme MSC.Marc und ABAQUS implementiert. Hiermit können Simulationen inhomogener Verzerrungs- und Spannungsverteilungen durchgeführt werden, obwohl das zugrunde liegende Stoffgesetz lediglich einachsige Spannungszustände beschreibt. In diesem Zusammenhang werden verschiedene Methoden vorgestellt, mit deren Hilfe die Effizienz einer FEM-Simulation erheblich gesteigert werden kann. Dies betrifft zum einen die Generierung einer gleichmäßigen Verteilung von repräsentativen Raumrichtungen mit Hilfe eines numerischen Algorithmus zur Simulation sich abstoßender elektrischer Punktladungen auf der Kugeloberfläche. Zum anderen besteht die Möglichkeit, die einzelnen Sätze von repräsentativen Raumrichungen in den Gaußpunkten eines finiten Elementes unterschiedlich zueinander auszurichten, was bei gleichbleibendem Rechenaufwand eine beträchtliche Erhöhung der Rechengenauigkeit erlaubt. / The simulation of technical components using the finite element method (FEM) requires tensorial constitutive models which describe the complete relation between a given three-dimensional state of strain (in some cases also the loading history and strain rate) and the corresponding state of stress. The development of such complex material models often leads to an intermediate stage that enables the prediction of uniaxial tension and compression only. The automatic generalization of those one-dimensional material descriptions to complete three-dimensional constitutive models for the finite element method can be accomplished by using the concept of representative directions which is based on the integration of uniaxial stresses over a discrete number of uniformly distributed (representative) directions in space. In order to investigate the fundamental characteristics of the algorithm several inelastic tensorial constitutive models were used, whose one-dimensional formulation serves as the input model for the use within the representative directions. In this context it becomes evident that the essential material properties of the respective uniaxial input model are completely preserved during the process of generalization. Furthermore, some important effects are produced automatically by the concept such as the anisotropic stress softening of technical rubber materials or the distortional hardening of metallic materials, which enables a realistic simulation of those material classes without spending additional effort. The concept was also applied to material models that are available in form of a one-dimensional material description only, so that these can be regarded as concrete applications. In addition, some of the material models in representative directions were compared to experimental data, whereas a good agreement between measurement and simulation can be noticed. The concept of representative directions has been implemented into the commercial finite element programs MSC.Marc and ABAQUS. This enables simulations of inhomogeneous strain and stress distributions even though the underlying material model describes uniaxial loading processes only. In this context, several methods are introduced which can be applied to increase the efficiency of a finite element simulation to a great extent. On the one hand this affects the generation of a uniform distribution of representative directions using a numerical algorithm simulating the repulsion of electric charges on the surface of a sphere. On the other hand, it is possible to adjust the sets of representative directions at the integration points of a finite element differently, which leads to an increasing computational accuracy at constant computational effort.
368

Toward causal representation and structure learning

Mansouri Tehrani, Sayed Mohammadamin 08 1900 (has links)
Dans les annales de l'Intelligence Artificielle (IA), la quête incessante pour émuler la cognition humaine dans les machines a sous-tendu l'évolution technologique, repoussant les limites du potentiel humain et des capacités de résolution de problèmes. L'intégration de l'IA a catalysé des progrès remarquables, pénétrant divers domaines et redéfinissant des industries. Cependant, un défi demeure imperturbable : l'obstacle de la généralisation hors de la distribution (OOD). Alors que l'IA triomphe avec des données familières, elle échoue avec des données en dehors de son domaine d'entraînement. En santé, en finance et au-delà, les limitations de l'IA entravent l'adaptation à des scénarios nouveaux. Cette lacune découle de l'écart entre les schémas appris et les caractéristiques causales et invariantes sous-jacentes, entravant l'adaptabilité à des scénarios inexplorés. Cette thèse franchit des étapes significatives pour aborder cette question en innovant et en exploitant des méthodes issues de l'apprentissage de structure causale et de représentation. Le parcours commence par un algorithme novateur d'apprentissage de structure, les ``Reusable Factor Graphs'', qui tire parti des biais inductifs issus de la causalité et de la cognition humaine pour une meilleure généralisation. Ensuite, en explorant l'apprentissage de représentation causale, nous découvrons des représentations désenchevêtrées centrées sur les objets en utilisant une supervision faible basée sur une connaissance partielle de la structure causale des données. Ces connaissances se conjuguent pour préconiser l'apprentissage conjoint de la structure causale et de la représentation. L'architecture proposée, les ``Reusable Slotwise Mechanisms'' (RSM), relie théorie et pratique, démontrant une promesse réelle à travers ses représentations centrées sur les objets et ses mécanismes causaux réutilisables. Cette fusion offre une solution potentielle pour surmonter les limitations de la généralisation OOD en IA. / In the annals of Artificial Intelligence (AI), an enduring quest to emulate human cognition in machines has underpinned technological evolution, driving the boundaries of human potential and problem-solving capabilities. The integration of AI has catalyzed remarkable progress, infiltrating various domains and redefining industries. Yet, a challenge remains unshaken: the hurdle of out-of-distribution (OOD) generalization. While AI triumphs with familiar data, it falters with data outside its training realm. In healthcare, finance, and beyond, AI's limitations hinder adaptation to novel scenarios. This deficiency arises from the gap between learned patterns and underlying causal and invariant features, hindering adaptability to uncharted scenarios. This thesis takes significant steps toward tackling this issue by innovating and leveraging methods from causal structure and representation learning. The journey begins with an innovative structure learning algorithm, Reusable Factor Graphs, leveraging inductive biases from causality and human cognition for improved generalization. Next, delving into causal representation learning, we uncover object-centric disentangled representations using weak supervision from partial knowledge of the causal structure of data. These insights synergize in advocating joint learning of causal structure and representation. The proposed Reusable Slotwise Mechanisms (RSM) architecture bridges theory and practice, demonstrating real-world promise through its object-centric representations and reusable causal mechanisms. This fusion offers a potential solution for tackling OOD generalization limitations in AI.
369

Minds, Machines & Metaphors : Limits of AI Understanding

Másson, Mímir January 2024 (has links)
This essay critically examines the limitations of artificial intelligence (AI) in achieving human-like understanding and intelligence. Despite significant advancements in AI, such as the development of sophisticated machine learning algorithms and neural networks, current systems fall short in comprehending the cognitive depth and flexibility inherent in human intelligence. Through an exploration of historical and contemporary arguments, including Searle's Chinese Room thought experiment and Dennett's Frame Problem, this essay highlights the inherent differences between human cognition and AI. Central to this analysis is the role of metaphorical thinking and embodied cognition, as articulated by Lakoff and Johnson, which are fundamental to human understanding but absent in AI. Proponents of AGI, like Kurzweil and Bostrom, argue for the potential of AI to surpass human intelligence through recursive self-improvement and technological integration. However, this essay contends that these approaches do not address the core issues of experiential knowledge and contextual awareness. By integrating insights from contemporary scholars like Bender, Koller, Buckner, Thorstad, and Hoffmann, the essay ultimately concludes that AI, while a powerful computational framework, is fundamentally incapaple of replicating the true intelligence and understanding unique to humans.
370

Reparametrization in deep learning

Dinh, Laurent 02 1900 (has links)
No description available.

Page generated in 0.11 seconds