• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 25
  • 7
  • Tagged with
  • 81
  • 40
  • 26
  • 22
  • 21
  • 17
  • 17
  • 16
  • 15
  • 15
  • 15
  • 15
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Comparaison de deux stratégies pour favoriser la généralisation des apprentissages chez des enfants ayant un trouble du spectre de l’autisme

Dufour, Marie-Michèle 05 1900 (has links)
Les enfants atteints d’un trouble du spectre de l’autisme (TSA) présentent souvent des difficultés à généraliser leurs apprentissages à des nouveaux stimuli, contextes et individus (Brown & Bebko, 2012; Happé & Frith, 2006; Lovaas, Koegel, Simmons, & Long, 1973; Plaisted, O'Riordan, & Baron-Cohen, 1998). Pour cette raison, il est important d’utiliser des techniques promouvant la généralisation au sein des programmes d’intervention leur étant destinés. Cette recherche visait à évaluer l’efficacité de deux des techniques les plus fréquemment utilisées dans les programmes d’intervention comportementale intensive (ICI), soit l’enseignement séquentiel et l’enseignement simultané, afin de déterminer si l’une d’elles était systématiquement plus efficace que l’autre pour promouvoir la généralisation des concepts chez les enfants ayant un TSA. Des devis expérimentaux à cas unique ont été utilisés pour évaluer les effets des deux techniques sur la généralisation de quatre enfants ayant un diagnostic de TSA et recevant des services d’ICI en clinique privée. Pour deux participants, la méthode enseignement simultané a démontré une plus grande efficacité quant à la généralisation des concepts enseignés. Pour les deux autres, les deux techniques se sont avérées aussi efficaces. Bien que préliminaires, les résultats suggèrent qu’il serait préférable d’appliquer la méthode enseignement simultané lors de l’enseignement de concepts chez les enfants ayant un TSA en contexte d’ICI. / Children with autism spectrum disorder (ASD) often show difficulties in generalizing what they have learned to new stimuli, contexts or persons (Brown & Bebko, 2012; Happé & Frith, 2006; Lovaas, Koegel, Simmons, & Long, 1973; Plaisted, O'Riordan, & Baron-Cohen, 1998). For this reason, it is important to implement strategies to promote generalization within programs intended for this population. This study aimed to compare the effectiveness of two of the most commonly used strategies in intensive behavioral intervention (IBI), serial training and concurrent teaching, to determine whether one was systematically more effective than the other at promoting generalization in children with ASD? Single-case experimental designs were used to assess the effects of the two strategies with four children with an ASD diagnosis receiving services in a private clinic. For two participants, concurrent teaching was more effective to promote generalisation of the learned concepts. For the remaining two participants, the two strategies were equally effective. Albeit preliminary, the results suggest that it may be preferable to introduce exemplars concurrently when teaching concepts to children with ASD within IBI programs.
32

Adaptation et généralisation spatiale : étude d’une perturbation visuomotrice triaxiale dans un environnement virtuel tridimensionnel

Lefrançois, Catherine 11 1900 (has links)
Lorsque le système nerveux central est exposé à une nouvelle association visuoproprioceptive, l’adaptation de la carte visuomotrice est nécessaire afin d’exécuter des mouvements précis. L’efficacité de ces processus adaptatifs correspond aussi à la capacité à les transférer dans des contextes différents de l’apprentissage de cette nouvelle association, par exemple dans de nouvelles régions de l’espace extrapersonnel (généralisation spatiale). Comme le contexte exerce une influence considérable sur les processus adaptatifs, les composantes multidimensionnelles de la tâche et de la perturbation pourraient constituer des éléments affectant considérablement l’adaptation et la généralisation spatiale. Ce mémoire présente une étude exploratoire de l’adaptation à une perturbation triaxiale, introduite graduellement, réalisée dans un environnement virtuel tridimensionnel et sa généralisation spatiale. Nos résultats suggèrent que les trois axes de l’espace présentent des différences importantes quant aux processus adaptatifs qui les sous-tendent. L’axe vertical présente à la fois une plus grande variabilité et de plus grandes erreurs spatiales au cours de l’adaptation comparativement à l’axe sagittal et à l’axe horizontal, tandis que l’axe sagittal présente une plus grande variabilité que l’axe horizontal. Ces différences persistent lors de l’effet consécutif, l’axe vertical affichant une désadaptation importante. Le test de généralisation spatiale montre une généralisation à l’ensemble des cibles, cependant, la généralisation semble plus faible le long de l’axe vertical. Ces résultats suggèrent que l’adaptation à une translation tridimensionnelle se généralise à travers l’espace le long des trois axes de l’espace et renforcent l’idée que le système nerveux central utilise une stratégie de décomposition modulaire des composantes de l’espace tridimensionnel. / We explored visuomotor adaptation and spatial generalization in the context of three-dimensional reaching movements performed in a virtual reality environment using a learning paradigm composed of four phases: pre-exposure, baseline, learning, and post-exposure (aftereffect and generalization). Subjects started by performing five reaching movements to six 3D memorized target locations without visual feedback (pre-exposure). Next, subjects performed twelve reaching movements to the learning target with veridical visual feedback (baseline). Immediately after, the 3D visuomotor dissociation (horizontal, vertical and sagittal translations) between actual hand motions and visual feedback of hand motions in the 3D virtual environment was gradually introduced (learning phase). Finally, subjects aimed at the pre-exposure and baseline targets without visual feedback (post-exposure). Although subjects were unaware of the visuomotor perturbation, they showed movement adaptation for each component of the triaxial perturbation, but they displayed reduced adaptation rate along the vertical axis. Subjects persisted in applying the new visuomotor association when the perturbation was removed, but the magnitude of this post-exposure shift was lower along the vertical axis. Similar trends were observed for movement aimed at pre-exposure targets. Furthermore, these post-exposure shifts were, on average, greater along the horizontal and sagittal axes relative to the vertical axis. These results suggest that the visuomotor map may be more adaptable to shifts in the horizontal and sagittal directions, than to shifts in the vertical direction. This finding supports the idea that the brain may employ a modular decomposition strategy during learning to simplify complex multidimensional visuomotor tasks.
33

Révision automatique des connaissances guidant l'exploration informée d'arbres d'états : application au contexte de la généralisation de données géographiques / Automatic revision of knowledge guiding informed search tree exploration : application to the context of geographic data generalisation

Taillandier, Patrick 02 December 2008 (has links)
Cette thèse traite de la révision automatique des connaissances contenues dans les systèmes fonctionnant par exploration informée d'arbres d'états. Ces systèmes, de par leur performance, sont employés dans de nombreux domaines applicatifs. En particulier, des travaux ont proposés d’utiliser cette approche dans le cadre de l'automatisation de la généralisation de données géographiques. La généralisation de données géographique s'intéresse à la dérivation, à partir de données géographiques détaillées, de données moins détaillées adaptées à un besoin particulier (e.g. changement d'échelle). Son automatisation, enjeu majeur pour les agences cartographiques telles que l'Institut Géographique National (IGN), est particulièrement complexe. Les performances des systèmes basés sur l’exploration informée d'arbres d'états sont directement dépendantes de la qualité de leurs connaissances (heuristiques). Or, la définition et la mise à jour de ces dernières s'avèrent généralement fastidieuses. Dans le cadre de cette thèse, nous proposons une approche de révision hors ligne des connaissances basée sur le traçage du système et sur l'analyse de ces traces. Ces traces sont ainsi utilisées par un module de révision qui est chargé d'explorer l'espace des connaissances possibles et d'en modifier en conséquence les connaissances du système. Des outils de diagnostic en ligne de la qualité des connaissances permettent de déterminer quand déclencher le processus de révision hors ligne des connaissances. Pour chaque méthode et approche que nous présentons, une mise en oeuvre est détaillée et expérimentée dans le cadre de l'automatisation de la généralisation de données géographiques / This work deals with automatic knowledge revision in systems based on an informed tree search strategy. Because of their efficiency, these systems are used in numerous fields. In particular, some literature work uses this approach for the automation of geographic data generalisation. Geographic data generalisation is the process that derives data adapted to specific needs (e.g. map scale) from too detailed geographic data. Its automation, which is a major issue for national mapping agencies like Institut Géographique National (IGN), is particularly complex. The performances of systems based on informed tree search are directly dependant on their knowledge (heuristics) quality. Unfortunately, most of the time, knowledge definition and update are fastidious. In this work, we propose an offline knowledge revision approach based on the system logging and on the analysis of these logs. Thus, the logs are used by a revision module which is in charge of the system knowledge revision by knowledge space exploration. Tools for online knowledge quality diagnosis allow to determine when the offline knowledge process should be activated. For each method and each approach presented, an implementation is proposed in the context of geographic data generalisation
34

Construction de macro-propositions dans une émission radiophonique interactive anglophone / Macro-proposition formation in a British phone-in programme

Koszul, Bertrand 23 November 2012 (has links)
Ce travail porte sur les relations entre les propositions du texte et les macro-propositions telles qu’elles ont été définies par van Dijk et Kintsch. L’étude a été conduite sur un corpus de textes issus d’une émission radiophonique interactive. Une première partie du travail a été consacrée à la recherche d’un lien entre l’organisation informationnelle des propositions et l’organisation séquentielle du texte. Les liens décrits par Fries et Martin à propos de textes écrits n’ont pas été retrouvés dans les textes oraux du corpus. Dans une seconde partie nous avons étudié la formation de macro-propositions par généralisation. Une analyse des lexicalisations des macro-propositions a montré que la généralisation se faisait sur une base conceptuelle et non lexicale et que les macro-règles décrites par van Dijk et Kintsch ne rendaient pas compte de la formation de la totalité des macro-propositions générées lors de la compréhension. / This study examines the relations between textual propositions and macro-propositions as defined by van Dijk and Kintsch. The corpus used consisted of texts taken from a BBC phone in programme. In the first part of the study a link was sought between the structure of the text and the information structure of the messages. The patterns identified by Fries and Martin in written texts however could not be found in the oral texts of the corpus. The second part of the research focused on macro-propositions deriving from generalisation. An analysis of the lexicalisation of the concepts of these macro-propositions showed that generalisation was made on a conceptual basis as opposed to a lexical one and that the generalisation macro-rule defined by van Dijk and Kintsch fails to account for all the macro-propositions generated during comprehension.
35

Supervised metric learning with generalization guarantees / Apprentissage supervisé de métriques avec garanties en généralisation

Bellet, Aurélien 11 December 2012 (has links)
Ces dernières années, l'importance cruciale des métriques en apprentissage automatique a mené à un intérêt grandissant pour l'optimisation de distances et de similarités en utilisant l'information contenue dans des données d'apprentissage pour les rendre adaptées au problème traité. Ce domaine de recherche est souvent appelé apprentissage de métriques. En général, les méthodes existantes optimisent les paramètres d'une métrique devant respecter des contraintes locales sur les données d'apprentissage. Les métriques ainsi apprises sont généralement utilisées dans des algorithmes de plus proches voisins ou de clustering.Concernant les données numériques, beaucoup de travaux ont porté sur l'apprentissage de distance de Mahalanobis, paramétrisée par une matrice positive semi-définie. Les méthodes récentes sont capables de traiter des jeux de données de grande taille.Moins de travaux ont été dédiés à l'apprentissage de métriques pour les données structurées (comme les chaînes ou les arbres), car cela implique souvent des procédures plus complexes. La plupart des travaux portent sur l'optimisation d'une notion de distance d'édition, qui mesure (en termes de nombre d'opérations) le coût de transformer un objet en un autre.Au regard de l'état de l'art, nous avons identifié deux limites importantes des approches actuelles. Premièrement, elles permettent d'améliorer la performance d'algorithmes locaux comme les k plus proches voisins, mais l'apprentissage de métriques pour des algorithmes globaux (comme les classifieurs linéaires) n'a pour l'instant pas été beaucoup étudié. Le deuxième point, sans doute le plus important, est que la question de la capacité de généralisation des méthodes d'apprentissage de métriques a été largement ignorée.Dans cette thèse, nous proposons des contributions théoriques et algorithmiques qui répondent à ces limites. Notre première contribution est la construction d'un nouveau noyau construit à partir de probabilités d'édition apprises. A l'inverse d'autres noyaux entre chaînes, sa validité est garantie et il ne comporte aucun paramètre. Notre deuxième contribution est une nouvelle approche d'apprentissage de similarités d'édition pour les chaînes et les arbres inspirée par la théorie des (epsilon,gamma,tau)-bonnes fonctions de similarité et formulée comme un problème d'optimisation convexe. En utilisant la notion de stabilité uniforme, nous établissons des garanties théoriques pour la similarité apprise qui donne une borne sur l'erreur en généralisation d'un classifieur linéaire construit à partir de cette similarité. Dans notre troisième contribution, nous étendons ces principes à l'apprentissage de métriques pour les données numériques en proposant une méthode d'apprentissage de similarité bilinéaire qui optimise efficacement l'(epsilon,gamma,tau)-goodness. La similarité est apprise sous contraintes globales, plus appropriées à la classification linéaire. Nous dérivons des garanties théoriques pour notre approche, qui donnent de meilleurs bornes en généralisation pour le classifieur que dans le cas des données structurées. Notre dernière contribution est un cadre théorique permettant d'établir des bornes en généralisation pour de nombreuses méthodes existantes d'apprentissage de métriques. Ce cadre est basé sur la notion de robustesse algorithmique et permet la dérivation de bornes pour des fonctions de perte et des régulariseurs variés / In recent years, the crucial importance of metrics in machine learningalgorithms has led to an increasing interest in optimizing distanceand similarity functions using knowledge from training data to make them suitable for the problem at hand.This area of research is known as metric learning. Existing methods typically aim at optimizing the parameters of a given metric with respect to some local constraints over the training sample. The learned metrics are generally used in nearest-neighbor and clustering algorithms.When data consist of feature vectors, a large body of work has focused on learning a Mahalanobis distance, which is parameterized by a positive semi-definite matrix. Recent methods offer good scalability to large datasets.Less work has been devoted to metric learning from structured objects (such as strings or trees), because it often involves complex procedures. Most of the work has focused on optimizing a notion of edit distance, which measures (in terms of number of operations) the cost of turning an object into another.We identify two important limitations of current supervised metric learning approaches. First, they allow to improve the performance of local algorithms such as k-nearest neighbors, but metric learning for global algorithms (such as linear classifiers) has not really been studied so far. Second, and perhaps more importantly, the question of the generalization ability of metric learning methods has been largely ignored.In this thesis, we propose theoretical and algorithmic contributions that address these limitations. Our first contribution is the derivation of a new kernel function built from learned edit probabilities. Unlike other string kernels, it is guaranteed to be valid and parameter-free. Our second contribution is a novel framework for learning string and tree edit similarities inspired by the recent theory of (epsilon,gamma,tau)-good similarity functions and formulated as a convex optimization problem. Using uniform stability arguments, we establish theoretical guarantees for the learned similarity that give a bound on the generalization error of a linear classifier built from that similarity. In our third contribution, we extend the same ideas to metric learning from feature vectors by proposing a bilinear similarity learning method that efficiently optimizes the (epsilon,gamma,tau)-goodness. The similarity is learned based on global constraints that are more appropriate to linear classification. Generalization guarantees are derived for our approach, highlighting that our method minimizes a tighter bound on the generalization error of the classifier. Our last contribution is a framework for establishing generalization bounds for a large class of existing metric learning algorithms. It is based on a simple adaptation of the notion of algorithmic robustness and allows the derivation of bounds for various loss functions and regularizers.
36

Troubles de la généralisation dans les grammaires de construction chez des enfants présentant des troubles spécifiques du langage / Lack of generalization in construction grammars in children with specific language impairment

Leroy, Sandrine 19 December 2013 (has links)
Les grammaires de construction postulent l’émergence progressive des structures du langage via l’utilisation de processus cognitifs généraux. Les hypothèses théoriques qui en émanent suggèrent que la complexité et la structure des formes morphosyntaxiques ne peuvent s’expliquer que dans une perspective constructiviste, où l’enfant développe ses nouvelles formes en complexifiant et en généralisant ses propres productions antérieures. Ces hypothèses ont été éprouvées auprès de populations présentant un développement typique du langage (DTL) mais ont peu fait l’objet d’une mise en application auprès d’enfants avec troubles spécifiques du langage (TSL). Or, ces théories offrent de nouvelles perspectives théoriques permettant de mieux appréhender leurs difficultés langagières. Ces enfants présentent un manque de productivité syntaxique ainsi qu’une plus grande dépendance à l’input linguistique, allant dans le sens d’un manque de généralisation des schémas de construction. Nous suggérons que, contrairement aux enfants avec DTL, l’abstraction des schémas de construction des enfants avec TSL serait entravée en raison d’un mécanisme de généralisation qui se mettrait en place plus lentement. Ce travail de thèse a pour objectif de tester cette hypothèse chez les enfants avec TSL, en s’intéressant plus particulièrement au rôle du mapping analogique. Les résultats obtenus sont prometteurs et compatibles avec cette hypothèse. Si l’étude du mapping analogique comme facteur à l’origine des difficultés des enfants avec TSL est particulièrement séduisante, de nombreuses pistes restent à explorer pour appuyer davantage notre hypothèse. / Construction grammars argue that language structures progressively emerge thanks to the use of general cognitive processes. Theoretical hypotheses suggest that complexity and structure of morphosyntactic forms can only be explained in a constructivist perspective in which children develop their new forms by making more complex and generalizing their own prior utterances. These hypotheses have been already tested with children with typical language development (TLD) but few studies were interested in children with specific language impairment (SLI). These hypotheses give new interesting theoretical perspectives for apprehending their language disorders better. Children with SLI present a lack of syntactic productivity and a more important input dependency. These observations are compatible with the hypothesis of a lack of generalization of construction schemas. Consequently, the children’s abstraction of construction schemas would be slowed down compared to children with TLD’s abstraction. The current doctoral thesis studies the hypothesis of a lack of generalization in children with SLI by analyzing more particularly the role of analogical mapping. The results obtained are promising and in agreement with our hypothesis. If studies about the role of analogical mapping as a factor explaining the disorders in children with SLI are attractive, other considerations have still to be explored for strengthening our hypotheses.
37

An ontologies and agents based approach for undersea feature characterisation and generalisation / Une approche fondée sur les ontologies et les agents pour la caractérisation et la généralisation de formes de relief sous-marines

Yan, Jingya 10 December 2014 (has links)
Une carte marine est un type de carte utilisé pour décrire la morphologie du fond marin et du littoral adjacent. Un de ses principaux objectifs est de garantir la sécurité de la navigation maritime. En conséquence, la construction d'une carte marine est contrainte par des règles très précises. Le cartographe doit choisir et mettre en évidence les formes du relief sous-marin en fonction de leur intérêt pour la navigation. Au sein d'un processus automatisé, le système doit être en mesure d'identifier et de classifier ces formes de relief à partir d’un modèle de terrain.Un relief sous-marin est une individuation subjective d'une partie du fond océanique. La reconnaissance de la morphologie du fond sous-marin est une tâche difficile, car les définitions des formes de relief reposent généralement sur une description qualitative et floue. Obtenir la reconnaissance automatique des formes de relief nécessite donc une définition formelle des propriétés des reliefs et de leur modélisation. Dans le domaine maritime, l'Organisation Hydrographique Internationale a publié une terminologie standard des noms des formes de relief sous-marines qui formalise un ensemble de définitions principalement pour des objectifs de communication. Cette terminologie a été utilisée ici comme point de départ pour la classification automatique des formes de relief sous-marines d'un modèle numérique de terrain.Afin d'intégrer les connaissances sur le relief sous-marin et sa représentation sur une carte nautique, cette recherche vise à définir des ontologies du relief sous-marin et des cartes marines. Les ontologies sont ensuite utilisées à des fins de généralisation de carte marine. Nos travaux de recherche sont structurés en deux parties principales. Dans la première partie de la recherche, une ontologie est définie afin d'organiser la connaissance géographique et cartographique pour la représentation du relief sous-marin et la généralisation des cartes marines. Tout d'abord, une ontologie de domaine du relief sous-marin présente les différents concepts de formes de relief sous-marines avec leurs propriétés géométriques et topologiques. Cette ontologie est requise pour la classification des formes de relief. Deuxièmement, une ontologie de représentation est présentée, qui décrit la façon dont les entités bathymétriques sont représentées sur la carte.Troisièmement, une ontologie du processus de généralisation définit les contraintes et les opérations usitées pour la généralisation de carte marine. Dans la deuxième partie de la recherche, un processus de généralisation fondé sur l'ontologie est conçu en s'appuyant sur un système multi-agents (SMA). Quatre types d'agents (isobathe, sonde, forme de relief et groupe de formes de relief) sont définis pour gérer les objets cartographiques sur la carte. Un modèle de base de données a été généré à partir de l'ontologie. Les données bathymétriques et l'ontologie sont stockées dans une base de données de type ``triple store'', et sont connectées à un système d'information implémenté en Java et C++. Le système proposé classe automatiquement les formes de relief sous-marines extraites à partir de la bathymétrie, et évalue les contraintes cartographiques. Dans un premier temps, les propriétés géométriques décrivant une forme de relief sont calculées à partir des sondes et des isobathes et sont utilisées pour la classification des formes de relief. Ensuite, les conflits de distance et de superficie sont évalués dans le SMA et des plans de généralisation sont proposés au cartographe. Des tests ont été réalisés avec des données bathymétriques du monde réel montrant ainsi l'intérêt de la recherche dans le domaine de la cartographie nautique. / A nautical chart is a kind of map used to describe the seafloor morphology and the shoreline of adjacent lands. One of its main purposes is to guaranty safety of maritime navigation. As a consequence, construction of a nautical chart follows very specific rules. The cartographer has to select and highlight undersea features according to their relevance to navigation. In an automated process, the system must be able to identify and classify these features from the terrain model.An undersea feature is a subjective individuation of a part of the seafloor. Landform recognition is a difficult task because its definition usually relies on a qualitative and fuzzy description. Achieving automatic recognition of landforms requires a formal definition of the landforms properties and their modelling. In the maritime domain, the International Hydrographic Organisation published a standard terminology of undersea feature names which formalises a set of definitions mainly for naming features and communication purpose. This terminology is here used as a starting point for the automatic classification of the features from a terrain model.In order to integrate knowledge about the submarine relief and its representation on the chart, this research aims to define ontologies of the submarine relief and nautical chart. Then, the ontologies are applied to generalisation of nautical chart. It includes two main parts. In the first part of the research, an ontology is defined to organize geographical and cartographic knowledge for undersea feature representation and nautical chart generalisation. First, a domain ontology of the submarine relief introduces the different concepts of undersea features with their geometric and topological properties. This ontology is required for the classification of features. Second, a representation ontology is presented, which describes how bathymetric entities are portrayed on the map. Third, a generalisation process ontology defines constraints and operations in nautical chart generalisation. In the second part, a generalisation process based on the ontology is designed relying on a multi-agent system. Four kinds of agents (isobath, sounding, feature and group of features) are defined to manage cartographic objects on the chart. A database model was generated from the ontology. The bathymetric data and the ontology are stored in a triplestore database, and are connected to an interface in Java and C++ to automatically classify the undersea features extracted from the bathymetry, and evaluate the cartographic constraints. At first, geometrical properties describing the feature shape are computed from soundings and isobaths and are used for feature classification. Then, conflicts are evaluated in a MAS and generalisation plans are provided.
38

Généralisations d'hypercubes et de (0, 2)-graphes

Madani, Rafaï Mourad 07 March 1994 (has links) (PDF)
L'hypercube a suscité de nombreuses études engendrant une littérature très dense aussi bien en mathématiques discrètes qu'en informatique. Cet intérêt sans cesse croissant est largement motivé par l'utilisation de sa structure dans de nombreux domaines (architectures parallèles, transfert de l'information, décision multicritère,...). Chacun peut s'étonner des raisons qui font que le cube soit le cube?. Sa simple définition peut déjà apporter une réponse quoique partielle à une telle question. Plusieurs propriétés spécifiques à l'hypercube ont, soit, défini de nouvelles classes de graphes, soit, fait ressortir le rôle remarquable joué par celui-ci dans plusieurs classes déjà existantes. Les (0, 2)-graphes sont une généralisation naturelle de l'hypercube. Il est maximal dans cette classe. Le thème de cette thèse consiste en la définition et la caractérisation de quelques classes de (0, 2)-graphes obtenues à partir de l'hypercube par rajout d'arêtes ou identification de sommets. Nous caractérisons au chapitre II, le graphe de l'hyperoctaèdre comme un {2(n-2), 2(n-1)}-graphe d'ordre 2n, et nous prouvons l'unicité de son cycle hamiltonien et cela à une équivalence naturelle près. Nous donnons, au chapitre III, une caractérisation de l'hypercube en tant que graphe distance-régulier de vecteur d'intersection {d, d-1, ..., 1; 1, 2, ..., d}. Une classe de (0, 2)-graphes minimaux -les graphes de Shrikhande généralisés- y est étudiée et une caractérisation des graphes de Laborde-Mulder comme (0, 2)-graphes de diamètre minimum [d/2] parmi ceux d'ordre 2d-1 et de degré d impair est donnée. Au chapitre IV, nous caractérisons parmi les hypercubes généralisés ceux qui sont des (0, 2)-graphes. Nous présentons une construction de (0, 2)-graphes non sommet-transitifs. On montre enfin que les graphes de Laborde-Mulder et du demi-cube sont plongeables dans le carré de l'hypercube. Dans un dernier chapitre, nous nous intéressons au problème d'existence de (0, 2)-graphe d'un ordre donné. Nous donnons une condition nécessaire d'existence de tels graphes pour un ordre impair. Nous montrons ensuite qu'à l'ordre 18 et 20, il n'existe pas de (0, 2)-graphes, en utilisant à cette fin un algorithme de construction de (0, 2)-graphes. Nous présentons enfin quelques résultats sur la structure locale des (0, 2)-graphes
39

Restauration de la symétrie de parité intrinsèque dans les noyaux atomiques à partir d'approches de type champ moyen plus corrélations

Tran, V.N.H. 07 April 2010 (has links) (PDF)
Nous nous sommes intéresses a la restauration de la symétrie de réflexion droite-gauche brisée dans certains calculs effectues en utilisant l'approche HTDA (Higher Tamm-Danco Approximation). Cette approche a été proposée par le groupe de Bordeaux pour traiter de façon microscopique les corrélations en conservant explicitement les nombres de nucléons. La projection sur la parité par la méthode PAV (projection après variation) utilisant une généralisation du théorème de Wick de type Lowdin s'est avérée être très bien adaptée dans le cadre d'un modèle simple pour ce type de calcul et a permis de tourner certaines difficultés propres aux calculs qui utilisent la théorie de la fonctionnelle de la densité déduite par exemple de l'interaction de Skyrme. Les résultats obtenus pour des noyaux lourds manifestant une déformation octupôlaire ou a tout le moins une grande déformation pour ce mode, sont en gros tout a fait cohérents avec les calculs antérieurs effectues dans une approche HFB ou HF+BCS. D'autre part nos résultats montrent qu'on peut abaisser par projection sur la parité positive la hauteur de la seconde barrière de fission par une quantité de l'ordre de 1 MeV.
40

Extraction de données symboliques et cartes topologiques: application aux données ayant une structure complexe

El Golli, Aïcha 01 June 2004 (has links) (PDF)
Un des objectifs de lanalyse de données symboliques est de permettre une meilleure modélisation des variations et des imprécisions des données réelles. Ces données expriment en effet, un niveau de connaissance plus élevé, la modélisation doit donc offrir un formalisme plus riche que dans le cadre de lanalyse de données classiques. Un ensemble dopérateurs de généralisation symbolique existent et permettent une synthèse et représentation des données par le formalisme des assertions, formalisme défini en analyse de données symboliques. Cette généralisation étant supervisée, est souvent sensible aux observations aberrantes. Lorsque les données que lon souhaite généraliser sont hétérogènes, certaines assertions incluent des observations virtuelles. Face à ce nouveau formalisme et donc cette extension dordre sémantique que lanalyse de données symbolique a apporté, une nouvelle approche de traitement et dinterprétation simpose. Notre objectif au cours de ce travail est daméliorer tout dabord cette généralisation et de proposer ensuite une méthode de traitement de ces données. Les contributions originales de cette thèse portent sur de nouvelles approches de représentation et de classification des données à structure complexe. Nous proposons donc une décomposition permettant daméliorer la généralisation tout en offrant le formalisme symbolique. Cette décomposition est basée sur un algorithme divisif de classification. Nous avons aussi proposé une méthode de généralisation symbolique non supervisée basée sur l'algorithme des cartes topologiques de Kohonen. L'avantage de cette méthode est de réduire les données d'une manière non supervisée et de modéliser les groupes homogènes obtenus par des données symboliques. Notre seconde contribution porte sur lélaboration dune méthode de classification traitant les données à structure complexe. Cette méthode est une adaptation de la version batch de lalgorithme des cartes topologiques de Kohonen aux tableaux de dissimilarités. En effet, seule la définition dune mesure de dissimilarité adéquate, est nécessaire pour le bon déroulement de la méthode.

Page generated in 0.3011 seconds