• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 65
  • 12
  • 8
  • 4
  • 1
  • 1
  • Tagged with
  • 91
  • 42
  • 18
  • 17
  • 16
  • 14
  • 13
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Analyse des besoins des conducteurs âgés et des adaptations mises en œuvre lors de la réalisation de manœuvres à basses vitesses / Analysis of older drivers’ needs and adaptations during low speed manoeuvres

Douissembekov, Evgueni 14 November 2014 (has links)
Les manoeuvres de stationnement représentent une difficulté pour les conducteurs âgés. De ce fait, elles font partie des situations de conduite les plus évitées chez les séniors. L'étude s'intéresse aux difficultés et aux besoins des conducteurs âgés lors des manoeuvres à basses vitesses. Premièrement, une enquête s'intéressant aux différents aspects de l'activité de stationnement sera réalisée auprès des conducteurs âgés du Rhône. Ensuite, la gestion de ressources cognitives chez le conducteur manoeuvrant sera étudiée dans une série d'expériences avec les différents types de manoeuvres de stationnement. Pour ce faire, des places de stationnement de configuration modifiable seront aménagées dans un parking, et les manoeuvres seront effectuées par les participants. L'étude s'intéresse plus particulièrement à la gestion de la ballance saillance-pertinence lors de l'exploration visuelle de l'environnement du parking. Les informations ainsi obtenues devraient contribuer à la conception des systèmes d'aide aux manoeuvres adaptés aux seniors. / One cannot imagine driving without parking manoeuvres since they mark the beginning and the end of each trip. However, physiological and cognitive decline with ageing can increase the difficulty of parking manoeuvring. Our study is organized in two stages. Firstly, a postal survey investigated the parking behaviour among seniors. It provided information about parking habits, needs and difficulties of older drivers. An approach based on Manchester Driving Behaviour Questionnaire lead us to classify four types of parking errors. We also identified factors contributing to the difficulty of parking manoeuvring.Secondly, we studied parking manoeuvring with experimental vehicle and in a driving simulator. In order to examine attentional processes during manoeuvres, we used the MAM model of attention. The salience and the relevance of elements present in the parking were modified. Parking performance was also examined in relation to drivers’ age and their attentional and visual abilities. The salience and the relevance of parking environments interacted with driver’s age and the extent of their total, peripheral and attentional field of view. Drivers with restricted total, peripheral field or attentional field of view can meet more difficulty during manoeuvres when they must share their attention in complex parking environment. A highly salient obstacle can be more easily detected by these drivers. In the presence of a pedestrian, the difficulty of manoeuvring can increase among drivers with restricted total, peripheral field or attentional field of view and decrease among drivers without such restriction. Further research should provide more information on strategies adopted by older drivers during manoeuvring.
32

Introducing complex dependency structures into supervised components-based models / Structures de dépendance complexes pour modèles à composantes supervisées

Chauvet, Jocelyn 19 April 2019 (has links)
Une forte redondance des variables explicatives cause de gros problèmes d'identifiabilité et d'instabilité des coefficients dans les modèles de régression. Même lorsque l'estimation est possible, l'interprétation des résultats est donc extrêmement délicate. Il est alors indispensable de combiner à leur vraisemblance un critère supplémentaire qui régularise l'estimateur. Dans le sillage de la régression PLS, la stratégie de régularisation que nous considérons dans cette thèse est fondée sur l'extraction de composantes supervisées. Contraintes à l'orthogonalité entre elles, ces composantes doivent non seulement capturer l'information structurelle des variables explicatives, mais aussi prédire autant que possible les variables réponses, qui peuvent être de types divers (continues ou discrètes, quantitatives, ordinales ou nominales). La régression sur composantes supervisées a été développée pour les GLMs multivariés, mais n'a jusqu'alors concerné que des modèles à observations indépendantes.Or dans de nombreuses situations, les observations sont groupées. Nous proposons une extension de la méthode aux GLMMs multivariés, pour lesquels les corrélations intra-groupes sont modélisées au moyen d'effets aléatoires. À chaque étape de l'algorithme de Schall permettant l'estimation du GLMM, nous procédons à la régularisation du modèle par l'extraction de composantes maximisant un compromis entre qualité d'ajustement et pertinence structurelle. Comparé à la régularisation par pénalisation de type ridge ou LASSO, nous montrons sur données simulées que notre méthode non seulement permet de révéler les dimensions explicatives les plus importantes pour l'ensemble des réponses, mais fournit souvent une meilleure prédiction. La méthode est aussi évaluée sur données réelles.Nous développons enfin des méthodes de régularisation dans le contexte spécifique des données de panel (impliquant des mesures répétées sur différents individus aux mêmes dates). Deux effets aléatoires sont introduits : le premier modélise la dépendance des mesures relatives à un même individu, tandis que le second modélise un effet propre au temps (possédant donc une certaine inertie) partagé par tous les individus. Pour des réponses Gaussiennes, nous proposons d'abord un algorithme EM pour maximiser la vraisemblance du modèle pénalisée par la norme L2 des coefficients de régression. Puis nous proposons une alternative consistant à donner une prime aux directions les plus "fortes" de l'ensemble des prédicteurs. Une extension de ces approches est également proposée pour des données non-Gaussiennes, et des tests comparatifs sont effectués sur données Poissonniennes. / High redundancy of explanatory variables results in identification troubles and a severe lack of stability of regression model estimates. Even when estimation is possible, a consequence is the near-impossibility to interpret the results. It is then necessary to combine its likelihood with an extra-criterion regularising the estimates. In the wake of PLS regression, the regularising strategy considered in this thesis is based on extracting supervised components. Such orthogonal components must not only capture the structural information of the explanatory variables, but also predict as well as possible the response variables, which can be of various types (continuous or discrete, quantitative, ordinal or nominal). Regression on supervised components was developed for multivariate GLMs, but so far concerned models with independent observations.However, in many situations, the observations are grouped. We propose an extension of the method to multivariate GLMMs, in which within-group correlations are modelled with random effects. At each step of Schall's algorithm for GLMM estimation, we regularise the model by extracting components that maximise a trade-off between goodness-of-fit and structural relevance. Compared to penalty-based regularisation methods such as ridge or LASSO, we show on simulated data that our method not only reveals the important explanatory dimensions for all responses, but often gives a better prediction too. The method is also assessed on real data.We finally develop regularisation methods in the specific context of panel data (involving repeated measures on several individuals at the same time-points). Two random effects are introduced: the first one models the dependence of measures related to the same individual, while the second one models a time-specific effect (thus having a certain inertia) shared by all the individuals. For Gaussian responses, we first propose an EM algorithm to maximise the likelihood penalised by the L2-norm of the regression coefficients. Then, we propose an alternative which rather gives a bonus to the "strongest" directions in the explanatory subspace. An extension of these approaches is also proposed for non-Gaussian data, and comparative tests are carried out on Poisson data.
33

SARIPOD : Système multi-Agent de Recherche Intelligente POssibiliste de Documents Web

Bilel, Elayeb 26 June 2009 (has links) (PDF)
La présente thèse de doctorat en informatique propose un modèle pour une recherche d'information intelligente possibiliste des documents Web et son implémentation. Ce modèle est à base de deux Réseaux Petits Mondes Hiérarchiques (RPMH) et d'un Réseau Possibiliste (RP) : Le premier RPMH consiste à structurer les documents retrouvés en zones denses de pages Web thématiquement liées les unes aux autres. Nous faisons ainsi apparaître des nuages denses de pages qui traitent d'un sujet et des sujets connexes (assez similaires sémantiquement) et qui répondent toutes fortement à une requête. Le second RPMH est celui qui consiste à ne pas prendre les mots-clés tels quels mais à considérer une requête comme multiple en ce sens qu'on ne cherche pas seulement le mot-clé dans les pages Web mais aussi les substantifs qui lui sont sémantiquement proches. Les Réseaux Possibilistes combinent les deux RPMH afin d'organiser les documents recherchés selon les préférences de l'utilisateur. En effet, l'originalité du modèle proposé se décline selon les trois volets suivants qui synthétisent nos contributions : Le premier volet s'intéresse au processus itératif de la reformulation sémantique de requêtes. Cette technique est à base de relations de dépendance entre les termes de la requête. Nous évaluons notamment les proximités des mots du dictionnaire français « Le Grand Robert » par rapport aux termes de la requête. Ces proximités sont calculées par le biais de notre approche de recherche des composantes de sens dans un RPMH de dictionnaire de mots par application d'une méthode basée sur le dénombrement des circuits dans le réseau. En fait, l'utilisateur du système proposé choisit le nombre de mots sémantiquement proches qu'il désire ajouter à chaque terme de sa requête originelle pour construire sa requête reformulée sémantiquement. Cette dernière représente la première partie de son profil qu'il propose au système. La seconde partie de son profil est constituée des choix des coefficients de pertinence possibilistes affectés aux entités logiques des documents de la collection. Ainsi, notre système tient compte des profils dynamiques des utilisateurs au fur et à mesure que ces derniers utilisent le système. Ce dernier est caractérisé par son intelligence, son adaptativité, sa flexibilité et sa dynamicité. Le second volet consiste à proposer des relations de dépendance entre les documents recherchés dans un cadre ordinal. Ces relations de dépendance entre ces documents traduisent les liens sémantiques ou statistiques évaluant les distributions des termes communs à des paires ou ensembles de documents. Afin de quantifier ces relations, nous nous sommes basés sur les calculs des proximités entres ces documents par application d'une méthode de dénombrement de circuits dans le RPMH de pages Web. En effet, les documents peuvent ainsi être regroupés dans des classes communes (groupes de documents thématiquement proches). Le troisième volet concerne la définition des relations de dépendance, entre les termes de la requête et les documents recherchés, dans un cadre qualitatif. Les valeurs affectées à ces relations traduisent des ordres partiels de préférence. En fait, la théorie des possibilités offre deux cadres de travail : le cadre qualitatif ou ordinal et le cadre quantitatif. Nous avons proposé notre modèle dans un cadre ordinal. Ainsi, des préférences entre les termes de la requête se sont ajoutées à notre modèle de base. Ces préférences permettent de restituer des documents classés par préférence de pertinence. Nous avons mesuré aussi l'apport de ces facteurs de préférence dans l'augmentation des scores de pertinence des documents contenant ces termes dans le but de pénaliser les scores de pertinence des documents ne les contenant pas. Pour la mise en place de ce modèle nous avons choisi les systèmes multi-agents. L'avantage de l'architecture que nous proposons est qu'elle offre un cadre pour une collaboration entre les différents acteurs et la mise en œuvre de toutes les fonctionnalités du système de recherche d'information (SRI). L'architecture s'accorde parfaitement avec le caractère intelligent possibiliste et permet de bénéficier des capacités de synergie inhérente entre les différentes composantes du modèle proposé. Dans le présent travail, nous avons donc pu mettre en exergue à travers les expérimentations effectuées l'intérêt de faire combiner les deux RPMH via un réseau possibiliste dans un SRI, ce qui permet d'enrichir le niveau d'exploration d'une collection. Ce dernier n'est pas limité aux documents mais l'étend en considérant les requêtes. En effet, la phase de reformulation sémantique de requête permet à l'utilisateur de profiter des autres documents correspondants aux termes sémantiquement proches des termes de la requête originelle. Ces documents peuvent exister dans d'autres classes des thèmes. En conséquence, une reclassification proposée par le système s'avère pertinente afin d'adapter les résultats d'une requête aux nouveaux besoins des utilisateurs.
34

Composition Dynamique d'Informations dans le Cadre de la Communication Homme Machine – La problématique de la Pertinence dans la CHM

Vaudry, Christophe 16 December 2002 (has links) (PDF)
Dans le cadre d'activités de recherche, de sélection et de lecture de documents numériques, à des fins professionnelles ou personnelles, les utilisateurs sont souvent submergés par l'abondance des informations. Si ces informations arrivent, de plus, en flux continu, les utilisateurs peuvent se retrouver en surcharge de travail. Ce problème se pose de manière accrue en supervision industrielle.<br />Pour aider les utilisateurs à gérer cette surabondance d'information, l'approche proposée est un système prenant l'initiative d'adapter la présentation des informations afin de réduire les efforts nécessaires aux utilisateurs pour percevoir et interpréter ces dernières. La présentation des informations est, dans cette approche, le résultat d'un processus de traitement des informations, la (\it composition), réalisé par un agent, l'Agent Compositeur, qui cherche à coopérer avec les utilisateurs.<br />Après avoir introduit la problématique de l'adaptation de la présentation des informations dans le cadre de la supervision industrielle avec une application concernant la gestion d'un réseau de distribution électrique, un état des recherches concernant les modèles de l'opérateur en supervision, les interfaces adaptatives et les systèmes à initiative mixte est présenté. L'Agent Compositeur est guidé dans ses choix d'adaptation de la présentation par une propriété, la pertinence. Une définition et un modèle formel de la pertinence sont proposés. Ce modèle formel est utilisé pour effectuer une analyse critique du projet européen AMEBICA (Auto-adaptive Multimédia Environment Based on Intelligent Collaborating Agents) auquel nous avons participé et en proposer des améliorations.
35

Modélisation de la pertinence en recherche d'information : modèle conceptuel, formalisation et application

Denos, Nathalie 28 October 1997 (has links) (PDF)
Les systèmes de recherche d'information ont pour fonction de permettre à l'utilisateur d'accéder à des documents qui contribuent à résoudre le problème d'information qui motive sa recherche. Ainsi le système peut être vu comme un instrument de prédiction de la pertinence des documents du corpus pour l'utilisateur. Les indices traditionnellement utilisés par le système pour estimer cette pertinence sont de nature thématique, et sont fournis par l'utilisateur sous la forme d'un ensemble de mots-clés : la requête. Le système implémente donc une fonction de correspondance entre documents et requête qui modélise la dimension thématique de la pertinence. Cependant l'éventail des utilisations et des utilisateurs des systèmes va s'élargissant, de même que la nature des documents présents dans les corpus, qui ne sont plus seulement des documents textuels. Nous tirons deux conséquences de cette évolution. D'une part, l'hypothèse que le facteur thématique de pertinence est prépondérant (et donc seul sujet à modélisation dans les systèmes), ne tient plus. Les autres facteurs, nombreux, de la pertinence interviennent d'une manière telle qu'ils compromettent les performances des systèmes dans le contexte d'une utilisation réelle. Ces autres facteurs dépendent fortement de l'individu et de sa situation de recherche d'information, ce qui remet en cause la conception de la pertinence système comme une fonction de correspondance qui ne prend en compte que les facteurs de la pertinence qui ne dépendent pas de l'utilisateur. D'autre part, la nature de l'utilisation interactive du système contribue à définir la situation de recherche de l'utilisateur, et en cela participe aux performances du système de recherche d'information. Un certain nombre de caractéristiques de l'interaction sont directement liées à la modélisation de la pertinence système et à des préoccupations spécifiques à la problématique de la recherche d'information. Notre thèse s'appuie sur les travaux réalisés sur les facteurs de la pertinence pour un individu, pour définir un modèle de conception de la pertinence système qui prend en compte les facteurs qui relèvent de l'utilisation interactive du système et de la nécessité d'adaptation de la fonction de correspondance à la situation de recherche particulière dans laquelle l'utilisateur se trouve. Ainsi, nous définissons trois nouvelles fonctions du système de recherche d'information, en termes d'utilisation du système : permettre la détection de la pertinence des documents retrouvés, permettre la compréhension des raisons de leur pertinence système, et permettre de procéder à une reformulation du problème d'information dans le cadre d'un processus itératif de recherche. La notion de schéma de pertinence se substitue à celle de requête, en tant qu'interface entre la pertinence système et l'utilisateur. Ce schéma de pertinence intègre deux types de paramètres permettant l'adaptation du système à la situation de recherche : d'une part les paramètres sémantiques, qui recouvrent non seulement la dimension thématique de la pertinence mais aussi d'autres critères de pertinence liés aux caractéristiques indexées des documents, et d'autre part les paramètres pragmatiques qui prennent en compte les facteurs de la pertinence liés aux conditions dans lesquelles l'utilisateur réalise les tâches qui lui incombent dans l'interaction. Nous appliquons ce modèle de conception de la pertinence système dans le cadre d'une application de recherche d'images, dont le corpus est indexé de façon à couvrir plusieurs dimensions de la pertinence outre la dimension thématique. Notre prototype nous permet de montrer comment le système s'adapte en fonction des situations qui se présentent au cours d'une session de recherche.
36

Indexation et interrogation de chemins de lecture en contexte pour la recherche d'information structurée sur le web

Géry, Mathias 24 October 2002 (has links) (PDF)
L'explosion du Web représente un nouveau défi pour la Recherche d'Information (RI). La plupart des systèmes actuels d'accès à l'information sont basés sur des modèles classiques, qui ont été développés pour des documents textuels, atomiques et indépendants et qui ne sont pas adaptés au Web. La structure du Web est un aspect essentiel de la description de l'information. Les travaux qui utilisent cette structure pour la RI simplifient le modèle du Web en un graphe orienté, dont les noeuds sont des pages HTML et les arcs sont des liens hypertextes, sans tenir compte du type des liens. L'objectif de ce travail est de prendre en compte l'impact des liens lors de la phase d'indexation et à la phase d'interrogation d'un système de Recherche d'Information Structurée (SRIS). Le modèle de RI proposé est fondé sur un modèle d'hyperdocuments en contexte considérant quatre facettes de la description d'information sur le Web : le contenu, la structure hiérarchique, la lecture linéaire/déambulatoire et le contexte. Un hyperdocument est modélisé par un contenu au sens des documents structurés, un ensemble de chemins de lecture et un contexte (espace d'information accessible et espace d'information référençant). Un processus d'indexation spécifique est proposé pour chaque facette. L'évaluation de notre système SmartWeb montre l'intérêt de l'information accessible combinée avec le contenu. Puis, à l'aide de collections de test structurées construites automatiquement, nous montrons l'intérêt d'une indexation au niveau des documents structurés et des chemins de lecture. Le modêle est également implanté dans un SRIS complet, montrant ainsi la faisabilité de notre approche dans sa globalité et sur le Web. En particulier, le typage des liens est à la fois un des aspects les plus importants du modèle et une difficulté majeure de sa mise en oeuvre : nous montrons qu'il est possible d'extraire une structure hiérarchique du Web et d'identifier différentes granularités d'information.
37

Des mathématiques pour enseigner : analyse de l'influence des connaissances mathématiques d'enseignants vaudois sur leur enseignement des mathématiques à l'école primaire

Clivaz, Stéphane 14 September 2011 (has links) (PDF)
Ce travail de thèse vise à décrire l'influence des connaissances mathématiques des enseignants primaires sur leur gestion didactique de tâches mathématiques. Il s'appuie sur une comparaison à ce sujet entre enseignants chinois et étatsuniens (Ma, 1999), sur les catégories de connaissances mathématiques pour l'enseignement (Ball, Thames & Phelps, 2008), sur la structuration du milieu et sa déclinaison en niveaux d'activité du professeur (Margolinas, 2002), et sur les critères de pertinence mathématique du professeur élaborés par Bloch (2009). Dans une première partie, des entretiens avec des enseignants vaudois ont permis de mettre en évidence certaines similitudes avec les enseignants interrogés par Ma. Dans une seconde partie, quatre enseignants ont été observés durant leur enseignement de l'algorithme de la multiplication par un nombre à plusieurs chiffres. Les résultats ont été considérés à plusieurs niveaux d'analyse allant jusqu'au grain très fin de la structuration du milieu. Ils font apparaître des liens entre connaissances mathématiques, pertinence et choix didactiques des enseignants.
38

Indexation et recherche de plans vidéo par le contenu sémantique

Souvannavong, Fabrice 06 1900 (has links) (PDF)
Nous abordons dans ce mémoire le problème délicat de l'indexation de plans vidéo et en particulier l'indexation automatique par le contenu sémantique. L'indexation est l'opération qui consiste à extraire une signature numérique ou textuelle qui décrit le contenu de manière précise et concise afin de permettre une recherche efficace dans une base de données. L'aspect automatique de l'indexation est important puisque nous imaginons bien la difficulté d'établir les signatures manuellement sur de grandes quantités de données. Jusqu'à présent les systèmes automatiques d'indexation et de recherche d'images ou de vidéos se sont concentrés sur la description et l'indexation du contenu purement visuel. Les signatures permettaient d'effectuer une recherche principalement sur les couleurs et les textures des images. A présent, le nouveau défi est d'ajouter à ces signatures une description sémantique du contenu de manière automatique. Un éventail des techniques utilisées pour l'indexation du contenu visuel est tout d'abord présenté. Ensuite nous introduisons une méthode pour calculer une signature précise et compacte à partir des régions des images clefs des plans. Il s'agit d'une adaptation de l'analyse de la sémantique latente qui fut initialement introduite pour indexer le texte. La tâche délicate de la recherche par le contenu sémantique est ensuite abordée. Les expériences sont conduites dans le cadre de l'évaluation TRECVID qui nous permet d'obtenir une grande quantité de vidéo avec leurs annotations. Nous poursuivons la classification sémantique en étudiant la fusion de systèmes de classification. Finalement nous introduisons une nouvelle méthode d'apprentissage actif.
39

Littérature et médiation dans "L'enfant de sable" et "La nuit sacrée" de Tahar Ben Jelloun, "La virgen de los sicarios" de Fernando Vallejo et "Le cavalier et son ombre" de Boubacar Boris Diop.

Dissy-Dissy, Yves Romuald 09 March 2012 (has links) (PDF)
Cette thèse propose un discours théorique sur la médiation fictionnelle, notamment dans les romans de notre corpus. Dans une perspective rhétorique, la recherche consiste à étudier le processus de mise en œuvre de la signification dans les œuvres littéraires. La communication y apparaît non pas comme une donnée stable et simple que l'on pourrait réduire à des manifestations formelles ou encore à des contenus sociohistoriques, mais comme un ensemble d'exigences cohérent qui définissent les termes, sinon les modalités d'une coopération entre l'écrivain et le lecteur. La réflexion s'organise en trois parties.La première partie consiste à identifier la question dont l'énoncé romanesque est la réponse. Elle permet d'arborer, sous forme de thème, les grands axes de l'argumentation narrative, partant les enjeux de la communication dans chaque roman.Dans la seconde partie, il s'agit d'analyser les choix formels de l'énoncé et de montrer sur quels modes et à quelle fin idéologique la contribution du lecteur est sollicitée. En fait, c'est la stratégie discursive qui définit la modalité de communication et caractérise le régime de fonctionnement de la médiation dans une œuvre littéraire.L'idée centrale de la troisième partie consiste à montrer la compétence épistémologique qu'un écrivain confère à l'œuvre littéraire et la capacité du lecteur à l'identifier. Les théories qui deviennent des viviers épistémologiques de la littérature apparaissent comme des réductionnismes et de véritables obstacles au plaisir de lire ou de faire résonner avec justesse la signification d'une œuvre d'art.
40

Étude empirique des commentaires et application des techniques de résumé par extraction pour la redocumentation

Haouari, Dorsaf 08 1900 (has links)
La documentation des programmes aide les développeurs à mieux comprendre le code source pendant les tâches de maintenance. Toutefois, la documentation n’est pas toujours disponible ou elle peut être de mauvaise qualité. Le recours à la redocumentation s’avère ainsi nécessaire. Dans ce contexte, nous proposons de faire la redocumentation en générant des commentaires par application de techniques de résumé par extraction. Pour mener à bien cette tâche, nous avons commencé par faire une étude empirique pour étudier les aspects quantitatifs et qualitatifs des commentaires. En particulier, nous nous sommes intéressés à l’étude de la distribution des commentaires par rapport aux différents types d’instructions et à la fréquence de documentation de chaque type. Aussi, nous avons proposé une taxonomie de commentaires pour classer les commentaires selon leur contenu et leur qualité. Suite aux résultats de l’étude empirique, nous avons décidé de résumer les classes Java par extraction des commentaires des méthodes/constructeurs. Nous avons défini plusieurs heuristiques pour déterminer les commentaires les plus pertinents à l’extraction. Ensuite, nous avons appliqué ces heuristiques sur les classes Java de trois projets pour en générer les résumés. Enfin, nous avons comparé les résumés produits (les commentaires produits) à des résumés références (les commentaires originaux) en utilisant la métrique ROUGE. / Programs documentation is very useful to programmers during maintenance tasks, especially for program comprehension. However, the documentation is not always available or it may be badly written. In such cases, redocumentation becomes so necessary. In this work, we propose a redocumentation technique that consists in generating comments by using extraction summary techniques. For this purpose, we conducted an empirical study to analyze the quantitave and qualitative aspects of comments. Particularly, we were interested in studying comment distribution over different types of construct and studying the frequency of documentation for each construct type. We propose a comment taxonomy to classify them according to their content and quality. Given the results of the empirical study, we decided to summarize Java classes by extracting the comments of methods and constructors. We defined several heuristics in order to determine the most relevant comments to be extracted. After that, we applied these heuristics to Java classes from three projects in order to generate summaries. Finally, we compared the generated summaries (generated comments) to the reference ones (original comments) by using the metric ROUGE.

Page generated in 0.4059 seconds