• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
481

Co-design et raffinement en B BHDL tool, plateforme pourr la conception de composants numériques /

Aljer, Ammar Devienne, Philippe Tison, Sophie. January 2007 (has links)
Reproduction de : Thèse de doctorat : Informatique : Lille 1 : 2004. / Titre provenant de la page de titre du document numérisé. Bibliogr. p. 183-194.
482

Les logiciels de visualisation moléculaire dans l'enseignement des sciences de la vie : conceptions et usages

Dorey, Stanislas 26 October 2012 (has links) (PDF)
Le questionnement initial de ce mémoire s'intéresse, du point de vue du questionnement curriculaire, à l'usage des logiciels de visualisation moléculaire (VM) dans l'enseignement des sciences de la vie et de la Terre (SVT) en France. La réalisation d'une revue de littérature sur l'enseignement à l'aide de la VM a fait émerger que les logiciels de VM peuvent aider à cet enseignement. Cependant, nous n'avons pas trouvé d'étude qui s'intéresse aux usages des logiciels de VM dans l'enseignement. Le terme " usage " se réfère ici à une habitude contrairement au terme " utilisation " qui a une connotation ponctuelle. Ainsi, nous avons mis en place une méthodologie composite en nous appuyant sur les questions curriculaires (Martinand, 2000) afin de mieux connaître les usages des logiciels de VM. Nous avons appréhendé le curriculum prescrit à travers l'analyse des programmes officiels depuis le début des années 1990, l'analyse des sujets du baccalauréat et l'analyse des rapports de concours de recrutement des enseignants (agrégation et CAPES). Nous avons inféré le curriculum potentiel à travers l'étude de manuels scolaires, les formations académiques, les sites académiques, les " traces " trouvées sur le web et des entretiens avec des enseignants. Nous avons inféré le curriculum co-produit à travers des observations en classe et des entretiens avec des enseignants. Enfin, nous avons réalisé un entretien avec un acteur ayant joué un rôle majeur dans l'introduction de ces logiciels afin de mieux comprendre les processus à l'œuvre dans l'usage de ces logiciels. Nous sommes arrivés à la conclusion qu'il semble y avoir une " saturation " de l'usage de ces logiciels. Elle se traduit par un usage ayant peu varié ces dix dernières années qui consiste en un usage pour un ou deux TP par an pour chaque classe du lycée. Les activités qui utilisent ces logiciels semblent être très guidées (protocolaires) et apparaissent mettre très peu l'accent sur l'aspect modèle des représentations moléculaires, se contentant plutôt de donner à voir ces représentations. Alors qu'à l'origine, ces logiciels ont été introduits pour amener les pratiques scientifiques en classe, nous pouvons nous interroger sur cette saturation. Pour savoir si c'était le cas des autres logiciels en SVT, nous avons étudié leur usage en reprenant la méthodologie utilisée précédemment. Ainsi, il apparaît que l'usage de ces logiciels, comme ceux des logiciels de VM, semble réservé à une ou deux séances dans l'année au travers d'activités qui semblent assez protocolaires. Enfin, nous avons noté un contraste entre la volonté affichée d'incorporer les TIC dans l'éducation et un usage que nous avons inféré où cet usage semble en décalage avec les attentes du programme. Nous avons également envisagé la possibilité de penser de nouvelles activités grâce aux pratiques scientifiques de référence en lien avec la VM. Pour cela, nous avons analysé des articles scientifiques, réalisé des entretiens avec des chercheurs et effectué un stage de 3 semaines dans un laboratoire. Il apparaît qu'il semble préférable de se recentrer au lycée sur des activités visant à acquérir les fondamentaux concernant la VM et d'envisager plutôt des activités d'investigation pour le début du supérieur.
483

Ingénierie dirigée par les modèles pour le provisioning d'images de machines virtuelles pour l'informatique en nuage

Le Nhan, Tam 10 December 2013 (has links) (PDF)
Le contexte et la problématique De nos jours, le cloud computing est omniprésent dans la recherche et aussi dans l'industrie. Il est considéré comme une nouvelle génération de l'informatique où les ressources informatiques virtuelles à l'échelle dynamique sont fournies comme des services via l'internet. Les utilisateurs peuvent accéder aux systèmes de cloud utilisant différentes interfaces sur leurs différents dis- positifs. Ils ont seulement besoin de payer ce qu'ils utilisent, respectant le l'accord de service (Service-Layer Agreement) établi entre eux et les fournisseurs de services de cloud. Une des caractéristiques principales du cloud computing est la virtualisation grâce à laquelle toutes les ressources deviennent transparentes aux utilisateurs. Les utilisateurs n'ont plus besoin de contrôler et de maintenir les infrastructures informatiques. La virtualisation dans le cloud computing combine des images de machines virtuelles (VMIs) et des machines physiques où ces images seront déployées. Typiquement, le déploiement d'une telle VMI comprend le démarrage de l'image, l'installation et la configuration des packages définis pas la VMI. Dans les approches traditionnelles, les VMIs sont crées par les experts techniques des fournisseurs de services cloud. Il s'agit des VMIs pré-packagés qui viennent avec des composants pré-installés et pré-configurés. Pour répondre à une requête d'un client, le fournisseur sélectionne une VMI appropriée pour cloner et déployer sur un nœud de cloud. Si une telle VMI n'existe pas, une nouvelle VMI va être créée pour cette requête. Cette VMI pourrait être générée à partir de la VMI existante la plus proche ou être entièrement neuve. Le cycle de vie de l'approvisionnement d'une VMI dans l'approche traditionnelle est décrite dans la Figure 1. Une VMI standard contient normalement plusieurs packages parmi lesquels certains qui ne seront jamais utilisés. Cela vient du fait que la VMI est créée au moment de conception pour le but d'être clonée plus tard. Cette approche a des inconvénients tels que la demande de ressources importantes pour stocker des VMIs ou pour les déployer. De plus, elle requiert le démarrage de plusieurs composants, y compris ceux non utilisés. Particulièrement, à partir du point de vue de gestion de services, il est difficile de gérer la complexité des interdépendances entre les différents composants afin de maintenir les VMIs déployées et de les faire évoluer. Pour résoudre les problèmes énumérés ci-dessus, les fournisseurs de services de cloud pourraient automatiser le processus d'approvisionnement et permettre aux utilisateurs de choisir des VMIs d'une manière flexible en gardant les profites des fournisseur en terme de temps, de ressources, et de coût. Dans cette optique, les fournisseurs devraient considérer quelques préoccupations: (1) Quels packages et dépendances seront déployés? (2) Comment optimiser une configuration en terme de coût, de temps, et de consommation de ressources? (3) Comment trouver la VMI la plus ressemblante et comment l'adapter pour obtenir une nouvelle VMI? (4) Comment éviter les erreurs qui viennent souvent des opérations manuelles? (5) Comment gérer l'évolution de la VMI déployée et l'adapter aux besoins de reconfigurer et de passer automatiquement à l'échelle? A cause de ces exigences, la construction d'un systèmes de gestion de plateformes cloud (PaaS-Platform as a Sevice) est difficile, particulièrement dans le processus d'approvisionnement de VMIs. Cette difficulté requiert donc une approche appropriée pour gérer les VMIs dans les systèmes de cloud computing. Cette méthode fournirait des solutions pour la reconfiguration et le passage automatique à l'échelle. Les défis et les problèmes clés A partir de la problématique, nous avons identifié sept défis pour le développement d'un processus d'approvisionnements dans cloud computing. * C1: Modélisation de la variabilité des options de configuration des VMIs afin de gérer les interdépendances entre les packages logiciels Les différents composants logiciels pourraient requérir des packages spécifiques ou des bibliothèques du système d'exploitation pour une configuration correcte. Ces dépendances doivent être arrangées, sélectionnées, et résolues manuellement pour chaque copie de la VMI standard. D'autre part, les VMIs sont créées pour répondre aux exigences d'utilisateurs qui pourraient partager des sous-besoins en commun. La modélisation de la similitude et de la variabilité des VMIs au regard de ces exigences est donc nécessaire. * C2: Réduction des données transférées via les réseaux pendant le processus d'approvisionnement Afin d'être prêt pour répondre aux requêtes de clients, plusieurs packages sont installés sur la machine virtuelle standard , y compris les packages qui ne seront pas utilisé. Ces packages devront être limités afin de minimaliser la taille des VMIs. * C3: Optimisation de la consommation de ressources pendant l'exécution Dans l'approche traditionnelle, les activités de création et de mise à jour des VMIs requièrent des opérations manuelles qui prennent du temps. D'autre part, tous les packages dans les VMIs, y compris ceux qui ne sont pas utilisés, sont démarrés et occupent donc des ressources. Ces consommations de ressources devraient être optimisées. * C4: Mise à disposition d'un outil interactif facilitant les choix de VMIs des utilisateurs Les fournisseurs de services cloud voudraient normalement donner la flexibilité aux utilisateurs clients dans leurs choix de VMIs. Cependant, les utilisateurs n'ont pas de con- naissances techniques approfondies. Pour cette raison, des outils facilitant les choix sont nécessaires. * C5: Automatisation du déploiement des VMIs Plusieurs opérations du processus d'approvisionnement sont très complexes. L'automatisation de ces opérations peut réduire le temps de déploiement et les erreurs. * C6: Support de la reconfiguration de VMIs pendant leurs exécutions Un des caractéristiques importantes de cloud computing est de fournir des services à la demande. Puisque les demandes évoluent pendant l'exécution des VMIs, les systèmes de cloud devraient aussi s'adapter à ces évolutions des demandes. * C7: Gestion de la topologie de déploiement de VMIs Le déploiement de VMIs ne doit pas seulement tenir en compte multiple VMIs avec la même configuration, mais aussi le cas de multiple VMIs ayant différentes configurations. De plus, le déploiement de VMIs pourrait être réalisé sur différentes plateformes de cloud quand le fournisseur de service accepte une infrastructure d'un autre fournisseur Afin d'adresser ces défis, nous considérons trois problèmes clés pour le déploiement du processus d'approvisionnement de VMIs: 1. Besoin d'un niveau d'abstraction pour la gestion de configurations de VMIs: Une approche appropriée devrait fournir un haut niveau d'abstraction pour la modélisation et la gestion des configurations des VMIs avec leurs packages et les dépendances entre ces packages. Cette abstraction permet aux ingénieurs experts des fournisseurs de services de cloud à spécifier la famille de produits de configurations de VMIs. Elle facilite aussi l'analyse et la modélisation de la similitude et de la variabilité des configurations de VMIs, ainsi que la création des VMIs valides et cohérentes. 2. Besoin d'un niveau d'abstraction pour le processus de déploiement de VMIs: Une ap- proche appropriée pour l'approvisionnement de VMIs devrait fournir une abstraction du processus de déploiement. 3. Besoin d'un processus de déploiement et de reconfiguration automatique: Une approche appropriée devrait fournir une abstraction du processus de déploiement et de reconfigura- tion automatique. Cette abstraction facilite la spécification, l'analyse, et la modélisation la modularité du processus. De plus, l'approche devrait supporter l'automatisation afin de réduire les tâches manuelles qui sont couteuses en terme de performance et contiennent potentiellement des erreurs.
484

Conception d'un dispositif d'aide à la rédaction en FLE par incitations et socialisation

Phoungsub, Montiya 25 November 2013 (has links) (PDF)
Cette recherche, qui relève du domaine de l'apprentissage des langues assisté par ordinateur, se penche sur diverses aides logicielles pouvant faciliter l'activité scripturale en Français Langue Etrangère. Le cadre théorique s'inspire de la linguistique textuelle (Adam, notamment), des travaux portant sur les processus rédactionnels des apprentis-scripteurs, particulièrement en L2 et de l'approche par tâches dans la didactique des langues. Le terrain est constitué d'étudiants thaïlandais de la Section de Français à l'Université de Chiang Maï en Thaïlande, dont le niveau en français se situe entre B1 et B2. Le dispositif d'écriture a été organisé à partir d'une plateforme d'apprentissage en ligne Moodle permettant, d'une part, la présentation de contenus et, d'autre part, la pratique du feedback entre pairs via le forum de la plateforme. Nous avons également expérimenté, dans notre recherche, une aide logicielle à la rédaction, ScribPlus. Cette application, version Internet de logiciels hors-ligne des années 1990 (Scrivere con Word Prof, Gammes d'écriture), vise à développer des compétences de production textuelle chez les apprentis scripteurs par une série d'incitations débouchant sur la génération d'une ébauche de texte. L'ensemble du dispositif (Moodle, ScribPlus, consignes, textes supports) a fait l'objet d'une première mise œuvre et d'un recueil de données ; celles-ci ont été analysées dans le but d'améliorer le dispositif. Il a ainsi été possible de faire une seconde expérience en modifiant certains paramètres, notamment les incitations de ScribPlus et le lien lecture-écriture. Les analyses, de nature essentiellement qualitative, se sont fondées sur le système d'incitations de ScribPlus, sur des entretiens semi-directifs avec les étudiants, sur les productions écrites et les feedbacks laissés sur le forum de ces derniers. Leur but était de dégager les apports et les limites du dispositif d'écriture afin de proposer un certain nombre d'améliorations. Cette recherche relève donc de la recherche-action, voire de la recherche développement.
485

Étude de paramétrisation de l'écoulement dans des composants de circuit de transmission de puissance pneumatique

Ali, Azdasher 04 September 2012 (has links) (PDF)
Le prototypage virtuel des circuits pneumatiques de puissance, par exemple les circuits de freinage des véhicules industriels, constitue un enjeu important en raison de la complexité des écoulements en régime transsonique et des couplages entre les échelles locales et macroscopiques. Ces problèmes sont rencontrés lors de la conception, de la synthèse des commandes et de l'analyse des performances statiques et dynamiques de ces circuits et l'analyse. La mise au point des modèles numériques de ces systèmes induit des coûts et des temps importants par rapport à d'autres systèmes. La démarche proposée dans cette thèse repose sur la construction numérique de bases de données permettant de caractériser le comportement local et macroscopique d'un composant de circuit en fonction de la variation de certains paramètres physiques ou géométriques par rapport à un point de fonctionnement de référence. Les bases de données résultent de l'extrapolation de la solution des équations de Navier Stokes moyennées (RANS) pour le point de référence considéré obtenu à l'aide d'un logiciel de paramétrisation en mécanique des fluides (Turb'Opty). La contribution de cette thèse repose pour l'essentiel dans un travail d'analyse des solutions issues de la paramétrisation dans deux contextes différents: la tuyère De Laval et un élément "coude", des composants élémentaires de circuit. Nous avons montré que ces exemples "simples" conduisent déjà à des difficultés importantes en termes de paramétrisation du problème et du calcul des dérivées des champs aérodynamiques en raison de la taille du problème. Pour pallier cette difficulté, nous avons proposé de déraffiner le maillage et nous avons alors montré que cette démarche conduit parfois à déplacer ou à atténuer certains phénomènes (chocs). La deuxième contribution de ce travail repose sur l'évaluation de la qualité des solutions extrapolées, de leur domaine de validité et la construction des liens entre grandeurs locales et macroscopiques. Nous avons enfin proposé une démarche permettant de reconstruire la caractéristique en débit d'un composant à partir de la détermination de la solution extrapolée pour un nombre limité de points de référence.
486

Intelektinės nuosavybės principų perimamumas reglamentuojant intelektinę nuosavybę elektroninėje erdvėje / The interception of the principals of intelectual property by regulating the intelectual property in the cyberspace

Grambaitė, Gintarė 21 December 2006 (has links)
Resumé Dans ces études sur le droit de la propriété intellectuelle on essaye désigner comment fonctionne l‘interception des principes géneraux de droit d’auteur. Dans le cadre de législation national et international l‘oeuvre qui était créé pendant le travail intellectuel et créatif. Appliqué la protection au droit auteur, le droit du public à l’information viendra protéger les intérets des utilisateurs des oeuvres. Cependent, suite à une évolution récente, le champ de protection du droit d’auteur a été démesurément étendu, ce qui a eu pour effet de remettre en cause cet équilibre, de sorte que le droit public à l’information est à présent insuffisamment pris en compte au sein de la législation du droit d’auteur. En l’espèce on a comparé le droit lituanien avec le droit français pour decouvrir les différences entre les législations, comment on désigne le droit d’auteur, la protection des ces droits appliqués. La question posée: avons-nous réussi dresser le bilan entre les droits d��auteur et les droit des utilisateurs, la question reste encore ouverte, les principes fundamentales sont instaurés dans les normes juridiques, pourtant le jurisprudence doute et ne peut pas décrire les limites des termes.
487

La brevetabilité des logiciels

Laouari, Jérémy January 2005 (has links)
Ce texte a pour ambition d'expliquer les tenants et aboutissants de la brevetabilité des logiciels. Dans cette optique, notre première partie consistera à poser les bases du débat. Cela sera notamment fait en analysant les raisons pour lesquelles la brevetabilité des logiciels a été consacrée. Le texte mettra ainsi l'emphase sur l'inefficacité du droit d'auteur à protéger les logiciels. En outre, l'étude du mécanisme du brevet nous montrera que ce dernier constituait une solution plus adaptée que le droit d'auteur à la protection des logiciels. Ensuite, dans le cadre d'une seconde partie, il s'agira d'analyser le phénomène de la brevetabilité en tant que telle, au travers de notre champ d'étude, en l'occurrence le Canada, les États-Unis et les États européens. Cela consistera tout d'abord à apprécier l'ampleur du phénomène, à savoir s'il s'est plus ou moins développé en fonction de tel(s) ou tel(s) État(s). Les États-Unis ayant pleinement consacré la brevetabilité des logiciels, quand d'autres l'ont plus ou moins rejeté, le texte, se focalisant principalement sur la société américaine, analysera les conséquences engendrées par cette adoption, notamment en terme de concurrence et d'innovation. En outre, afin de pouvoir apprécier l'opportunité de la brevetabilité des logiciels, une comparaison de l'état du système de brevet américain avec les systèmes canadien et français sera nécessaire. Un constat assez pessimiste à l'égard de l'actuelle brevetabilité des logiciels étant alors établi, le texte proposera des aménagements au système des brevets afin que l'innovation et la concurrence dans le secteur du logiciel soit préservée ou rétablie. / The purpose of this text is to explain the issues of software patentability. From this perspective our first part will set up the background of the debate. It will be done in particular by analysing the reasons why software patentability was adopted. The text will thus emphasize the ineffectiveness of copyright in protecting software. Moreover a study of the patent mechanism will reveal that this system is better suited to protect software than copyright is. Next, within the second part we will analyse the patentability phenomenom as it relates to our field of study, namely, Canada, the United States of America and European countries. First of aIl, this will consist in assessing the scope of the phenomenom, that is to say if it is more or less developed in a given country. Insofar as the United States of America has totally accepted the patentability software, while sorne other countries have more or less rejected it, the text, focusing mainly on the American society, will analyse the consequences generated by the adoption of this notion (i.e., the patentability of software), in particular considering competition and innovation. Moreover, in order to evaluate software patentability is a more opportune choice, a comparison between the American patent system with the Canadian and French ones will be necessary. A rather pessimistic conclusion regarding the current acceptance of software patentability being drawn, the text will suggest sorne adjustments to the patent system in order to preserve or restore innovation and competition into the software market. / Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maîtrise en droit (L.LM.)
488

Logiciels de traduction automatique: protection, responsabilité

Côté, André J. 07 1900 (has links)
La présente recherche a pour but de faire le point sur l'état du droit canadien et sur ses perspectives futures en relation avec les œuvres créées par ordinateurs. L'outil terminologique choisi pour notre objectif est le logiciel de traduction automatique multilingue qui, à cause de sa complexité, s'éloigne le plus du programmeur « créateur» et se rapproche le plus d'œuvres qui ne peuvent être directement attribuées aux linguistes et programmeurs. Ces outils et leurs créations seront d'après nous les prochains outils technologiques à confronter le droit. En effet, dans un avenir prévisible, considérant l'évolution technologique, ces logiciels produiront des textes qui bénéficieront d'une valeur commerciale ajoutée et c'est alors que certains feront valoir leurs « droits », non seulement sur les textes mais aussi sur la technologie. Pour atteindre cet objectif, nous débuterons par un retour historique sur la technologie et ses origines. Par la suite, nous ferons une analyse de la protection actuelle accordée aux logiciels, aux banques de données et aux traductions qu'ils produisent. Nous déterminerons ensuite qui sera responsable des textes produits en relation avec le texte d'origine et avec sa résultante au niveau du droit d'auteur et de celui de la responsabilité civile. Cette recherche nous amènera à conclure que le droit actuel est « mésadapté » tant à l'égard de la protection qu'au niveau de la responsabilité. Ces conclusions devront d'après nous imposer un retour aux principes fondamentaux du droit. Ce fondamentalisme légal sera pour nous le prix à payer pour la légitimité. En effet, plus particulièrement concernant le droit d'auteur, nous conclurons qu'il devra cesser d'être le « fourre-tout» du droit de la propriété intellectuelle et redevenir ce qu'il doit être: un droit qui protège la créativité. Cette démarche prospective tirera ses racines du fait que nous serons obligés de conclure que les juristes canadiens ont refusé, à tort à notre point de vue, de renvoyer au monde des brevets les méthodes et procédés nouveaux et inventifs, ce qui donc a introduit des problématiques inutiles qui exacerbent l'incertitude. Finalement, notre cheminement nous dirigera vers le droit de la responsabilité où nous soutiendrons que le fournisseur ne peut actuellement être responsable du texte produit puisqu'il ne participe pas directement aux choix et ne porte pas atteinte au contenu. Voici donc en quelques mots le cœur de notre recherche qui entrouvre une boîte de Pandore. / The aim of this research is to take stock of the state of the Canadian law and its perspectives for the future in relationship with computer-generated work. The terminology tool chosen is the multilingual automatic translation software that, because of its complexity, drifts out of the most from "creative" programs. In fact, it is closer to creations that cannot be directly c1aimed for by linguists and programmers. These tools and their work will be, according to us, the next technological tool to confront the law. Indeed in a foreseeable future, considering technological evolution, these software will produce texts with an added market value and then some people will realize their "interests" not only on texts but also on technology. To achieve this, we will start by a historical return on the technology and its origins. After we will analyse the present protection accorded to software, data banks and translations they create. We will then determine who is responsible for the texts produced in relation with the original text and its resultant at the level of the copyright and that of the third party liability. This study will conclude that the present law is "unsuited" with respect to protection and responsibility. According to us, these conclusions will have to command a return to the fundamental principles of law. This legal fundamentalism will be the price we have to pay for legal sufficiency. Indeed, particularly regarding copyright, we will conclude that it needs to cease being a "rag-bag" for intellectual property law and it needs to become again what it should be : a right that protects creativity. This forward-Iooking approach will take its roots from the fact that we will be obligated to conclude that Canadian jurists have, from our perspective, incorrectly refused to send back to the patent world the methods and processes, new and inventive. As an effect, this has introduced useless problems that exacerbate uncertainty. Finally, our line of thought will direct us to the responsibility law where we will submit that the provider cannot actually be responsible for the text created because he does not participate directly to the choices and he does not go to the content. This is in summary the heart of our study that half-opens a Pandora's box.
489

AURA : a hybrid approach to identify framework evolution

Wu, Wei 02 1900 (has links)
Les cadriciels et les bibliothèques sont indispensables aux systèmes logiciels d'aujourd'hui. Quand ils évoluent, il est souvent fastidieux et coûteux pour les développeurs de faire la mise à jour de leur code. Par conséquent, des approches ont été proposées pour aider les développeurs à migrer leur code. Généralement, ces approches ne peuvent identifier automatiquement les règles de modification une-remplacée-par-plusieurs méthodes et plusieurs-remplacées-par-une méthode. De plus, elles font souvent un compromis entre rappel et précision dans leur résultats en utilisant un ou plusieurs seuils expérimentaux. Nous présentons AURA (AUtomatic change Rule Assistant), une nouvelle approche hybride qui combine call dependency analysis et text similarity analysis pour surmonter ces limitations. Nous avons implanté AURA en Java et comparé ses résultats sur cinq cadriciels avec trois approches précédentes par Dagenais et Robillard, M. Kim et al., et Schäfer et al. Les résultats de cette comparaison montrent que, en moyenne, le rappel de AURA est 53,07% plus que celui des autre approches avec une précision similaire (0,10% en moins). / Software frameworks and libraries are indispensable to today's software systems. As they evolve, it is often time-consuming for developers to keep their code up-to-date. Approaches have been proposed to facilitate this. Usually, these approaches cannot automatically identify change rules for one-replaced-by-many and many-replaced-by-one methods, and they trade off recall for higher precision using one or more experimentally-evaluated thresholds. We introduce AURA (AUtomatic change Rule Assistant), a novel hybrid approach that combines call dependency and text similarity analyses to overcome these limitations. We implement it in a Java system and compare it on five frameworks with three previous approaches by Dagenais and Robillard, M. Kim et al., and Schäfer et al. The comparison shows that, on average, the recall of AURA is 53.07% higher while its precision is similar (0.10% lower).
490

Le Débogage à Distance et la Réflexion dans les Dispositifs à Ressources Limitées

Papoulias, Nikolaos 19 December 2013 (has links) (PDF)
La construction de logiciels pour des appareils qui ne peuvent pas accueillir localement des outils de développement peut être difficile. Ces appareils soit ont une puissance de calcul trop limitée pour exécuter un IDE (par exemple, smartphones), ou manquent d' interfaces d'entrée / sortie appropriées (écran, clavier , souris) pour la programmation (par exemple, les robots mobiles) ou sont tout simplement inaccessibles pour des développements locaux (par exemple cloud - serveurs). Dans ces situations, les développeurs ont besoin d'une infrastructure appropriée pour développer et déboguer des applications distantes. Des solutions de débogage à distance sont parfois délicates à utiliser en raison de leur nature distribuée. Les études empiriques nous montrent que, en moyenne 10,5 minutes par heure de codage (plus de cinq semaines de travail de 40 heures par an) sont passées pour le re-déploiement d'applications pour corriger les bugs ou améliorer leur fonctionnalité [ZeroTurnAround 2011]. En plus, les solutions courantes manquent des aménagements qui seraient autrement disponibles dans un contexte local, car c'est difficile de les reproduire à distance (par exemple débogage objet-centré [Ressia 2012b]). Cet état influe sur la quantité d' expérimentation au cours d'une session de débogage à distance - par rapport à un contexte local. Dans cette thèse, afin de surmonter ces problèmes, nous identifions d'abord quatre propriétés désirables qu'une solution idéale pour le débogage à distance doit présenter : l'interactivité, l'instrumentation, la distribution et la sécurité. L'interactivité est la capacité d'une solution de débogage à distance de mise à jour incrémentale de toutes les parties d'une application sans perdre le contexte de d'exécution (sans arrêter l'application). L'instrumentation est l'aptitude d'une solution de modifier la sémantique d'un processus en cours en vue d'aider le débogage. La distribution est la capacité d'une solution de débogage à adapter son cadre alors que le débogage d'une cible à distance. Enfin la sécurité fait référence à la disponibilité de conditions préalables pour l'authentification et la restriction d'accès. Compte tenu de ces propriétés, nous proposons Mercury, un modèle de débogage à distance et une architecture pour des langues réflexifs à objets. Mercury ouvre (1) l'interactivité grâce à un méta-niveau à distance miroir basé sur un lien de causalité avec sa cible, (2) l'instrumentation à travers une intercession réflective basée sur la réification de l'environnement d'exécution sous-jacent, (3) la distribution grâce à un middleware adaptable et (4) la sécurité par la décomposition et l'authentification de l'accès aux aspects réflexifs. Nous validons notre proposition à travers un prototype dans le langage de programmation Pharo à l'aide d'un cadre expérimental diversifié de multiples dispositifs contraints. Nous illustrons des techniques de débogage à distance supportées par les propriétés de Mercury, tels que le débogage agile distant et l'instrumentation objet à distance et montrons comment ils peuvent résoudre dans la pratique, les problèmes que nous avons identifiés.

Page generated in 0.0268 seconds