• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Négociation de contrats dans les systèmes à composants logiciels hiérarchiques

Chang, Hervé 06 December 2007 (has links) (PDF)
Les systèmes logiciels modernes sont caractérisés par leur complexité croissante et les fortes exigences en termes de continuité et de disponibilité des services. Face à cette problématique, des propositions telles que le génie logiciel à composants et l'approche contractuelle constituent des approches pertinentes pour faciliter la construction des systèmes et augmenter leur fiabilité. En outre, les aspects extrafonctionnels des systèmes à l'exécution doivent être constamment mieux gérés, et des techniques qui permettent aux systèmes logiciels de réagir à divers changements et maintenir des qualités satisfaisantes sont requises. La contribution de cette thèse est ainsi un modèle d'auto-adaptation dynamique pour des systèmes logiciels fondés sur ces deux approches. Notre proposition originale consiste à définir un modèle de négociation automatisé de contrats qui permet aux composants contractualisés de conduire eux-mêmes l'auto-adaptation. Le modèle identifie les différents éléments de base permettant aux composants d'effectuer l'adaptation des composants ou des contrats, et chaque processus de négociation exploite diverses informations fines contenues dans les contrats. Des politiques de négociation différentes sont aussi développées pour orienter et fournir plusieurs possibilités de déroulement de négociation. En particulier, un support compositionnel permet de conduire la négociation dans les hiérarchies de composants. Le modèle de négociation s'appuie sur les principes généraux de la plate-forme à composants hiérarchiques Fractal et du modèle de contrats ConFract, et son intégration est effectuée sur ces deux technologies. Les propositions sont illustrées sur des exemples extraits d'un cas d'étude et les premières expérimentations du modèle sont présentées.
352

Corrélation communication/coordination et le taux de succès en TI

Demers, Réal 04 1900 (has links) (PDF)
Chaque année, les entreprises nord-américaines dépensent des milliards de dollars dans des projets en technologies de l'information. Plusieurs de ces projets ne connaitront pas de succès. L'échec n'est pas causé par un manque de ressources financières ou par une mauvaise utilisation des technologies. Une grande partie des projets échouent par manque d'expertise en gestion de projet. Malgré les apparences, la définition du succès en TI n'est pas facile et il n'existe pas de définitions universellement acceptées. Les projets en TI peuvent être classés dans trois grandes catégories : succès, échec et gageure (challenger). L'amélioration des processus de gestion et des processus de développement en génie logiciel ont permis d'augmenter le taux de succès des projets en TI tout en diminuant les coûts. Malgré ces progrès, le taux d'échec demeure élevé. La réalisation et l'implantation d'un projet TI amènent des changements qui doivent être gérés efficacement afin d'assurer l'atteinte de tous les bénéfices escomptés. Le rôle du gestionnaire de projet est de mobiliser et d'utiliser les ressources de l'entreprise afin d'atteindre un objectif spécifique : la livraison des artéfacts pour lesquels le projet a été mis en place. Un projet TI envoie des signes bien avant d'être en situation d'échec. Bien qu'il n'existe pas de liste exhaustive, plusieurs études ont identifié des facteurs critiques ayant un impact sur le taux de succès et/ou d'échec en TI. Ces facteurs peuvent être divisés en deux groupes. Dans le premier groupe, on retrouve les facteurs critiques de succès et, dans le second, les facteurs critiques d'échec. Plusieurs études identifient les facteurs critiques ayant un impact sur le succès d'un projet TI. Ces facteurs sont classés et pondérés par les chercheurs comme s'ils étaient indépendants les uns des autres. Parmi ces facteurs, la communication et coordination est identifiée comme un des facteurs critiques du succès par la littérature. Nous croyons que cette dernière peut être utilisée pour mesurer la tendance générale du projet. Ce facteur a possiblement des impacts importants sur les autres facteurs critiques, ce qui le rend intéressant et digne d'approfondissement. ______________________________________________________________________________
353

Une stratégie de calcul pour l'analyse à l'échelle "micro" des endommagements jusqu'à rupture des composites stratifiés

Violeau, David 29 June 2007 (has links) (PDF)
Les mécanismes de dégradation des composites stratifiés sont aujourd'hui très bien connus mais la simulation jusqu'à rupture reste un challenge majeur. Un nouveau modèle de calcul microscopique hybride a récemment été proposé et permet de prendre en compte tous les modes de dégradations des stratifiés. Le modèle microscopique est hybride et couple à la fois des mécanismes discrets et continus. Celui-ci s'appuie sur l'introduction de surfaces de rupture minimales conférant ainsi au modèle un aspect discret. Un milieu continu endommageable est introduit pour modéliser les dégradations continues à l'échelle du pli. Très simple d'interprétation et reposant sur peu de quantités matériaux à identifier, le modèle n'est viable que s'il est associé à des moyens de calcul performants. Une stratégie multiéchelle avec homogénéisation en espace développée depuis plusieurs années est ici étendue pour traiter des problèmes complexes tridimensionnels et incluant de nombreuses surfaces de contact. Des développements spécifiques associés à la réduction du coût de calcul (taille du problème à résoudre et temps de résolution) ont été menés sur des exemples simples bidimensionnels. Le calcul du critère permettant la propagation des fissures a nécessité également des simplifications importantes. Ces différents points ont été mis en œuvre dans un code de calcul complet écrit en langage C++ dans la plateforme du LMT permettant de traiter des problèmes complexes non-linéaires bidimensionnels ou tridimensionnels et pouvant inclure les effets de l'environnement. Des exemples simples sont réalisés et permettent de simuler des scénarios de dégradation complexes.
354

Spécification et validation d'automatismes logiques interconnectés

Albukerque, Joseph 16 December 1982 (has links) (PDF)
CE MEMOIRE EST COMPOSE DE TROIS CHAPITRES. LE PREMIER POSE LE PROBLEME DE LA SPECIFICATION DES SYSTEMES DE COMMANDE COMPLEXES FORMES D'UN ENSEMBLE D'AUTOMATISMES COMMUNICANTS. APRES AVOIR INTRODUIT LES RESEAUX DE PETRI EN TANT QU'OUTIL FORMEL POUR LA SPECIFICATION, IL EST MONTRE QUE CET OUTIL N'EST PAS CONTRADICTOIRE AVEC UNE APPROCHE STRUCTUREE. QUELQUES REGLES DE STRUCTURATION SONT PROPOSEES. CETTE DEMARCHE EST ILLUSTREE PAR UN EXEMPLE CONCRET. LE SECOND CHAPITRE MONTRE COMMENT UNE SPECIFICATION STRUCTUREE PEUT ETRE VALIDEE. LE TROISIEME CHAPITRE PROPOSE UN LANGAGE DE SPECIFICATION ADAPTE A LA DESCRIPTION STRUCTUREE D'AUTOMATISMES INTERCONNECTES. CE LANGAGE EST FONDE SUR L'UTILISATION DES RESEAUX DE PETRI. UN LOGICIEL D'ANALYSE SYNTAXIQUE ET SEMANTIQUE A ETE DEVELOPPE SUR MICROCALCULATEUR EN LANGAGE PASCAL. CE LOGICIEL TRADUIT LA SPECIFICATION EN TABLES ET EST CONCU DE FACON A PERMETTRE LE TELECHARGEMENT D'AUTOMATES PROGRAMMABLES SPECIALISES
355

Modélisation des comportements erronés du logiciel et application à la validation des tests par injection de fautes

Daran, Muriel 28 October 1996 (has links) (PDF)
Les travaux présentés dans ce mémoire concernent la modélisation des comportements erronés du logiciel et la validation des tests. L'absence d'un modèle des fautes logicielles pose le problème de la confiance que l'on peut accorder aux tests par rapport à l'élimination des fautes dans un programme. Cette confiance serait accrue si on pouvait mesurer la capacité de jeux de tests à révéler des fautes injectées dans un programme. Cependant, les méthodes d'injection de fautes, telles que l'analyse de mutation, suscitent des critiques liées à la représentativité des fautes injectées vis-à-vis de fautes réelles (c'est-à-dire effectivement introduites au cours du développement du logiciel). S'il paraît illusoire de démontrer la représentativité des fautes artificielles, étant donné l'absence d'un modèle de fautes complet et parfait, il nous paraît intéressant d'évaluer la représentativité des erreurs générées par des fautes artificielles vis-à-vis des erreurs dues à des fautes réelles. Les études expérimentales que nous avons menées, portent sur deux programmes séquentiels (appelés ETUD et LOCALES), issus d'applications critiques du nucléaire. Elles ont eu pour objet d'analyser les erreurs générées au cours de l'exécution du logiciel. Nous avons ainsi pu comparer, pour chacun de ces deux programmes, les erreurs et les comportements erronés générés, d'une part par des fautes réelles et, d'autre part par des fautes artificielles (de type mutations). Nos résultats expérimentaux permettent de montrer que les erreurs et les comportements erronés produits par des mutations peuvent être représentatifs de ceux générés par de fautes réelles. La première série d'expériences, sur le programme ETUD, a permis de définir un modèle des comportements erronés, à partir d'une représentation de l'état interne d'un programme en cours d'exécution. Ce modèle permet d'expliquer, par l'analyse des dépendances du programme, les mécanismes de création, d'annulation et de masquage d'erreurs. La deuxième série d'expériences, sur le programme LOCALES, permet d'expliquer les similitudes observées entre divers comportements erronés en appliquant le modèle proposé. En conclusion, la bonne représentativité des erreurs générées par les mutations nous permet de réhabiliter l'analyse de mutation en tant que technique de validation des tests du logiciel et d'en proposer des applications à des fins industrielles.
356

Interactions didactiques et pratiques d'enseignement, le cas de la proportionnalité au collège

Hersant, Magali 04 October 2001 (has links) (PDF)
Dans l'enseignement actuel des mathématiques au collège, la place du cours qui permet d'institutionnaliser et de décontextualiser les savoirs semble réduite. On observe des modalités de cours dialogué qui laissent plus ou moins de responsabilité aux élèves dans la résolution des problèmes et dans la validation des propositions. Par ailleurs, l'utilisation d'un logiciel en autonomie par les élèves pose la question de l'articulation du discours du professeur avec l'activité réelle des élèves et avec les explications données par le logiciel.<br />Nous étudions les pratiques d'enseignement au collège et plus particulièrement les interactions didactiques entre le professeur et les élèves. Nous avons choisi le cas de l'enseignement de la proportionnalité qui est un contenu sur lequel le cours est relativement réduit alors qu'il y a une grande variété d'exercices, ce qui favorise des interactions nombreuses. Pour permettre des comparaisons, nous observons trois contextes : un même professeur avec et sans logiciel, un autre professeur sans logiciel.<br />La recherche s'articule autour de trois analyses. La première apporte des outils pour l'étude des problèmes de proportionnalité donnés en classe et dans le logiciel et permet de comprendre les enjeux de l'enseignement actuel de la proportionnalité. La seconde étudie le logiciel La proportionnalité à travers des problèmes et ses potentialités d'intégration dans l'enseignement de la proportionnalité. La troisième est relative aux pratiques d'enseignement en classe. Pour identifier la façon dont le professeur fait avancer son projet, nous utilisons le cadre de la théorie des situations, notamment la notion de contrat didactique dont nous proposons une structuration, en prolongeant la caractérisation des différents types de contrat de Brousseau (1996). Pour étudier les interactions didactiques, nous avons établi une grille à partir de deux variables essentielles : la fonction didactique de l'interaction (rôle de l'interaction dans le projet du professeur) et son mode (façon de réaliser la fonction). Cette troisième analyse apporte une connaissance fine des pratiques des professeurs observés dans les différents contextes et permet de caractériser le « cours dialogué ».
357

Méthodologie de développement des services de communication temps-réel d'un intergiciel embarqué dans l'automobile

Santos Marques, Ricardo 14 September 2006 (has links) (PDF)
Notre objectif est de proposer une méthodologie pour le développement d'un intergiciel embarqué dans l'automobile offrant des services de communication aux applications. Le cadre d'utilisation de nos travaux est la conception de systèmes embarqués dans les véhicules. Ces applications requièrent un intergiciel capable de fournir des services standards de communication, qui cachent la localisation des participants aux échanges, qui masquent l'hétérogénéité des plates-formes de communication, et qui garantissent le respect des contraintes temporelles imposées sur les échanges et sur l'exécution des participants.<br />La méthodologie proposée vise la conception d'un intergiciel optimisé et pour cela aborde deux aspects : la spécification d'une architecture d'implémentation, et la construction d'une configuration faisable. L'architecture d'implémentation est optimisée dans le sens où l'intergiciel est adapté à l'environnement d'exécution (le système d'exploitation OSEK/VDX OS), et minimise son utilisation des ressources disponibles. Elle apporte une réponse, d'une part, au niveau de la spécification d'une architecture logicielle (construite à l'aide de design patterns), et, d'autre part, à la manière dont cette architecture est déployée sur une plate-forme concrète (sous la forme d'un ensemble de tâches). La procédure proposée pour la construction de la configuration de l'intergiciel calcule les caractéristiques temporelles faisables de l'intergiciel et des trames émises par les stations d'un réseau CAN. Elle prévoit aussi une étape pour le calcul d'une allocation de priorités faisable pour les tâches de l'application sur chaque station. L'optimalité de la configuration est atteinte en assurant le respect de toutes les contraintes temporelles imposées sur les échanges et sur l'exécution des tâches de l'application et de l'intergiciel.
358

L'Intelligence Compétitive 2.0 pour le pilotage des projets e-Marketing

Bruyère, Sébastien 18 October 2010 (has links) (PDF)
Ce projet de recherche appliquée a été initié afin d'optimiser la mesure et le pilotage de la performance e-Marketing dans un contexte évolutif lié aux mutations perpétuelles du Web (réseaux sociaux, Web 2.0 ...) et des modèles d‟affaires associés. Il vise à identifier des solutions organisationnelles et technologiques pour pallier aux difficultés rencontrées par l'équipe e-Marketing de l'agence interactive BleuRoy.com (groupe HighCo) tout en optimisant l'efficacité et la rentabilité des actions menées pour ses clients. Pour ce faire, plusieurs recherches ont été conduites. Dans un premier temps et afin de faire le point sur le sujet, nous avons étudié les différentes notions potentielles sur lesquelles le projet repose. Mais face aux nombreuses définitions éparses et démarches proposées, nous avons utilisé la méthode de méta-analyse afin de synthétiser les résultats. Durant cette étude, nous avons étudié le concept de Web Analytics 2.0 qui se veut être une composante de l'e-Marketing fournissant des techniques et des méthodes pour mesurer les différents vecteurs de communication en ligne. Celui-ci embarque partiellement la notion d'Intelligence Compétitive en se limitant aux aspects de Veille Concurrentielle pour expliquer les variations potentielles des indicateurs clés de performance reportés par les solutions de Web Analytics. Au moyen de la méthode observation participante, nous avons élaboré un état des lieux des techniques et des pratiques en dressant les différentes attentes du projet. A partir de l'ensemble, nous avons pu développer davantage l'Intelligence Compétitive pour l'e-Marketing à travers la proposition du modèle KIM (Knowledge Internet Marketing). L'ingénierie de projet nous a amené à concevoir la plateforme sur la base d'un logiciel Open Source de Web Analytics comportemental préalablement sélectionné au moyen de la méthode OSMM (Open Source Maturity Model) de Capgemini. Face à quelques difficultés pour appréhender les développements, nous avons intégré la méthode des Cas d'Utilisation en complément de l'étude fonctionnelle pour décrire, tester et documenter précisément les différents modules du dispositif d'Intelligence Compétitive à développer Suite à une fusion stratégique de l'entreprise, le projet voit son spectre fonctionnel évoluer et se doit d'appréhender de nouveaux métiers, de nouvelles fonctionnalités. La réorientation du projet est aujourd'hui envisagée notamment grâce à sa conceptualisation fondée sur la notion globale d'Intelligence Compétitive.
359

Identification d’une architecture à base de composants dans une application orientée objets à l’aide d’une analyse dynamique

Allier, Simon 06 1900 (has links)
Un système, décrit avec un grand nombre d'éléments fortement interdépendants, est complexe, difficile à comprendre et à maintenir. Ainsi, une application orientée objet est souvent complexe, car elle contient des centaines de classes avec de nombreuses dépendances plus ou moins explicites. Une même application, utilisant le paradigme composant, contiendrait un plus petit nombre d'éléments, faiblement couplés entre eux et avec des interdépendances clairement définies. Ceci est dû au fait que le paradigme composant fournit une bonne représentation de haut niveau des systèmes complexes. Ainsi, ce paradigme peut être utilisé comme "espace de projection" des systèmes orientés objets. Une telle projection peut faciliter l'étape de compréhension d'un système, un pré-requis nécessaire avant toute activité de maintenance et/ou d'évolution. De plus, il est possible d'utiliser cette représentation, comme un modèle pour effectuer une restructuration complète d'une application orientée objets opérationnelle vers une application équivalente à base de composants tout aussi opérationnelle. Ainsi, La nouvelle application bénéficiant ainsi, de toutes les bonnes propriétés associées au paradigme composants. L'objectif de ma thèse est de proposer une méthode semi-automatique pour identifier une architecture à base de composants dans une application orientée objets. Cette architecture doit, non seulement aider à la compréhension de l'application originale, mais aussi simplifier la projection de cette dernière dans un modèle concret de composant. L'identification d'une architecture à base de composants est réalisée en trois grandes étapes: i) obtention des données nécessaires au processus d'identification. Elles correspondent aux dépendances entre les classes et sont obtenues avec une analyse dynamique de l'application cible. ii) identification des composants. Trois méthodes ont été explorées. La première utilise un treillis de Galois, la seconde deux méta-heuristiques et la dernière une méta-heuristique multi-objective. iii) identification de l'architecture à base de composants de l'application cible. Cela est fait en identifiant les interfaces requises et fournis pour chaque composant. Afin de valider ce processus d'identification, ainsi que les différents choix faits durant son développement, j'ai réalisé différentes études de cas. Enfin, je montre la faisabilité de la projection de l'architecture à base de composants identifiée vers un modèle concret de composants. / A system is complex and particularly difficult to understand and to maintain when it is described with a large number of highly interdependent parties. An object-oriented application is often complex because it uses hundreds or thousands of classes with many different dependencies more or less explicit. The same application, using the component paradigm, contains a smaller number of loosely coupled parties, highly cohesive with clear inter-dependencies. Indeed, because the component paradigm provides a high-level representation, synthetic and well-organized structure of complex systems, it can provide a space of projection for object-oriented applications. Such projection facilitates the step of understanding a system prior to any activity of maintenance and/or evolution. In addition, it is possible to use this representation as a model to perform a complete restructuring of an operational object-oriented application into its equivalent operational component-based application. Thus, the new form of the application benefits from all the good properties associated with the component-oriented paradigm. The goal of my thesis is to propose a semi-automatic approach to identify a component-based architecture in an object-oriented application. This architecture should help in understanding the original application, but also simplifies the projection of the object-oriented application on a concrete component model. The identification of a component-based architecture is achieved in three main steps: i) obtaining data for the identification process. These data, which correspond to dependencies between classes, are obtained with a dynamic analysis of the target application. ii) identification of the components. Three methods were explored. The first uses the formal concept analysis, the second two meta-heuristics and the last a multiobjective meta-heuristic. iii) identification of the component-based architecture representing the target application. This is done by identifying the provided and required interfaces for each component. To validate this identification process, and the different choices made during its development, I realized several case studies. Finally, I show the feasibility of the projection of the identified component-based architecture on a specific component model.
360

Modélisation et mise en œuvre de processus collaboratifs ad hoc

Kedji, Komlan Akpédjé 05 July 2013 (has links) (PDF)
Le développement logiciel est une activité intensément collaborative. Les problématiques habituelles de collaboration (organisation des tâches, utilisation des ressources, communication, etc.) y sont exacerbées par le rythme rapide des changements, la complexité et la grande interdépendance des artéfacts, le volume toujours croissant d'informations de contexte à traiter, la distribution géographique des participants, etc. Par conséquent, la question du support outillé de la collaboration se pose plus fortement que jamais en ingénierie logicielle. Dans cette thèse, nous abordons la question de la collaboration sous l'angle de la modélisation et de l'exploitation des processus de développement. Ces derniers sont traditionnellement considérés comme une structure imposée sur le développement d'un produit logiciel. Cependant, une part importante de la collaboration en génie logiciel est de nature ad hoc, faite d'activités non planifiées. Afin de faire contribuer les processus logiciels au support de la collaboration, en particulier celle non planifiée, nous nous intéressons à leur fonction de banques d'information sur les éléments clés de cette collaboration et les interactions entre ces derniers. Notre contribution est, d'une part, un modèle conceptuel du support au développement collaboratif, capable de rendre compte de la structure d'outils classiques comme ceux de gestion de versions ou de gestion de défauts logiciels. Ce modèle conceptuel est ensuite appliqué aux modèles de processus logiciels. Nous définissons ainsi une approche globale d'exploitation des informations de processus pour le support de la collaboration, basée sur les notions centrales de langage de requête d'information et de mécanisme de réaction aux événements. D'autre part, nous proposons un métamodèle, CMSPEM (Collaborative Model-Based Software & System Process Engineering Metamodel), qui enrichit le standard SPEM (Software & System Process Engineering Metamodel) avec des concepts et relations nécessaires au support de la collaboration. Ce métamodèle est outillé avec des outils de création de modèle (éditeurs graphiques et textuels), et un serveur de processus offrant un langage de requêtes basé sur HTTP/REST et un framework de souscription et de réaction aux événements de processus. Enfin, notre approche conceptuelle a été illustrée et validée, en premier lieu, par une analyse des pratiques inférées à partir des données de développement de 219 projets open source. En second lieu, des utilitaires de support à la collaboration (mise à disposition d'informations conceptuelles, automatisation d'actions, extraction d'information sur les contributions individuelles) ont été implémentés à travers le serveur de processus CMSPEM.

Page generated in 0.0497 seconds