• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Test de logiciels synchrones avec la PLC

Seljimi, Besnik 02 July 2009 (has links) (PDF)
Ce travail porte sur le test fonctionnel, basé sur les spécifications et complètement automatisé des logiciels synchrones. Nous proposons une extension des techniques de test proposées par l'outil Lutess afin de prendre en compte des logiciels qui comportent des entrées/sorties numériques. La génération de données de test est abordée en s'appuyant sur les techniques de programmation par contraintes.<br /><br />Nous avons redéfini les méthodes de guidage de la génération afin de les adapter à ce nouveau contexte numérique. Ainsi, nous proposons, en plus de la génération aléatoire respectant les propriétés invariantes de l'environnement, le guidage du test basé sur des probabilités conditionnelles ou sur des propriétés de sûreté. Des connaissances partielles sur le logiciel, que nous appelons hypothèses de test, peuvent être intégrées dans le processus de génération et contribuer à l'amélioration du pouvoir de détection de fautes du guidage par propriétés de sûreté. Enfin, nous permettons l'utilisation conjointe de plusieurs techniques de guidage dans une même spécification.<br /><br />Une implémentation de ces méthodes de test a été réalisée dans une nouvelle version de l'outil, que nous appelons Lutess V2. L'applicabilité de ces méthodes dans un contexte plus réaliste a été évaluée sur une étude de cas significative d'un contrôleur de niveau d'eau dans une chaudière.
172

Exploitation des techniques de modélisation du GL et de l'IHM pour la création de supports communs entre intervenants de projet de développement de systèmes interactifs et pour la modélisation des situations de travail complexes

Bernonville, Stéphanie 15 December 2008 (has links) (PDF)
Ces travaux s'intéressent aux projets de développement visant l'informatisation des situations de travail complexes où les facteurs humains et organisationnels ont un rôle important et où les enjeux de sécurité sont considérables. De tels projets impliquent la participation d'intervenants provenant de domaines différents tels que les utilisateurs, les représentants utilisateur, les responsables des systèmes d'information, les ergonomes, les concepteurs. Dans ce contexte, la prise en compte des facteurs humains et organisationnels reste encore insuffisante pour la conception des systèmes informatiques, du fait, d'une part des limites des méthodes et modèles proposés par le Génie Logiciel et l'Interaction Homme-Machine pour l'analyse des situations de travail complexes, et d'autre part des collaborations également insuffisantes entre les intervenants au cœur de la conception (ex : ergonomes et concepteurs).<br />Une approche basée sur l'exploitation des techniques de modélisation du GL et de l'IHM comme solutions de modélisation communes pour la création de supports de travail entre intervenants de projet, a été proposée. <br />Une solution de modélisation pour la représentation des problèmes ergonomiques complexes et des recommandations issus des inspections ergonomiques a également été proposée dans le cadre de la thèse. Il s'agit de la méthode ErgoPNets qui combine les réseaux de Petri et l'utilisation de critères ergonomiques.
173

Rôle des clients dans la conception d'innovation radicale : le cas du logiciel

Scheid, Francois 27 February 2009 (has links) (PDF)
Le processus de conception logicielle est marqué par la modularité des architectures produit, qui favorise la conception d'innovations par les utilisateurs. Or, l'innovation logicielle radicale est portée par des petites structures focalisées sur leur technologie propre. Ces logiciels innovants doivent généralement être combinés avec d'autres pour parvenir à des solutions commercialisables. La littérature sur la modularité (Baldwin et Clark, 2000) ne parle pas du processus qui aboutit à l'émergence d'un dominant design modulaire, et ne s'intéresse qu'aux processus de dé-intégration d'architecture produit. Elle ne traite donc pas du processus d'innovation, fondé sur des logiciels indépendants conçus par des firmes différentes, qui aboutit à une solution modulaire multi-acteurs. Des questions se posent alors sur le processus d'innovation qui aboutit à une telle solution. Comment émerge l'architecture nouvelle ? Comment se structure le processus d'innovation ? Quel est le rôle des premiers clients dans ce processus d'innovation radicale multi-acteurs, et comment les associer à celui-ci ? Nous proposons une typologie et des terminologies nouvelles relatives à l'architecture produit d'une innovation logicielle multi-acteurs et à ses différents composants. Nous décrivons l'évolution de cette architecture jusqu'à un stade où sa modularisation est presque achevée, et expliquons les raisons de cette incomplétude. Nous analysons ensuite le processus d'innovation au travers des collaborations interorganisationnelles mises en œuvre, et des interactions qu'elles génèrent. Nous observons ainsi l'émergence d'une structuration de projet. Celle-ci consiste en une définition du pilotage de projet et, en une définition du rôle et des compétences de ses différents acteurs. Enfin, nous revenons sur la nature des apports des premiers clients au processus d'innovation, et discutons la notion de lead user. Nous proposons d'enrichir cette notion au travers de la définition de quatre concepts nouveaux, qui prennent en compte la multiplicité des apports de ces clients au processus d'innovation logicielle radicale multi-acteurs.
174

Développement et validation d'architectures dynamiques

Rolland, Jean-François 12 December 2008 (has links) (PDF)
Dans le cadre de cette thèse, nous nous proposons d'étudier le développement et la validation de systèmes dans un contexte temps réel asynchrone. On a choisi d'utiliser le langage AADL pour ses spécificités issues de l'avionique, domaine proche du spatial, et pour la précision de la description de son modèle d'exécution. Le travail de cette thèse se divise en deux axes principaux : d'une part, on étudie l'utilisation du langage AADL dans le cadre du développement d'un logiciel de vol ; et d'autre part, on présente une version réduite du langage AADL, et la définition formelle de son modèle d'exécution à l'aide du langage TLA+. L'objectif de la première partie est d'envisager l'utilisation d'AADL dans le cadre d'un processus de développement existant dans le domaine du spatial. Dans cette partie, on a cherché à identifier des motifs de conceptions récurrents dans les logiciels de vol. Enfin, on étudie l'expression en AADL des différents éléments de ce processus de développement. La seconde partie comporte la définition d'un mini AADL suffisant pour exprimer la plupart des concepts de parallélisme, de communication et de synchronisation qui caractérisent AADL. La partie formalisation est nécessaire afin de pouvoir vérifier des propriétés dynamiques. En effet, la définition formelle du modèle d'exécution permet de décrire le comportement attendu des modèles AADL. Une fois ce modèle défini, on peut à l'aide d'un vérificateur de modèles (model-checker) animer une modélisation AADL ou aborder la vérification de propriétés dynamiques. Cette étude a par ailleurs été menée dans le cadre de la standardisation du langage AADL.
175

De la réutilisation à l'adaptabilité

Roose, Philippe 27 November 2008 (has links) (PDF)
Depuis plusieurs années, l'évolution naturelle des applications vers la distribution a mis en évidence le besoin d'informations autre que celles uniquement nécessaires aux traitements. C'est ainsi qu'au fil du temps, les concepteurs et développeurs ont dû intégrer à leurs applications des tâches d'acquisition de l'environnement d'exécution permettant ainsi aux applications dans un premier temps de prendre en compte le contexte, puis de devenir « sensibles au contexte » et d'adapter leurs traitements en conséquence puis, dans un second temps, d'évoluer par reconfigurations dynamiques de manière à répondre au mieux aux sollicitations.<br /><br />Le contexte peut se diviser en trois couches. La première appelée « type de contexte » permet de réaliser l'acquisition du contexte, la deuxième, appelée « moyens de mise en œuvre de la gestion du contexte » est chargée de la gestion du contexte, enfin, la troisième couche offre les mécanismes permettant l'adaptation au contexte.<br /><br />Le premier chapitre de ce mémoire est intitulé « Processus de réingénierie » porte principalement sur la première phase d'acquisition des informations contextuelles et plus particulièrement sur les applications totalement (réingénierie) ou partiellement existantes comme les COTS.<br />Dans un premier temps, l'objectif est de réaliser une analyse des informations produites par des modules logiciels afin de prendre en compte mais également de fabriquer (si nécessaire) automatiquement à l'aide de connecteurs - lorsque c'est possible - des informations contextuelles de plus haut niveau. Dans un second temps, je me suis intéressé à l'intégration de Composants sur Etagères (ou COTS Products). L'objectif est ici une analyse des assemblages de COTS sélectionnés afin de s'assurer de la faisabilité du déploiement, et donc de la réalisation de l'application. Nous nous situons ici également dans le domaine de l'acquisition des informations contextuelles dans le sens où nous ne gérons que la phase d'acquisition du contexte et de production d'informations permettant des prises de décisions concernant la possibilité d'assemblage des COTS Products. <br /><br />Le deuxième chapitre intitulé « Outils d'adaptation permettant la prise en compte du contexte » est transversal aux trois couches précédemment présentées. Un modèle de plate-forme de supervision réflexive (Kalinahia) y est présenté afin de proposer les services nécessaires à la gestion du contexte. Un modèle de composant supervisable (Osagaia) ainsi qu'un modèle de connecteur (Korrontea) y est également présenté. Ces deux modèles offrent les mécanismes d'adaptation, de migration et de composition nécessaires à l'adaptation de l'application. <br /><br />Le troisième chapitre intitulé « Contexte et Qualité de service » présente comment la notion de qualité de service, intimement liée à celle de contexte, est intégrée dans nos travaux. En effet, fournir la qualité de service adéquate à un utilisateur ou, plus généralement à une application, demande d'avoir une connaissance à la fois du contexte de l'application mais aussi du contexte de l'utilisateur. Aussi, je propose un modèle formel de la qualité de service selon les deux critères intrinsèques (fonctionnalité) et contextuels (dans et sous quelles conditions).<br /><br />Enfin, le quatrième chapitre « Représentation des applications et de leur qualité de service » a pour objectif de proposer une modélisation d'applications sensibles au contexte ayant pour but d'assurer une qualité de service aux utilisateurs. L'approche formelle utilise des graphes orientés et prend en considération la qualité de service. Les différents graphes proposés vont du niveau conceptuel au niveau d'implantation permettant de générer directement les graphes d'implantation et de déploiement qui seront ensuite utilisés par la plateforme Kalinahia pour la reconfiguration dynamique de l'application. <br />L'objectif étant d'assurer une qualité de service acceptable (la meilleure étant un problème NP-Complet), le contexte de qualité est également pris en compte tout au long de la démarche et surtout lors des étapes de reconfiguration puisque c'est une modification du contexte qui déclenchera la modification du déploiement de l'application. L'objectif est de continuer à assurer une qualité de service « acceptable » malgré le contexte mouvant en provoquant des reconfigurations dynamiques de l'application.
176

Cabri-graphes : un cahier de brouillon interactif pour la théorie des graphes

Baudon, Olivier 07 February 1990 (has links) (PDF)
Cabri-graphes est un environnement logiciel, destine aux chercheurs, étudiants et enseignants en théorie des graphes. La pratique de cette discipline amené a recourir a des représentations graphiques, afin de visualiser les structures mathématiques mises en œuvre; ceci dans le but de les manipuler, de leur appliquer concrètement certaines transformations, afin de vérifier une propriété, conforter ou infirmer une idée, une conjecture. Cette pratique, menée sur un cahier de brouillon traditionnel, souffre de limitations et les résultats ne sont que faiblement garantis. C'est pourquoi nous avons étudié et réalisé un logiciel, alliant la simplicité d'usage d'un environnement interactif à la puissance de l'ordinateur. Cette thèse présente l'ensemble des concepts mathématiques et de génie logiciel ayant servi a la réalisation de ce projet. Nous donnons en particulier l'implémentation d'un générateur de graphes aléatoires, ainsi que quelques applications motivées et réalisées grâce à cet environnement logiciel
177

Étude de la complexité des logiciels de type flots de données en vue de la fiabilité : application à l'atelier logiciel SAGA

Chevalier, Marcel 28 November 1989 (has links) (PDF)
Cette thèse présente une métrique de complexité des logiciels adaptée aux programmes écrits dans un langage de type flots de données. Dans un premier temps, on décrit l'environnement qui a servi de base à cette étude: il s'agit de l'atelier logiciel saga (spécification d'applications et génération automatisée) mis au point par l'entreprise Merlin Gerin, dans lequel les programmes produits sont de type flots de données synchrone, et sont construits grâce a un outil graphique. On décrit ensuite la métrique proposée: celle-ci vise a mesurer la complexité graphique des logiciels considérés. Une campagne de mesures a été conduite sur des applications réelles en cours de développement à Merlin Gerin (département systèmes et électronique de sûreté) pour étudier le comportement empirique de cette métrique. On observe les résultats obtenus conjointement avec d'autres métriques de complexité plus sobres
178

Sur l'approximation et la représentation de surfaces explicites en présence de singularités

Klein, Pascal 29 September 1987 (has links) (PDF)
Développement d'un algorithme de telles surfaces en utilisant la théorie de l'inf-convolution spline. Ceci est réalisé grâce à un choix de base traduisant les discontinuités. Un algorithme original de trace de courbes isovaleurs pour ces surfaces base sur une méthode de suivi des courbes de niveau est présente. Proposition d'un logiciel regroupant différents algorithmes
179

Contribution à la génération automatique de plans de masse

Chaisemartin, Philippe 19 November 1986 (has links) (PDF)
Cette thèse présente l'introduction de méthodes nouvelles dans le domaine de la conception assistée par ordinateur de circuits à haute intégration. A partir de la description d'un ensemble d'individus par la liste de leurs corrélations (ou distances) deux à deux, l'analyse factorielle de données se propose d'en fournir une représentation planaire. Le but de cette thèse est de décrire le cheminement parcouru pour pouvoir utiliser ces méthodes connues depuis longtemps des statisticiens, dans le domaine de la génération de plans de masse. Ainsi, plusieurs idées originales permettant l'utilisation d'algorithmes classiques d'analyse factorielle de données dans le cadre de la CAO de circuits sont présentées. Ces idées sont concrétisées par la réalisation et la présentation d'un logiciel de génération de plans de masse
180

Progiciel INDA pour l'analyse des données : INtelligent Data Analysis

Belaid, Djamel 28 October 1985 (has links) (PDF)
On présente dans ce travail un logiciel interactif sur micro-ordinateur, des méthodes factorielles d'Analyse de Données. Ce logiciel est composé des modules: INDA-CM: module d'aide au choix à l'utilisateur d'une des méthodes proposées. INDA-AD: module d'acquisition des données nécessaires à l'exécution de la méthode choisie. INDA-EM: module d'exécution des méthodes proposées. INDA-GR: module de visualisation à l'écran graphique d'un nuage de points. INDA: programme de gestion des modules précités

Page generated in 0.0542 seconds