• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 97
  • 47
  • 13
  • Tagged with
  • 154
  • 57
  • 30
  • 23
  • 21
  • 20
  • 20
  • 19
  • 19
  • 18
  • 17
  • 17
  • 15
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Analyse subjective et évaluation objective de la qualité perceptuelle des maillages 3D / Perceptual quality assessment : subjective and objective studies

Torkhani, Fakhri 01 December 2014 (has links)
Les maillages 3D polygonaux sont largement utilisés dans diverses applications telles que le divertissement numérique, la conception assistée par ordinateur et l'imagerie médicale. Un maillage peut être soumis à différents types d'opérations comme la compression, le tatouage ou la simplification qui introduisent des distorsions géométriques (modifications) à la version originale. Il est important de quantifier ces modification introduites au maillage d'origine et d'évaluer la qualité perceptuelle des maillages dégradés. Dans ce cadre, on s'intéresse dans cette thèse à l'évaluation de la qualité perceptuelle des maillages 3D statiques et dynamiques. On présente des études expérimentales pour l'évaluation subjective de la qualité des maillages 3D dynamiques.On présente également de nouvelles métriques objectives, de type avec-référence complète ou de type avec référence-réduite, qui sont efficaces pour l'estimation de la qualité perçue des maillages statiques et dynamiques. / 3D mesh animations have been increasingly used in various applications, e.g., in digital entertainment, computer-aided design and medical imaging. It is possible that a mesh model undergoes some lossy operations, e.g., compression, watermarking or simplification, which can impair the original mesh surface and introduce geometric distortions. An important task is to quantify such distortions and assess the perceptual quality of impaired meshes. In this manuscript, we focus on the perceptual quality assessment of 3D static and dynamic meshes. We present psychometric experiments that we conducted to measure the subjective perceptual quality of dynamic meshes. We also present new full-reference and reduced-reference objective metrics capable of faithfully evaluating the perceptual quality of 3D static and dynamic meshes.
62

Utilisation du taux d'erreur binaire pour améliorer la qualité de service dans les réseaux ad hoc / Using bit error rate to improve quality of service in ad hoc networks

Yélémou, Tiguiane 18 December 2012 (has links)
Dans les réseaux sans fil ad hoc, les liens de communication sont sujets à un taux d'erreurimportant. Dans ce contexte, le routage joue un rôle stratégique pour augmenter les performancesdans les transmissions. Dans nos études, par une approche cross-layer, nous prenons en compte lafiabilité des liens dans le choix des routes. Pour cela, dans un premier temps, nous construisonsdeux nouvelles métriques, l'une basée sur le taux d'erreur binaire (au niveau couche physique) etl'autre, plus adaptée à la mesure, sur le nombre de retransmissions (au niveau couche MAC).Ensuite, pour exploiter ces métriques lors du calcul de routes, nous adaptons les algorithmes à labase des protocoles de routage.Les trois familles de protocoles de routage ont été traitées : les protocoles pro-actifs où chaquenoeud a une vision globale du réseau grâce aux échanges périodiques de messages de contrôle detopologie ; les protocoles réactifs où, avant de commencer ses transmissions de données, chaquenoeud doit initier un processus de recherche de route ; les protocoles hybrides qui mixent les deuxapproches.Pour tester l'effectivité de nos améliorations, nous utilisons le simulateur NS2 enrichi par unmodèle de propagation et un modèle de mobilité réalistes. Les paramètres de performance tels quele délai, le taux de livraison de paquets et la charge de routage sont mesurés dans plusieursscénarios représentatifs des conditions d'utilisation. Les résultats obtenus montrent une améliorationsignificative des protocoles standards dans un contexte de qualité de service. / In ad hoc wireless networks, links are error-prone. In this context, routing plays a decisive role inimproving transmission performances. In our studies, by a cross-layer approach, we take intoaccount the reliability of links in route choice. For this, first, we concept two new metrics, onebased on bit error rate (at physical layer) and the other, more suitable for the measurement, onnumber of retransmissions (at MAC layer). Then, to exploit these metrics when determining routes,we adapt the algorithms based routing protocols.The three families of routing protocols have been addressed: proactive protocols where eachnode has a global view of the network through periodic exchanges of topology control messages;reactive protocols where, before starting data transmission, each node must initiate a routediscovery process; hybrid protocols which mix the two approaches.To test the effectiveness of our enhancements, we use the simulator NS.2 enhanced by arealistic propagation model and a realistic mobility model. Performance parameters such as delay,packets delivery ratio and routing load are measured in several scenarios including mobility andmulti-communication. The results show a significant improvement of standard protocols in thequality of service context.
63

Une approche pragmatique pour mesurer la qualité des applications à base de composants logiciels / A pragmatic approach to measure the quality of Component–Based Software Applications

Hamza, Salma 19 December 2014 (has links)
Ces dernières années, de nombreuses entreprises ont introduit la technologie orientée composant dans leurs développements logiciels. Le paradigme composant, qui prône l’assemblage de briques logiciels autonomes et réutilisables, est en effet une proposition intéressante pour diminuer les coûts de développement et de maintenance tout en augmentant la qualité des applications. Dans ce paradigme, comme dans tous les autres, les architectes et les développeurs doivent pouvoir évaluer au plus tôt la qualité de ce qu’ils produisent, en particulier tout au long du processus de conception et de codage. Les métriques sur le code sont des outils indispensables pour ce faire. Elles permettent, dans une certaine mesure, de prédire la qualité « externe » d’un composant ou d’une architecture en cours de codage. Diverses propositions de métriques ont été faites dans la littérature spécifiquement pour le monde composant. Malheureusement, aucune des métriques proposées n’a fait l’objet d’une étude sérieuse quant à leur complétude, leur cohésion et surtout quant à leur aptitude à prédire la qualité externe des artefacts développés. Pire encore, l’absence de prise en charge de ces métriques par les outils d’analyse de code du marché rend impossible leur usage industriel. En l’état, la prédiction de manière quantitative et « a priori » de la qualité de leurs développements est impossible. Le risque est donc important d’une augmentation des coûts consécutive à la découverte tardive de défauts. Dans le cadre de cette thèse, je propose une réponse pragmatique à ce problème. Partant du constat qu’une grande partie des frameworks industriels reposent sur la technologie orientée objet, j’ai étudié la possibilité d’utiliser certaines des métriques de codes "classiques", non propres au monde composant, pour évaluer les applications à base de composants. Parmi les métriques existantes, j’ai identifié un sous-ensemble d’entre elles qui, en s’interprétant et en s’appliquant à certains niveaux de granularité, peuvent potentiellement donner des indications sur le respect par les développeurs et les architectes des grands principes de l’ingénierie logicielle, en particulier sur le couplage et la cohésion. Ces deux principes sont en effet à l’origine même du paradigme composant. Ce sous-ensemble devait être également susceptible de représenter toutes les facettes d’une application orientée composant : vue interne d’un composant, son interface et vue compositionnelle au travers l’architecture. Cette suite de métrique, identifiée à la main, a été ensuite appliquée sur 10 applications OSGi open- source afin de s’assurer, par une étude de leur distribution, qu’elle véhiculait effectivement pour le monde composant une information pertinente. J’ai ensuite construit des modèles prédictifs de propriétés qualité externes partant de ces métriques internes : réutilisation, défaillance, etc. J’ai décidé de construire des modèles qui permettent de prédire l’existence et la fréquence des défauts et les bugs. Pour ce faire, je me suis basée sur des données externes provenant de l’historique des modifications et des bugs d’un panel de 6 gros projets OSGi matures (avec une période de maintenance de plusieurs années). Plusieurs outils statistiques ont été mis en œuvre pour la construction des modèles, notamment l’analyse en composantes principales et la régression logistique multivariée. Cette étude a montré qu’il est possible de prévoir avec ces modèles 80% à 92% de composants fréquemment buggés avec des rappels allant de 89% à 98%, selon le projet évalué. Les modèles destinés à prévoir l’existence d’un défaut sont moins fiables que le premier type de modèle. Ce travail de thèse confirme ainsi l’intérêt « pratique » d’user de métriques communes et bien outillées pour mesurer au plus tôt la qualité des applications dans le monde composant. / Over the past decade, many companies proceeded with the introduction of component-oriented software technology in their development environments. The component paradigm that promotes the assembly of autonomous and reusable software bricks is indeed an interesting proposal to reduce development costs and maintenance while improving application quality. In this paradigm, as in all others, architects and developers need to evaluate as soon as possible the quality of what they produce, especially along the process of designing and coding. The code metrics are indispensable tools to do this. They provide, to a certain extent, the prediction of the quality of « external » component or architecture being encoded. Several proposals for metrics have been made in the literature especially for the component world. Unfortunately, none of the proposed metrics have been a serious study regarding their completeness, cohesion and especially for their ability to predict the external quality of developed artifacts. Even worse, the lack of support for these metrics with the code analysis tools in the market makes it impossible to be used in the industry. In this state, the prediction in a quantitative way and « a priori » the quality of their developments is impossible. The risk is therefore high for obtaining higher costs as a consequence of the late discovery of defects. In the context of this thesis, I propose a pragmatic solution to the problem. Based on the premise that much of the industrial frameworks are based on object-oriented technology, I have studied the possibility of using some « conventional » code metrics unpopular to component world, to evaluate component-based applications. Indeed, these metrics have the advantage of being well defined, known, equipped and especially to have been the subject of numerous empirical validations analyzing the predictive power for imperatives or objects codes. Among the existing metrics, I identified a subset of them which, by interpreting and applying to specific levels of granularity, can potentially provide guidance on the compliance of developers and architects of large principles of software engineering, particularly on the coupling and cohesion. These two principles are in fact the very source of the component paradigm. This subset has the ability to represent all aspects of a component-oriented application : internal view of a component, its interface and compositional view through architecture. This suite of metrics, identified by hand, was then applied to 10 open-source OSGi applications, in order to ensure, by studying of their distribution, that it effectively conveyed relevant information to the component world. I then built predictive models of external quality properties based on these internal metrics : reusability, failure, etc. The development of such models and the analysis of their power are only able to empirically validate the interest of the proposed metrics. It is also possible to compare the « power » of these models with other models from the literature specific to imperative and/or object world. I decided to build models that predict the existence and frequency of defects and bugs. To do this, I relied on external data from the history of changes and fixes a panel of 6 large mature OSGi projects (with a maintenance period of several years). Several statistical tools were used to build models, including principal component analysis and multivariate logistic regression. This study showed that it is possible to predict with these models 80% to 92% of frequently buggy components with reminders ranging from 89% to 98%, according to the evaluated projects. Models for predicting the existence of a defect are less reliable than the first type of model. This thesis confirms thus the interesting « practice » of using common and well equipped metrics to measure at the earliest application quality in the component world.
64

Sur la géométrie des solitons de Kähler-Ricci dans les variétés toriques et horosphériques / On the geometry of Kähler-Ricci solitons on toric and horospherical manifold

Delgove, François 04 April 2019 (has links)
Cette thèse traite des solitons de Kähler-Ricci qui sont des généralisations naturelles des métriques de Kähler-Einstein. Elle est divisée en deux parties. La première étudie la décomposition solitonique de l’espace des champs de vecteurs holomorphes dans le cas des variétés toriques. La seconde partie étudie de manière analytique les variétés horosphériques en redémontrant par la méthode de la continuité l’existence de solitons de Kähler-Ricci sur ces variétés et en calculant après la borne supérieure de Ricci. / This thesis deal with Kähler-Ricci solitons which are natural generalizations of Kähler-Einstein metrics. It is divided into two parts. The first one studies the solitonic decomposition of the space of holomorphic vector spaces in the case of toric manifold. The second one studies is an analytic way the existence of horospherical Kähler-Ricci solitons on those manifolds and then computes the greatest Ricci lower bound.
65

Code optimization based on source to source transformations using profile guided metrics / Optimisation de code basée sur des transformations source-à-source guidées par des métriques issues de profilages

Lebras, Youenn 03 July 2019 (has links)
Le but est de développer d'un cadriciel permettant de définir les transformations de code source que nous jugeons judicieuses et sur la base de métriques dynamiques.Ce cadriciel sera ensuite intégré à la suite d'outil MAQAO, développée à l'UVSQ/ECR.Nous présentons des transformations source-à-source automatique guidées par l'utilisateur ansi que par les métriques dynamiques qui proviennent des différents outils d'analyse de MAQAO, afin de pouvoir travailler à la fois sur des objets sources et binaires.Ce cadriciel peut aussi servir de pré-processeur pour simplifier le développement en permettant d'effectuer certaines transformations simples mais chronophage et sources d'erreurs (i.e.: spécialisation de boucle ou fonction). / Our goal is to develop a framework allowing the definition of source code transformations based on dynamic metrics.This framework be integrated to the MAQAO tool suite developed at the UVSQ / ECR.We present a set of source-to-source transformations guidable by the end user and by the dynamic metrics coming from the various MAQAO tools in order to work at source and binary levels.This framework can also be used as a pre-processor to simplify the development by enabling to perform cleanly and automatically some simple but time-consuming and error-prone transformations (i.e .: loop/function specialization, ...).
66

Courbes et applications optimales à valeurs dans l'espace de Wasserstein / Optimal curves and mappings valued in the Wasserstein space

Lavenant, Hugo 24 May 2019 (has links)
L'espace de Wasserstein est l'ensemble des mesures de probabilité définies sur un domaine fixé et muni de la distance de Wasserstein quadratique. Dans ce travail, nous étudions des problèmes variationnels dans lesquels les inconnues sont des applications à valeurs dans l'espace de Wasserstein.Quand l'espace de départ est un segment, c'est-à-dire quand les inconnues sont des courbes à valeurs dans l'espace de Wasserstein, nous nous intéressons à des modèles où, en plus de l'action des courbes, des termes pénalisant les configurations de congestion sont présents. Nous développons des techniques permettant d'extraire de la régularité à partir de l'interaction entre l'évolution optimale de la densité (minimisation de l'action) et la pénalisation de la congestion, et nous les appliquons à l'étude des jeux à champ moyen et de la formulation variationelle des équations d'Euler.Quand l'espace de départ n'est plus seulement un segment mais un domaine de l'espace euclidien, nous considérons seulement le problème de Dirichlet, c'est-à-dire la minimisation de l'action (qui peut être appelée l'énergie de Dirichlet) parmi toutes les applications dont les valeurs sur le bord du domaine de départ sont fixées. Les solutions sont appelées les applications harmoniques à valeurs dans l'espace de Wasserstein. Nous montrons que les différentes définitions de l'énergie de Dirichlet présentes dans la littérature sont en fait équivalentes; que le problème de Dirichlet est bien posé sous des hypothèses assez faibles; que le principe de superposition est mis en échec lorsque l'espace de départ n'est pas un segment; que l'on peut formuler une sorte de principe du maximum; et nous proposons une méthode numérique pour calculer ces applications harmoniques. / The Wasserstein space is the space of probability measures over a given domain endowed with the quadratic Wasserstein distance. In this work, we study variational problems where the unknowns are mappings valued in the Wasserstein space. When the source space is a segment, i.e. when the unknowns are curves valued in the Wasserstein space, we are interested in models where, in addition to the action of the curves, there are some terms which penalize congested configurations. We develop techniques to extract regularity from the minimizers thanks to the interplay between optimal density evolution (minimization of the action) and penalization of congestion, and we apply them to the study of Mean Field Games and the variational formulation of the Euler equations. When the source space is no longer a segment but a domain of a Euclidean space, we consider only the Dirichlet problem, i.e. the minimization of the action (which can be called the Dirichlet energy) among mappings sharing a fixed value on the boundary of the source space. The solutions are called harmonic mappings valued in the Wasserstein space. We prove that the different definitions of the Dirichlet energy in the literature turn out to be equivalent; that the Dirichlet problem is well-posed under mild assumptions; that the superposition principle fails if the source space is no longer a segment; that a sort of maximum principle holds; and we provide a numerical method to compute these harmonic mappings.
67

Pairwise gossip in CAT(k) metric spaces / Gossip pair-à-pair dans les espaces CAT(k)

Bellachehab, Anass 10 November 2017 (has links)
Cette thèse adresse le problème du consensus dans les réseaux. On étudie des réseaux composés d'agents identiques capables de communiquer entre eux, qui ont une mémoire et des capacités de calcul. Le réseau ne possède pas de nœud central de fusion. Chaque agent stocke une valeur qui n'est pas initialement connue par les autres agents. L'objectif est d'atteindre le consensus, i.e. tous les agents ont la même valeur, d'une manière distribuée. De plus, seul les agents voisins peuvent communiquer entre eux. Ce problème a une longue et riche histoire. Si toutes les valeurs appartiennent à un espace vectoriel, il existe plusieurs protocoles pour résoudre le problème. Une des solutions connues est l'algorithme du gossip qui atteint le consensus de manière asymptotique. C'est un protocole itératif qui consiste à choisir deux nœuds adjacents à chaque itération et de les moyenner. La spécificité de cette thèse est dans le fait que les données stockées par les agents n'appartiennent pas nécessairement à un espace vectoriel, mais à un espace métrique. Par exemple, chaque agent stocke une direction (l'espace métrique est l'espace projectif) ou une position dans un graphe métrique (l'espace métrique est le graphe sous-jacent). Là, les protocoles de gossip mentionnés plus haut n'ont plus de sens car l'addition qui n'est plus disponibles dans les espaces métriques. Cependant, dans les espaces métriques les points milieu ont du sens dans certains cas. Et là ils peuvent se substituer aux moyennes arithmétiques. Dans ce travail, on a compris que la convergence du gossip avec les points milieu dépend de la courbure. On s'est focalisés sur le cas où l'espace des données appartient à une classe d'espaces métriques appelés les espaces CAT(k). Et on a pu démontrer que si les données initiales sont suffisamment "proches" dans un sens bien précis, alors le gossip avec les points milieu - qu'on a appelé le Random Parwise Midpoints- converge asymptotiquement vers un consensus / This thesis deals with the problem of consensus on networks. Networks under study consists of identical agents that can communicate with each other, have memory and computational capacity. The network has no central node. Each agent stores a value that, initially, is not known by other agents. The goal is to achieve consensus, i.e. all agents having the same value, in a fully distributed way. Hence, only neighboring agents can have direct communication. This problem has a long and fruitful history. If all values belong to some vector space, several protocols are known to solve this problem. A well-known solution is the pairwise gossip protocol that achieves consensus asymptotically. It is an iterative protocol that consists in choosing two adjacent nodes at each iteration and average them. The specificity of this Ph.D. thesis lies in the fact that the data stored by the agents does not necessarily belong to a vector space, but some metric space. For instance, each agent stores a direction (the metric space is the projective space) or position on a sphere (the metric space is a sphere) or even a position on a metric graph (the metric space is the underlying graph). Then the mentioned pairwise gossip protocols makes no sense since averaging implies additions and multiplications that are not available in metric spaces: what is the average of two directions, for instance? However, in metric spaces midpoints sometimes make sense and when they do, they can advantageously replace averages. In this work, we realized that, if one wants midpoints to converge, curvature matters. We focused on the case where the data space belongs to some special class of metric spaces called CAT(k) spaces. And we were able to show that, provided initial data is "close enough" is some precise meaning, midpoints-based gossip algorithm – that we refer to as Random Pairwise Midpoints - does converge to consensus asymptotically. Our generalization allows to treat new cases of data spaces such as positive definite matrices, the rotations group and metamorphic systems
68

Geodesics and PDE methods in transport models

Brasco, Lorenzo 11 October 2010 (has links) (PDF)
Cette thèse est dédiée à l'étude des problèmes de transport optimal, alternatifs au problème de Monge-Kantorovich : ils apparaissent naturellement dans des applications pratiques, telles que la conception des réseaux de transport optimal ou la modélisation des problèmes de circulation urbaine. En particulier, nous considérons des problèmes où le coût du transport a une dèpendance non linèaire de la masse : typiquement dans ce type de problèmes, le côut pour déplacer une masse $m$ pour une longueur $\ell$ est $\varphi(m)\, \ell$, où $\varphi$ est une fonction assignée, obtenant ainsi un coût total de type $\sum\varphi(m) \ell$. \par Deux cas importants sont abordés en détail dans ce travail : le cas où la fonction $\varphi$ est subadditive (transport branché), de sorte que la masse a intérêt à voyager ensemble, de manière à réduire le coût total; le cas où $\varphi$ est superadditive (transport congestionné), où au contraire, la masse tend à diffuser autant que possible. \par Dans le cas du transport branché, nous introduisons deux nouveaux modèles: dans le premièr, le transport est décrit par des courbes de mesures de probabilité que minimisent une fonctionnelle de type géodésique (avec un coefficient que pénalise le mesures qui ne sont pas atomiques). Le second est plus dans l'esprit de la formulation de Benamou et Brenier pour les distances de Wasserstein : en particulier, le transport est décrit par paires de ``courbe de mesures--champ de vitesse'', liées par l'équation de continuité, qui minimisent une énergie adéquate (non convexe). Pour les deux modèles, on démontre l'existence de configurations minimales et l'équivalence avec d'autres formulations existantes dans la littèrature. \par En ce qui concerne le cas du transport congestionné, nous passons en revue deux modèles déjà existants, afin de prouver leur équivalence: alors que le premier de ces modèles peut être considéré comme une approche Lagrangienne du problème et il a des liens intéressants avec des questions d'équilibre pour la circulation urbaine, le second est un problème d'optimisation convexe avec contraintes de divergence. \par La preuve de l'équivalence entre les deux modèles constitue le corps principal de la deuxième partie de cette thèse et contient différents éléments d'intérêt, y compris: la théorie des flots des champs de vecteurs peu réguliers (DiPerna-Lions), la construction de Dacorogna et Moser pour les applications de transport et en particulier les résultats de régularité (que nous prouvons ici) pour une équation elliptique très dégénérés, qui ne semble pas avoir été beaucoup étudiée.
69

Estimer, mesurer et corriger les artefacts de compression pour la télévision numérique

Crété-Roffet, Frédérique 29 November 2007 (has links) (PDF)
La compression, nécessaire à la transmission des images numériques diffusées sur les télévisions, est responsable de dégradations appelées artefacts. Pour obtenir des images de meilleure qualité, la correction des artefacts doit être efficace, robuste au large panel dimages diffusées, et simple pour que ces images soient traitées en temps réel avant leur diffusion. Pour obtenir ce compromis, notre étude se divise en 3 axes : l'estimation, la mesure et la correction.<br />En estimant quels sont les artefacts les plus gênants et les risques encourus à les corriger, nous définissons la problématique de ce travail : comment corriger les effets de bloc et de ringing qui sont des artefacts de compression sans risquer de faire apparaître un artefact de correction tel que le flou ?<br />Les métriques objectives, validées par des tests subjectifs, permettent de mesurer ces artefacts. L'étude de l'état de l'art, associée à la modélisation de notre manière de percevoir ces artefacts, nous permet d'aboutir au développement du BLE (Block Level Estimator) et du BluM (Blur Metric), métriques objectives destinées à estimer respectivement leffet de bloc et le flou sur une image. <br />La correction de l'effet de bloc et de l'effet de ringing peut ensuite être guidée et validée par ces métriques. Nous proposons des modules permettant d'améliorer, de rendre plus robustes et d'implémenter facilement les corrections existantes. Puis, pour résoudre la problématique, nous intégrons ces modules dans une solution générale appelée SQDSE (Studio Quality Digital Source Enhancement) destinée à supprimer les effets de bloc et de ringing. La structure du SQDSE et sa validation par des tests visuels et par les résultats du BLE et du BluM montrent que le compromis entre l'efficacité, la robustesse et la simplicité est atteint.
70

Conception des Systèmes d'Information : une approche centrée sur les Patrons de Gestion de la Qualité

Mehmood, Kashif 03 September 2010 (has links) (PDF)
Les modèles conceptuels (MC) jouent un rôle crucial qui est celui de servir de base à l'ensemble du processus de développement d'un système d'information (SI) mais aussi de moyen de communication à la fois au sein de l'équipe de développement et avec les utilisateurs durant les premières étapes de validation. Leur qualité joue par conséquent un rôle déterminant dans le succès du système final. Des études ont montré que la majeure partie des changements que subit un SI concerne des manques ou des défaillances liés aux fonctionnalités attendues. Sachant que la définition de ses fonctionnalités incombe à la phase de l'analyse et conception dont les MC constituent les livrables, il apparaît indispensable pour une méthode de conception de veiller à la qualité des MC qu'elle produit. Notre approche vise les problèmes liés à la qualité de la modélisation conceptuelle en proposant une solution intégrée au processus de développement qui à l'avantage d'être complète puisqu'elle adresse à la fois la mesure de la qualité ainsi que son amélioration. La proposition couvre les aspects suivants: i. Formulation de critères de qualité en fédérant dans un premier temps les travaux existant sur la qualité des MC. En effet, un des manques constaté dans le domaine de la qualité des MC est l'absence de consensus sur les concepts et leurs définitions. Ce travail a été validé par une étude empirique. Ce travail a également permis d'identifier les parties non couverte par la littérature et de les compléter en proposant de nouveaux concepts ou en précisant ceux dont la définition n'était complète. ii. Définition d'un concept (pattern de qualité) permettant de capitaliser les bonnes pratiques dans le domaine de la mesure et de l'amélioration de la qualité des MC. Un pattern de qualité sert à aider un concepteur de SI dans l'identification des critères de qualité applicables à sa spécification, puis de le guider progressivement dans la mesure de la qualité ainsi que dans son amélioration. Sachant que la plupart des approches existantes s'intéresse à la mesure de la qualité et néglige les moyens de la corriger. La définition de ce concept est motivée par la difficulté et le degré d'expertise important qu'exige la gestion de la qualité surtout au niveau conceptuel où le logiciel fini n'est pas encore disponible et face à la diversité des concepts de qualité (critères et métriques) pouvant s'appliquer. iii. Formulation d'une méthode orientée qualité incluant à la fois des concepts, des guides et des techniques permettant de définir les concepts de qualité souhaités, leur mesure et l'amélioration de la qualité des MC. Cette méthode propose comme point d'entrée le besoin de qualité que doit formuler le concepteur. Il est ensuite guidée de manière flexible dans le choix des critères de qualité adaptés jusqu'à la mesure et la proposition de recommandations aidant à l'amélioration de la qualité du MC initial conformément au besoin formulé. iv. Développement d'un prototype "CM-Quality". Notre prototype met en œuvre la méthode proposée et offre ainsi une aide outillé à son application. Nous avons enfin mené deux expérimentations ; la première avait comme objectif de valider les concepts de qualité utilisés et de les retenir. La deuxième visait à valider la méthode de conception guidée par la qualité proposée

Page generated in 0.033 seconds