• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 19
  • 7
  • Tagged with
  • 107
  • 107
  • 52
  • 40
  • 33
  • 30
  • 28
  • 27
  • 21
  • 19
  • 17
  • 17
  • 15
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Patterns and quality of object-oriented software systems

Khomh, Foutse 04 1900 (has links)
Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité. / Maintenance costs during the past decades have reached more than 70% of the overall costs of object-oriented systems, because of many factors, such as changing software environments, changing users' requirements, and the overall quality of systems. One factor on which we have a control is the quality of systems. Many object-oriented software quality models have been introduced in the literature to help assess and control quality. However, these models usually use metrics of classes (such as number of methods) or of relationships between classes (for example coupling) to measure internal attributes of systems. Yet, the quality of object-oriented systems does not depend on classes' metrics solely: it also depends on the organisation of classes, i.e. the system design that concretely manifests itself through design styles, such as design patterns and antipatterns. In this dissertation, we propose the method DEQUALITE to systematically build quality models that take into account the internal attributes of the systems (through metrics) but also their design (through design patterns and antipatterns). This method uses a machine learning approach based on Bayesian Belief Networks and builds on the results of a series of experiments aimed at evaluating the impact of design patterns and antipatterns on the quality of systems. These experiments, performed on 9 large object-oriented open source systems enable us to draw the following conclusions: • Counter-intuitively, design patterns do not always improve the quality of systems; tangled implementations of design patterns for example significantly affect the structure of classes and negatively impact their change- and fault-proneness. • Classes participating in antipatterns are significantly more likely to be subject to changes and to be involved in fault-fixing changes than other classes. • A non negligible percentage of classes participate in co-occurrences of antipatterns and design patterns in systems. On these classes, design patterns have a positive effect in mitigating antipatterns. We apply and validate our method on three open-source object-oriented systems to demonstrate the contribution of the design of system in quality assessment.
92

Modelling software quality : a multidimensional approach

Vaucher, Stéphane 11 1900 (has links)
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis. / As society becomes ever more dependent on computer systems, there is more and more pressure on development teams to produce high-quality software. Many companies therefore rely on quality models, program suites that analyse and evaluate the quality of other programs, but building good quality models is hard as there are many questions concerning quality modelling that have yet to be adequately addressed in the literature. We analysed quality modelling practices in a large organisation and identified three dimensions where research is needed: proper support of the subjective notion of quality, techniques to track the quality of evolving software, and the composition of quality judgments from different abstraction levels. To tackle subjectivity, we propose using Bayesian models as these can deal with uncertain data. We applied our models to the problem of anti-pattern detection. In a study of two open-source systems, we found that our approach was superior to state of the art rule-based techniques. To support software evolution, we consider scores produced by quality models as signals and the use of signal data-mining techniques to identify patterns in the evolution of quality. We studied how anti-patterns are introduced and removed from systems. Software is typically written using a hierarchy of components, yet quality models do not explicitly consider this hierarchy. As the last part of our dissertation, we present two level quality models. These are composed of three parts: a component-level model, a second model to evaluate the importance of each component, and a container-level model to combine the contribution of components with container attributes. This approach was tested on the prediction of class-level changes based on the quality and importance of its components: methods. It was shown to be more useful than single-level, traditional approaches. To finish, we reapplied this two-level methodology to the problem of assessing web site navigability. Our models could successfully distinguish award-winning sites from average sites picked at random. Throughout the dissertation, we present not only theoretical problems and solutions, but we performed experiments to illustrate the pros and cons of our solutions. Our results show that there are considerable improvements to be had in all three proposed dimensions. In particular, our work on quality composition and importance modelling is the first that focuses on this particular problem. We believe that our general two-level models are only a starting point for more in-depth research.
93

Réseaux bayésiens et apprentissage ensembliste pour l'étude différentielle de réseaux de régulation génétique

Nguyen, Hoai-Tuong 27 January 2012 (has links) (PDF)
Dans les dernières années, les réseaux Bayésiens (RB) sont devenus l'une des méthodes d'apprentissage automatique les plus puissantes permettant de modéliser graphiquement et de manière probabiliste différentes types de systèmes complexes. Un des problèmes communs dans l'apprentissage de la structure des RB est le problème des données de petites tailles. En effet, le résultat de l'apprentissage est sensible au nombre d'échantillons de données. En apprentissage automatique, les méthodes d'apprentissage ensemblistes telles que le bootstrap ou les algorithmes génétiques sont des méthodes souvent utilisées pour traiter le problème de la pauvreté de données. Toutefois, les méthodes existantes se limitent généralement à la fusion d'un ensemble de modèles, mais ne permettent pas de comparer deux ensembles de modèles. Inspiré par les résultats obtenus par les méthodes ensemblistes, nous proposons une nouvelle méthode basée sur le graphe quasi-essentiel (QEG - Quasi-Essential Graph) et l'utilisation d'un test multiple afin de comparer deux ensembles de RB. Le QEG permet de résumer et de visualiser graphiquement un ensemble de RB. Le test multiple permet de vérifier si les différences entre les deux ensembles de RB sont statistiquement significatives et de déterminer la position de ces différences. L'application sur des données synthétiques et expérimentales a démontré les différents intérêts de la méthode proposée dans la reconstruction des réseaux de régulation génétique et perspectivement dans les autres applications avec les données de petites tailles.
94

Gestion dynamique des connaissances de maintenance pour des environnements de production de haute technologie à fort mix produit / Dynamic management of maintenance knowledge for high technology production environments with high product mix

Ben Said, Anis 18 May 2016 (has links)
Le progrès constant des technologies électroniques, la courte durée de vie commerciale des produits, et la diversité croissante de la demande client font de l’industrie du semi-conducteur un environnement de production contraint par le changement continu des mix produits et des technologies. Dans un tel environnement, le succès dépend de la capacité à concevoir et à industrialiser de nouveaux produits rapidement tout en gardant un bon niveau de critères de coût, rendement et temps de cycle. Une haute disponibilité des capacités de production est assurée par des politiques de maintenance appropriées en termes de diagnostic, de supervision, de planification et des protocoles opératoires. Au démarrage de cette étude, l’approche AMDEC (analyse des modes de défaillance, leurs effets et de leur criticité) était seule mobilisée pour héberger les connaissances et le savoir-faire des experts. Néanmoins, la nature évolutive du contexte industriel requiert la mise à jour à des fréquences appropriées de ces connaissances pour adapter les procédures opérationnelles aux changements de comportements des équipements et des procédés. Cette thèse entend montrer que la mise à jour des connaissances peut être organisée en mettant en place une méthodologie opérationnelle basée sur les réseaux bayésiens et la méthode AMDEC. Dans cette approche, les connaissances et les savoir-faire existants sont tout d’abord capitalisés en termes des liens de cause à effet à l’aide de la méthode d’AMDEC pour prioriser les actions de maintenance et prévenir leurs conséquences sur l’équipement, le produit et la sécurité des personnels. Ces connaissances et savoir-faire sont ensuite utilisés pour concevoir des procédures opérationnelles standardisées permettant le partage des savoirs et savoir-faire des experts. Les liens causaux stockés dans l’AMDEC sont modélisés dans un réseau bayésien opérationnel (O-BN), afin de permettre l’évaluation d’efficacité des actions de maintenance et, par là même, la pertinence des connaissances existantes capitalisées. Dans un contexte incertain et très variable, l’exécution appropriée des procédures est mesurée à l’aide des indicateurs standards de performance de maintenance (MPM) et la précision des connaissances existantes en évaluant la précision de l’O-BN. Toute dérive de ces critères conduit à l'apprentissage d'un nouveau réseau bayésien non-supervisé (U-BN) pour découvrir de nouvelles relations causales à partir de données historiques. La différence structurelle entre O-BN et U-BN met en évidence de nouvelles connaissances potentielles qui sont validées par les experts afin de modifier l’AMDEC existante ainsi que les procédures de maintenance associées. La méthodologie proposée a été testée dans un des ateliers de production contraint par un haut mix de produits pour démontrer sa capacité à renouveler dynamiquement les connaissances d’experts et d'améliorer l'efficacité des actions de maintenance. Cette expérimentation a conduit à une diminution de 30% des reprises d’opérations de maintenance attestant une meilleure qualité des connaissances modélisées dans les outils fournis par cette thèse. / The constant progress in electronic technology, the short commercial life of products, and the increasing diversity of customer demand are making the semiconductor industry a production environment constrained by the continuous change of product mix and technologies. In such environment, success depends on the ability to develop and industrialize new products in required competitive time while keeping a good level of cost, yield and cycle time criteria. These criteria can be ensured by high and sustainable availability of production capacity which needs appropriate maintenance policies in terms of diagnosis, supervision, planning and operating protocols. At the start of this study, the FMEA approach (analysis of failure modes, effects and criticality) was only mobilized to capitalize the expert’s knowledge for maintenance policies management. However, the evolving nature of the industrial context requires knowledge updating at appropriate frequencies in order to adapt the operational procedures to equipment and processes behavior changes.This thesis aims to show that the knowledge update can be organized by setting up an operational methodology combine both Bayesian networks and FMEA method. In this approach, existing knowledge and know-how skills are initially capitalized in terms of cause to effect links using the FMEA method in order to prioritize maintenance actions and prevent their consequences on the equipment, the product quality and personal safety. This knowledge and expertise are then used to develop unified operating procedures for expert’s knowledge and know-how sharing. The causal links stored in the FMEA are modeled in an operational Bayesian network (BN-O), in order to enable the assessment of maintenance actions effectiveness and, hence, the relevance of existing capitalized knowledge. In an uncertain and highly variable environment, the proper execution of procedures is measured using standards maintenance performance measurement indicators (MPM). Otherwise, the accuracy of existing knowledge can be assessed as a function of the O-BN model accuracy. Any drift of these criteria leads to learning a new unsupervised Bayesian network (U-BN) to discover new causal relations from historical data. The structural difference between O-BN (built using experts judgments) and U-BN (learned from data) highlights potential new knowledge that need to be analyzed and validated by experts to modify the existing FMEA and update associated maintenance procedures.The proposed methodology has been tested in a production workshop constrained by high product mix to demonstrate its ability to dynamically renew expert knowledge and improve the efficiency of maintenance actions. This experiment led to 30% decrease in failure occurrence due to inappropriate maintenance actions. This is certifying a better quality of knowledge modeled in the tools provided by this thesis.
95

Détection de ruptures multiples dans des séries temporelles multivariées : application à l'inférence de réseaux de dépendance / Multiple change-point detection in multivariate time series : application to the inference of dependency networks

Harlé, Flore 21 June 2016 (has links)
Cette thèse présente une méthode pour la détection hors-ligne de multiples ruptures dans des séries temporelles multivariées, et propose d'en exploiter les résultats pour estimer les relations de dépendance entre les variables du système. L'originalité du modèle, dit du Bernoulli Detector, réside dans la combinaison de statistiques locales issues d'un test robuste, comparant les rangs des observations, avec une approche bayésienne. Ce modèle non paramétrique ne requiert pas d'hypothèse forte sur les distributions des données. Il est applicable sans ajustement à la loi gaussienne comme sur des données corrompues par des valeurs aberrantes. Le contrôle de la détection d'une rupture est prouvé y compris pour de petits échantillons. Pour traiter des séries temporelles multivariées, un terme est introduit afin de modéliser les dépendances entre les ruptures, en supposant que si deux entités du système étudié sont connectées, les événements affectant l'une s'observent instantanément sur l'autre avec une forte probabilité. Ainsi, le modèle s'adapte aux données et la segmentation tient compte des événements communs à plusieurs signaux comme des événements isolés. La méthode est comparée avec d'autres solutions de l'état de l'art, notamment sur des données réelles de consommation électrique et génomiques. Ces expériences mettent en valeur l'intérêt du modèle pour la détection de ruptures entre des signaux indépendants, conditionnellement indépendants ou complètement connectés. Enfin, l'idée d'exploiter les synchronisations entre les ruptures pour l'estimation des relations régissant les entités du système est développée, grâce au formalisme des réseaux bayésiens. En adaptant la fonction de score d'une méthode d'apprentissage de la structure, il est vérifié que le modèle d'indépendance du système peut être en partie retrouvé grâce à l'information apportée par les ruptures, estimées par le modèle du Bernoulli Detector. / This thesis presents a method for the multiple change-points detection in multivariate time series, and exploits the results to estimate the relationships between the components of the system. The originality of the model, called the Bernoulli Detector, relies on the combination of a local statistics from a robust test, based on the computation of ranks, with a global Bayesian framework. This non parametric model does not require strong hypothesis on the distribution of the observations. It is applicable without modification on gaussian data as well as data corrupted by outliers. The detection of a single change-point is controlled even for small samples. In a multivariate context, a term is introduced to model the dependencies between the changes, assuming that if two components are connected, the events occurring in the first one tend to affect the second one instantaneously. Thanks to this flexible model, the segmentation is sensitive to common changes shared by several signals but also to isolated changes occurring in a single signal. The method is compared with other solutions of the literature, especially on real datasets of electrical household consumption and genomic measurements. These experiments enhance the interest of the model for the detection of change-points in independent, conditionally independent or fully connected signals. The synchronization of the change-points within the time series is finally exploited in order to estimate the relationships between the variables, with the Bayesian network formalism. By adapting the score function of a structure learning method, it is checked that the independency model that describes the system can be partly retrieved through the information given by the change-points, estimated by the Bernoulli Detector.
96

Agrégation d'information pour la localisation d'un robot mobile sur une carte imparfaite / Information aggregation for the localization of a mobile robot using a non-perfect map

Delobel, Laurent 04 May 2018 (has links)
La plupart des grandes villes modernes mondiales souffrent des conséquences de la pollution et des bouchons. Une solution à ce problème serait de réglementer l'accès aux centres-villes pour les voitures personnelles en faveur d'un système de transports publics constitués de navettes autonomes propulsées par une énergie n'engendrant pas de pollution gazeuse. Celles-ci pourraient desservir les usagers à la demande, en étant déroutées en fonction des appels de ceux-ci. Ces véhicules pourraient également être utilisés afin de desservir de grands sites industriels, ou bien des sites sensibles dont l'accès, restreint, doit être contrôlé. Afin de parvenir à réaliser cet objectif, un véhicule devra être capable de se localiser dans sa zone de travail. Une bonne partie des méthodes de localisation reprises par la communauté scientifique se basent sur des méthodes de type "Simultaneous Localization and Mapping" (SLAM). Ces méthodes sont capables de construire dynamiquement une carte de l'environnement ainsi que de localiser un véhicule dans une telle carte. Bien que celles-ci aient démontré leur robustesse, dans la plupart des implémentations, le partage d'une carte commune entre plusieurs robots peut s'avérer problématique. En outre, ces méthodes n'utilisent fréquemment aucune information existant au préalable et construisent la carte de leur environnement à partir de zéro.Nous souhaitons lever ces limitations, et proposons d'utiliser des cartes de type sémantique, qui existent au-préalable, par exemple comme OpenStreetMap, comme carte de base afin de se localiser. Ce type de carte contient la position de panneaux de signalisation, de feux tricolores, de murs de bâtiments etc... De telles cartes viennent presque à-coup-sûr avec des imprécisions de position, des erreurs au niveau des éléments qu'elles contiennent, par exemple des éléments réels peuvent manquer dans les données de la carte, ou bien des éléments stockés dans celles-ci peuvent ne plus exister. Afin de gérer de telles erreurs dans les données de la carte, et de permettre à un véhicule autonome de s'y localiser, nous proposons un nouveau paradigme. Tout d'abord, afin de gérer le problème de sur-convergence classique dans les techniques de fusion de données (filtre de Kalman), ainsi que le problème de mise à l'échelle, nous proposons de gérer l'intégralité de la carte par un filtre à Intersection de Covariance Partitionnée. Nous proposons également d'effacer des éléments inexistant des données de la carte en estimant leur probabilité d'existence, calculée en se basant sur les détections de ceux-ci par les capteurs du véhicule, et supprimant ceux doté d'une probabilité trop faible. Enfin, nous proposons de scanner périodiquement la totalité des données capteur pour y chercher de nouveaux amers potentiels que la carte n'intègre pas encore dans ses données, et de les y ajouter. Des expérimentations montrent la faisabilité d'un tel concept de carte dynamique de haut niveau qui serait mise à jour au-vol. / Most large modern cities in the world nowadays suffer from pollution and traffic jams. A possible solution to this problem could be to regulate personnal car access into center downtown, and possibly replace public transportations by pollution-free autonomous vehicles, that could dynamically change their planned trajectory to transport people in a fully on-demand scenario. These vehicles could be used also to transport employees in a large industrial facility or in a regulated access critical infrastructure area. In order to perform such a task, a vehicle should be able to localize itself in its area of operation. Most current popular localization methods in such an environment are based on so-called "Simultaneous Localization and Maping" (SLAM) methods. They are able to dynamically construct a map of the environment, and to locate such a vehicle inside this map. Although these methods demonstrated their robustness, most of the implementations lack to use a map that would allow sharing over vehicles (map size, structure, etc...). On top of that, these methods frequently do not take into account already existing information such as an existing city map and rather construct it from scratch. In order to go beyond these limitations, we propose to use in the end semantic high-level maps, such as OpenStreetMap as a-priori map, and to allow the vehicle to localize based on such a map. They can contain the location of roads, traffic signs and traffic lights, buildings etc... Such kind of maps almost always come with some degree of imprecision (mostly in position), they also can be wrong, lacking existing but undescribed elements (landmarks), or containing in their data elements that do not exist anymore. In order to manage such imperfections in the collected data, and to allow a vehicle to localize based on such data, we propose a new strategy. Firstly, to manage the classical problem of data incest in data fusion in the presence of strong correlations, together with the map scalability problem, we propose to manage the whole map using a Split Covariance Intersection filter. We also propose to remove possibly absent landmarks still present in map data by estimating their probability of being there based on vehicle sensor detections, and to remove those with a low score. Finally, we propose to periodically scan sensor data to detect possible new landmarks that the map does not include yet, and proceed to their integration into map data. Experiments show the feasibility of such a concept of dynamic high level map that could be updated on-the-fly.
97

Contribution à la modélisation Bayésienne de l'état de santé d'un système complexe : application à l'industrie du semi-conducteur / Towards Bayesian Network Methodology for Predicting the equipment Health Factor of Complex Semiconductor Systems

Bouaziz, Mohammed Farouk 27 November 2012 (has links)
Pour maintenir leur compétitivité, les industries du semi-conducteur doivent être en mesure de produire des circuits intégrés en technologies avancées, avec des temps de cycle de plus en plus courts et à des coûts raisonnables. Un des axes d’amélioration réside dans le traitement des défaillances des équipements de production tenus responsables de plus de 50%des rejets produits. Cette thèse se fixe comme objectif de contribuer au développement d’une boucle réactive partant d’une dérive produit à la mise en place d’une solution appropriée tout en assurant un meilleur compromis entre disponibilité des équipements, coûts d’exploitation, qualité et compétitivité du produit. Joignant l’expertise humaine et les événements réels, nous nous sommes proposé ici de développer une méthodologie générique permettant de construire un modèle d’estimation du comportement des équipements de production (Equipment Health Factor EHF) à partir d’un raisonnement mathématique centré sur un formalisme probabiliste. L’approche a été amenée à sa validation expérimentale sur des outils, à base de réseaux Bayésiens, que nous avons développés. Les résultats obtenus amènent des éléments de décision permettant à l’industriel d’intervenir au plus tôt pour envisager par exemple de maintenir l’équipement avant qu’il n’ait dérivé. Cette thèse a été préparée dans le cadre du projet européen IMPROVE en collaboration avec STMicroelectronics, Lfoundry et Probayes / Today, the semiconductor industry must be able to produce Integrated Circuit (IC) withreduced cycle time, improved yield and enhanced equipment effectiveness. Besides thesechallenges IC manufacturers are required to address the products scrap and equipment driftsin a complex and uncertain environment which otherwise shall severely hamper the maximumproduction capacity planned. The objective of this thesis is to propose a generic methodologyto develop a model to predict the Equipment Health Factor (EHF) which will define decisionsupport strategies on maintenance tasks to increase the semiconductor industry performance.So, we are interested here to the problem of equipment failures and drift. We propose apredictive approach based on Bayesian technique allowing intervene early to maintain, forexample, the equipment before its drift. The study presented in this thesis is supported by theIMPROVE European project
98

Patterns and quality of object-oriented software systems

Khomh, Foutse 04 1900 (has links)
No description available.
99

Spatial structures in India in the age of globalisation : a data-driven approach / Les structures spatiales de l'Inde au temps de la globalisation : une approche inductive à partir de données

Perez, Joan 17 December 2015 (has links)
Les pays qui se sont insérés plus tardivement dans l'économie mondiale subissent généralement les effets de la mondialisation de manière accrue.De ce point de vue, les BRIC, comparés aux autres pays émergents, possèdent un certain poids dans l’économie mondiale et représentent doncun potentiel de marché important. Avec une croissance économique qui devrait dans un avenir proche dépasser celle de la Chine, l’Inde sembleêtre un remarquable cas d’étude. Cependant, les clichés persistent dans un pays où deux aspects seulement sont le plus souvent mis en avant.D’une part, l’Inde est considérée comme un nouvel eldorado, un espace où les multinationales essaient de s’implanter en raison de l’augmentationsubstantielle du nombre de consommateurs : «the shining India». D’autre part, l’Inde est aussi souvent décrite comme surpeuplée, massivementpauvre et occupée par une forte présence de taudis, tant dans les espaces urbains que ruraux. Spatialement, un modèle dual pourrait en effet contenir d'un côté une part croissante de la classe moyenne en pleine explosion tandis que d'autres verraient s'accentuer les inégalités économiques et sociales. En revanche, il paraît difficile d'imaginer que deux extrêmes seulement puissent représenter la diversité d'un si grand pays. Dans les faits, l’évolution du secteur tertiaire n’est pas assez rapide pour maintenir un haut niveau d’emploi dans certains espaces urbains,alors qu’un modèle agraire de plus en plus intensif en zones rurales contribue à réduire graduellement le nombre d’employés agricoles et depropriétaires terriens. Par conséquent, l’augmentation générale du niveau de vie ne suivra pas forcément le rythme de croissance économiqueet démographique de l’Inde ; d’autant que les inégalités socio-économiques de ce pays sont déjà accentuées par un système rigide de castes. Ilest nécessaire de rappeler que l’inde est un pays d’ancienne urbanisation dont les premières traces remontent à 2400 AEC. De cette particularitérésulte une histoire riche et complexe. Aujourd’hui, l’Inde est caractérisée par une grande diversité de langues, de religions, de castes, de communautés, de tribus, de traditions, d'espaces sous influences métropolitaines, etc. Peu de pays dans le monde présentenet autant de spécificités. Ces faits soulèvent les questions suivantes : comment est-il possible de visualiser et quantifier les inégalités spatiales d'un pays si large et si complexe ? Quels sont les principaux facteurs qui affectent et/ou engendrent ces inégalités spatiales ? Il pourrait être simpliste d'étudier ces écarts spatiaux seulement au travers d’indicateurs macro économiques tel que le PIB. Ainsi, pour faire face à tant de complexité, un modèle conceptuel nous a permis de sélectionner de manière rigoureuse 55 indicateurs afin de renseigner ces récentes transformations spatiales en cette ère de mondialisation accrue. Cette sélection d’indicateurs a donné naissance à une base de données multicritères composée de données économiques,socio-démographiques, géographiques, sociologiques, culturelles, etc., à l’échelle du district (640 unités spatiales) et entre deux dates: 2001 et 2011. L'hypothèse de cette recherche est la suivante : une approche inductive à partir de ces indicateurs pourrait nous permettre une identificationet une caractérisation a-posteriori de structures spatiales en Inde. / Countries that have experienced a delayed entry within the world economy have usually sustained an enhanced and faster globalisation process. This is the case for BRIC countries which are, compared to other emerging countries, organised on large economies and thus provide a stronger potential market. From this perspective, India appears to be the perfect case study with an economic growth expected to overcome China’s growth in the near future. However, the «clichés» are persistent within a country mostly depicted as bipolar. On the one hand, it is considered as a new eldorado, the «Shining India», a place where multinationals aim to implement themselves due to the substantial increase of the consumer market. At the same time, India is also characterised by overcrowding, the major presence of slum areas and mass poverty, both in urban and rural areas. It is indeed possible that some areas will accommodate a bigger and bigger share of the growing middle class, while others will accentuate economic and social inequalities. Yet, can these extremes be truly representative of the diversity of such a large country? In fact, in some urban oriented spaces, the evolution of the tertiary sector is not strong enough to maintain a high level of employment while in rural spaces; an intensive farming model contributes to gradually reducing the number of labourers and landowners. As a result, the increase of the standard of living related to both economic and demographic growth is not homogeneously distributed over a territory where socio-economic divisions are already made worse by a tight caste system. With evidence dating back to 2400 BCE, it must be remembered that India is a country of old urbanisation. This has given rise to a rich and complex history and India is now home to a variety of languages, religions, castes, communities, tribes, traditions, urbanisation patterns and, more recently, globalisation-related dynamics. Perhaps no other country in the world seems to be characterised by such a great diversity. This begs the following questions: how is it possible to quantify and visualise the spatial gap of such a complex and subcontinent sized country? What are the main drivers affecting this spatial gap? It would indeed be simplistic to study India only through macro-economic indicators such as GDP. To deal with this complexity, a conceptualisation has been performed to strictly select 55 criteria that can affect the transformation sustained by the Indian territory in this enhanced age of globalisation. These selected factors have fed a multi-critera database characterised by aspects coming from economy, geography, sociology, culture etc. at the district scale level (640 spatial units) and on a ten year timeframe (2001-2011). The assumption is as follows: each Indian district can be driven by different factors. The human capacity to understand a complex issue has been reached here since we cannot take into account and at the same time the behaviour of a large number of elements influencing one another. AI Based Algorithm methods (Bayesian and Neural Networks) have thus been resorted to as a good alternative to process a large number of factors. In order to be as accurate as possible and to keep a transversal point of view, the methodology is divided into a robust procedure including fieldwork steps. The results of the models show that the 55 factors interact, bringing the emergence of unobservable factors representative of broader concepts, which find consistency only in the case of India. It also shows that the Indian territory can be segmented into a multitude of sub-spaces. Some of these profiles are close to the caricatured India. However, in most cases, results show a heterogeneous country with sub-spaces possessing a logic of their own and far away from any cliché.
100

Cross-layer self-diagnosis for services over programmable networks / Auto-diagnostic multi-couche pour services sur réseaux programmables

Sánchez Vílchez, José Manuel 07 July 2016 (has links)
Les réseaux actuels servent millions de clients mobiles et ils se caractérisent par équipement hétérogène et protocoles de transport et de gestion hétérogènes, et des outils de gestion verticaux, qui sont très difficiles à intégrer dans leur infrastructure. La gestion de pannes est loin d’être automatisée et intelligent, ou un 40 % des alarmes sont redondantes et seulement un 1 ou 2% des alarmes sont corrélées au plus dans un centre opérationnel. Ça indique qu’il y a un débordement significatif des alarmes vers les adminis-trateurs humains, a comme conséquence un haut OPEX vue la nécessité d’embaucher de personnel expert pour accomplir les tâches de gestion de pannes. Comme conclusion, le niveau actuel d’automatisation dans les tâches de gestion de pannes dans réseaux télécoms n’est pas adéquat du tout pour adresser les réseaux programmables, lesquels promettent la programmation des ressources et la flexibilité afin de réduire le time-to-market des nouveaux services. L’automatisation de la gestion des pannes devient de plus en plus nécessaire avec l’arrivée des réseaux programmables, SDN (Software-Defined Networking), NFV (Network Functions Virtualization) et le Cloud. En effet, ces paradigmes accélèrent la convergence entre les domaines des réseaux et la IT, laquelle accélère de plus en plus la transformation des réseaux télécoms actuels en menant à repenser les opérations de gestion de réseau et des services, en particulier les opérations de gestion de fautes. Cette thèse envisage l’application des principes d’autoréparation en infrastructures basées sur SDN et NFV, en focalisant sur l’autodiagnostic comme facilitateur principal des principes d’autoréparation. Le coeur de cette thèse c’est la conception d’une approche de diagnostic qui soit capable de diagnostiquer de manière continuée les services dynamiques virtualisés et leurs dépendances des ressources virtuels (VNFs et liens virtuels) mais aussi les dépendances de ceux ressources virtuels de la infrastructure physique en-dessous, en prenant en compte la mobilité, la dynamicite, le partage de ressources à l’infrastructure en-dessous / Current networks serve billions of mobile customer devices. They encompass heterogeneous equipment, transport and manage-ment protocols, and vertical management tools, which are very difficult and costly to integrate. Fault management operations are far from being automated and intelligent, where around 40% of alarms are redundant only around 1-2% of alarms are correlated at most in a medium-size operational center. This indicates that there is a significant alarm overflow for human administrators, which inherently derives in high OPEX due to the increasingly need to employ high-skilled people to perform fault management tasks. In conclusion, the current level of automation in fault management tasks in Telcos networks is not at all adequate for programmable networks, which promise a high degree of programmability and flexibility to reduce the time-to-market. Automation on fault management is more necessary with the advent of programmable networks, led by with SDN (Software-Defined Networking), NFV (Network Functions Virtualization) and the Cloud. Indeed, the arise of those paradigms accelerates the convergence between networks and IT realms, which as consequence, is accelerating faster and faster the transformation of cur-rent networks leading to rethink network and service management and operations, in particular fault management operations. This thesis envisages the application of self-healing principles in SDN and NFV combined infrastructures, by focusing on self-diagnosis tasks as main enabler of self-healing. The core of thesis is to devise a self-diagnosis approach able to diagnose at run-time the dynamic virtualized networking services and their dependencies from the virtualized resources (VNFs and virtual links) but also the dependencies of those virtualized resources from the underlying network infrastructure, taking into account the mobility, dynamicity, and sharing of resources in the underlying infrastructure

Page generated in 0.0408 seconds