• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 379
  • 167
  • 50
  • 1
  • Tagged with
  • 592
  • 239
  • 177
  • 174
  • 119
  • 111
  • 100
  • 92
  • 91
  • 87
  • 86
  • 84
  • 83
  • 74
  • 71
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Ordonnancement des sauvegardes/reprises d'applications de calcul haute performance dans les environnements dynamiques / Scheduling checkpoint/restart of high performance computing on dynamic environments

Yenke, Blaise Omer 07 January 2011 (has links)
Les avancées technologiques ont conduit les grandes organisations telles que les entreprises,les universités et les instituts de recherche à se doter d'intranets constitués de plusieurs serveurs etd'un grand nombre de postes de travail. Cependant dans certaines de ces organisations, les postes detravail sont très peu utilisés pendant la nuit, les week-ends et les périodes de congés, libérant ainsiune grande puissance de calcul disponible et inutilisée.Dans cette thèse, nous étudions l'exploitation de ces temps de jachère afin d'exécuter desapplications de calcul haute performance. A cet effet, nous supposons que les postes acquis sontrebootés et intégrés à des grappes virtuelles constituées dynamiquement. Toutefois, ces temps dejachère ne permettent pas toujours d'exécuter les applications jusqu'à leur terme. Les mécanismes desauvegarde/reprise (checkpointing) sont alors utilisés pour sauvegarder, dans un certain délai, lecontexte d'exécution des applications en vue d'une éventuelle reprise. Il convient de noter que lasauvegarde de tous les processus dans les délais impartis n'est pas toujours possible. Nousproposons un modèle d'ordonnancement des sauvegardes en parallèle, qui tient compte descontraintes temporelles imposées et des contraintes liées aux bandes passantes (réseau et disque),pour maximiser les temps de calcul déjà effectués pour les applications candidates à la sauvegarde. / The technological advances has led major organizations such as enterprises, universities andresearch institutes to acquire intranets consisting of several servers and many workstations.However, in some of these organizations, the resources are rarely used at nights, weekends and onholidays, thus releasing a large computing power available and unused.This thesis discusses the exploitation of the idle period of workstaions in order to run HPCapplications. The workstations retained are restarted and integrated in dynamically formed clusters.However, the idle periods do not always permit the complete carrying out of the computationsallocated to them. The checkpointing mechanisms are then used to save in a certain period, theexecution context of applications for a possible restart. It is worth nothing that checkpointing all theprocesses in the required period is not always possible. We propose a scheduling model ofcheckpointing in parallel, which takes into account the time constraints imposed and the bandwidthconstraints (network and disk) to maximize the computation time already taken for the applicationswhich are to be checkpointed.
272

Managing the empirical hardness of the ontology reasoning using the predictive modelling / Modélisation prédictive et apprentissage automatique pour une meilleure gestion de la complexité empirique du raisonnement autour des ontologies

Alaya Mili, Nourhene 13 October 2016 (has links)
Multiples techniques d'optimisation ont été implémentées afin de surmonter le compromis entre la complexité des algorithmes du raisonnement et l'expressivité du langage de formulation des ontologies. Cependant les compagnes d'évaluation des raisonneurs continuent de confirmer l'aspect imprévisible et aléatoire des performances de ces logiciels à l'égard des ontologies issues du monde réel. Partant de ces observations, l'objectif principal de cette thèse est d'assurer une meilleure compréhension du comportement empirique des raisonneurs en fouillant davantage le contenu des ontologies. Nous avons déployé des techniques d'apprentissage supervisé afin d'anticiper des comportements futurs des raisonneurs. Nos propositions sont établies sous forme d'un système d'assistance aux utilisateurs d'ontologies, appelé "ADSOR". Quatre composantes principales ont été proposées. La première est un profileur d'ontologies. La deuxième est un module d'apprentissage capable d'établir des modèles prédictifs de la robustesse des raisonneurs et de la difficulté empirique des ontologies. La troisième composante est un module d'ordonnancement par apprentissage, pour la sélection du raisonneur le plus robuste étant donnée une ontologie. Nous avons proposé deux approches d'ordonnancement; la première fondée sur la prédiction mono-label et la seconde sur la prédiction multi-label. La dernière composante offre la possibilité d'extraire les parties potentiellement les plus complexes d'une ontologie. L'identification de ces parties est guidée par notre modèle de prédiction du niveau de difficulté d'une ontologie. Chacune de nos approches a été validée grâce à une large palette d'expérimentations. / Highly optimized reasoning algorithms have been developed to allow inference tasks on expressive ontology languages such as OWL (DL). Nevertheless, reasoning remains a challenge in practice. In overall, a reasoner could be optimized for some, but not all ontologies. Given these observations, the main purpose of this thesis is to investigate means to cope with the reasoner performances variability phenomena. We opted for the supervised learning as the kernel theory to guide the design of our solution. Our main claim is that the output quality of a reasoner is closely depending on the quality of the ontology. Accordingly, we first introduced a novel collection of features which characterise the design quality of an OWL ontology. Afterwards, we modelled a generic learning framework to help predicting the overall empirical hardness of an ontology; and to anticipate a reasoner robustness under some online usage constraints. Later on, we discussed the issue of reasoner automatic selection for ontology based applications. We introduced a novel reasoner ranking framework. Correctness and efficiency are our main ranking criteria. We proposed two distinct methods: i) ranking based on single label prediction, and ii) a multi-label ranking method. Finally, we suggested to extract the ontology sub-parts that are the most computationally demanding ones. Our method relies on the atomic decomposition and the locality modules extraction techniques and employs our predictive model of the ontology hardness. Excessive experimentations were carried out to prove the worthiness of our approaches. All of our proposals were gathered in a user assistance system called "ADSOR".
273

Processus de détermination d'architecture logicielle optimale pour processeurs Multicœurs pour le milieu automobile / Design process for the optimization of embedded software architectures on to multi-core processors in automotive industry

Wang, Wenhao 10 July 2017 (has links)
La migration récente des plateformes mono-cœur vers multi-cœur, dans le domaine automobile, révèle de grands changements dans le processus de développement du logiciel embarqué. Tout d’abord, les concepteurs de logiciel ont besoin de nouvelles méthodes leur permettant de combler le fossé entre la description des applications (versus Autosar) et le déploiement de tâches. Deuxièmement, l’utilisation du multi-cœur doit assurer la compatibilité avec les contraintes liées aux aspects temps-réel et à la Sûreté de fonctionnement. Au final, les développeurs ont besoins d’outils pour intégrer de nouveaux modules dans leur système multi-cœur. Confronter aux complexités ci-dessus, nous avons proposé une méthodologie afin de repartir, de manière optimale, les applications sous forme de partitions logiques. Nous avons ainsi intégré dans notre processus de développement, un outil de distribution des traitements d’un système embarqué sur différents processeurs et compatible avec le standard AUTOSAR (AUTomotive Open System ARchitecture). Les solutions de partitionnement traitent simultanément l’allocation des applications ainsi que la politique d’ordonnancement. Le périmètre d’étude du partitionnement est automatique, les solutions trouvées étant évaluées par nos fonctions de coût. Elles prennent aussi en compte des critères tels que, le coût de communication inter-cœur, l’équilibrage de la charge CPU entre les cœurs et la gigue globale. Pour la partie ordonnancement, nous présentons une formalisation des dépendances sous forme périodiques pour répondre au besoin automobile. L’algorithme d’ordonnancement proposé prend en compte cette spécificité ainsi que les contraintes temps-réel et fonctionnelles, assurant l’applicabilité de notre méthodologie dans un produit industriel. Nous avons expérimenté nos solutions avec une application de type contrôle moteur, sur une plateforme matérielle multi-cœur. / The recent migration from single-core to multi-core platforms in the automotive domain reveals great challenges for the legacy embedded software design flow. First of all, software designers need new methods to fill the gap between applications description and tasks deployment. Secondly, the use of multiple cores has also to remain compatible with real-time and safety design constraints. Finally, developers need tools to assist them in the new steps of the design process. Face to these issues, we proposed a method integrated in the AUTOSAR (AUTomotive Open System ARchitecture) design flow for partitioning the automotive applications onto multi-core systems. The method proposes the partitions solution that contains allocation of application as well as scheduling policy simultaneously. The design space of the partitioning is explored automatically and the solutions are evaluated thanks to our proposed objective functions that consider certain criteria such as communication overhead and global jitters. For the scheduling part, we present a formalization of periodic dependencies adapted to this automotive framework and propose a scheduling algorithm taking into account this specificity. Our defined constraints from real-time aspect as well as functional aspect make sure the applicability of our method on the real life user case. We leaded experiments with a complex and real world control application onto a concrete multi-core platform.
274

Accélération matérielle pour la traduction dynamique de programmes binaires / Hardware acceleration of dynamic binary translation

Rokicki, Simon 17 December 2018 (has links)
Cette thèse porte sur l’utilisation de techniques d’accélération matérielle pour la conception de processeurs basés sur l’optimisation dynamique de binaires. Dans ce type de machine, les instructions du programme exécuté par le processeur sont traduites et optimisées à la volée par un outil de compilation dynamique intégré au processeur. Ce procédé permet de mieux exploiter les ressources du processeur cible, mais est délicate à exploiter car le temps de cette recompilation impacte de manière très significative l’effet global de ces optimisations. Dans cette thèse, nous montrons que l’utilisation d’accélérateurs matériels pour certaines étapes clés de cette compilation (construction de la représentation intermédiaire, ordonnancement des instructions), permet de ramener le temps de compilation à des valeurs très faible (en moyenne 6 cycles par instruction, contre plusieurs centaines dans le cas d’une mise en œuvre classique). Nous avons également montré comment ces techniques peuvent être exploitées pour offrir de meilleurs compromis performance/consommation sur certains types de noyaux de calculs. La thèse à également débouché sur la mise à disposition de la communauté de recherche du compilateur développé. / This thesis is focused on the hardware acceleration of processors based on Dynamic Binary Translation. Such architectures execute binaries by translating and optimizing each instruction at run-time, thanks to a DBT toolchain embedded in the system. This process leads to a better ressource utilization but also induces execution time overheads, which affect the overall performances. During this thesis, we've shown that the use of hardware components to accelerate critical parts of the DBT process (First translation, generation of an intermediate representation and instruction scheduling) drastically reduce the compilation time (around 6 cycles to schedule one instruction, against several hundreds for a fully-software DBT). We've also demonstrated that the proposed approach enables several continuous optimizations flow, which offers better energy/performance trade-offs. Finally, the DBT toolchain is open-source and available online.
275

Impact du changement du protocole de routage dans un réseau / Impact of changing the routing protocol in a network

Bekono, Nina Pelagie 13 December 2018 (has links)
Les protocoles de routage dans les réseaux peuvent être amenés à changer pour de nombreuses raisons : la détection d'un événement particulier, un changement de topologie planifié ou non, la mobilité des nœuds, l'obsolescence de version, etc. Ces changements ne pouvant être simultanément détectés ou pris en compte par tous les nœuds du réseau, il est nécessaire de considérer le cas où certains nœuds utilisent le protocole de routage initial, tandis que d'autres ont migré vers le nouveau protocole de routage. Les travaux de cette thèse portent sur le problème de boucles de routage susceptibles d'apparaître dans ce contexte, et qui dégradent considérablement les performances du réseau. Nous proposons des solutions d'ordonnancement des nœuds, dans le but de contrôler la migration afin d'éviter ces boucles. Premièrement, nous considérons le contexte des réseaux statiques et des protocoles centralisés avec pour cas particulier le changement de métriques dans le réseau. Nous proposons deux solutions d'évitement des boucles centralisées : SCH-m (amélioration mineure d'un protocole existant), et ACH (nouvelle contribution), basées sur l'identification des boucles de routage dans les composantes connexes que contient l'union des deux protocoles de routage. Nous accélérons la migration du réseau par une opération de fusion étape par étape des différentes transitions produites. Deuxièmement, nous évoluons vers les protocoles distribués en conservant le contexte statique du réseau, et considérons le cas particulier du retrait ou de la panne d'un nœud. Nous proposons également deux solutions : RTH-d (amélioration mineure d'un protocole existant) et DLF (nouvelle contribution traitant les boucles de taille 2) basées sur un échange de messages entre les nœuds tant pour la détection de la panne que pour la notification de la migration. Troisièmement, nous considérons le contexte de mobilité des nœuds, et étudions les performances de DLF-k (version améliorée de DLF qui prend en compte les boucles de taille inférieures ou égales à k, avec k >= 2) sur deux types d'applications : les applications avec un unique nœud mobile qui est la destination, et les applications avec un groupe de nœuds mobiles. / Routing protocols in networks may change for many reasons: detection of a particular event, planned or unplanned change of topology, mobility of nodes, version obsolescence, etc. As these changes can not be simultaneously detected or taken into account by all nodes of the network, it is necessary to consider the case where some nodes use the initial routing protocol, while others have migrated to the new routing protocol. The work of this thesis deals with the problem of routing loops that may appear in this context, and which considerably degrade the performance of the network. We propose node scheduling solutions to control migration to avoid these loops. First, we consider the context of static networks and centralized protocols with the particular case of changing metrics. We propose two centralized avoidance solutions: SCH-m (minor improvement of an existing heuristic), and ACH (new contribution), based on the identification of the routing loops in the strongly connected components contained in the union of the two routing protocols. We accelerate the migration of the network by a step-by-step merge operation of the different transitions produced. Second, we evolve towards the distributed protocols while preserving the static context of the network, and consider the particular case of the withdrawal or breakdown of a node. We also propose two solutions: RTH-d (minor improvement of an existing heuristic) and DLF (new contribution for loops of size 2) based on message exchange of nodes for both failure detection and for migration notification. Thirdly, we consider the context of nodes mobility, and study the performance of DLF- k (improved version of DLF which takes into account loops of size less than or equal to k, with k >= 2) on two types of applications: applications with a single mobile node that is the destination, and applications with a group of mobile nodes.
276

The management of multiple submissions in parallel systems : the fair scheduling approach / La gestion de plusieurs soumissions dans les systèmes parallèles : l'approche d'ordonnancement équitable

Gama Pinheiro, Vinicius 14 February 2014 (has links)
Le problème étudié est celui de l'ordonnancement d'applications dans lessystèmes parallèles et distribués avec plusieurs utilisateurs. Les nouvellesplates-formes de calcul parallèle et distribué offrent des puissances trèsgrandes qui permettent d'envisager la résolution d'applications complexesinteractives. Aujourd'hui, il reste encore difficile d'utiliser efficacementcette puissance par manque d'outils de gestion de ressources. Le travaileffectué dans cette thèse se place dans cette perspective d'analyser etdévelopper des algorithmes efficaces pour gérer efficacement des ressources decalcul partagées entre plusieurs utilisateurs. On analyse les scénarios avecplusieurs soumissions lancées par multiples utilisateurs au cours du temps. Cessoumissions ont un ou plus de processus et l'ensemble de soumissions estorganisé en successifs campagnes. Les processus d'une seule campagnesont séquentiels et indépendants, mais les processus d'une campagne ne peuventpas commencer leur exécution avant que tous les processus provenant de ladernière campagne sont completés. Chaque utilisateur est intéressé à minimiserla somme des temps de réponses des campagnes. On définit un modèle théorique pour l'ordonnancement des campagnes et on montreque, dans le cas général, c'est NP-difficile. Pour le cas avec un utilisateur,on démontre qu'un algorithme d'ordonnancement $ho$-approximation pour le(classique) problème d'ordonnancement de tâches parallèles est aussi un$ho$-approximation pour le problème d'ordonnancement de campagnes. Pour lecas général avec $k$ utilisateurs, on établis un critère de emph{fairness}inspiré par partage de temps. On propose FairCamp, un algorithmed'ordonnancement qu'utilise dates limite pour réaliser emph{fairness} parmiles utilisateurs entre consécutifes campagnes. On prouve que FairCamp augmentele temps de réponse de chaque utilisateur par a facteur maximum de $kho$ parrapport un processeur dédiée à l'utilisateur. On prouve aussi que FairCamp estun algorithme $ho$-approximation pour le maximum emph{stretch}.On compare FairCamp contre emph{First-Come-First-Served} (FCFS) parsimulation. On démontre que, comparativement à FCFS, FairCamp réduit le maximal{em stretch} a la limite de $3.4$ fois. La différence est significative dansles systèmes utilisé pour plusieurs ($k>5$) utilisateurs.Les résultats montrent que, plutôt que juste des tâches individuelle etindépendants, campagnes de tâches peuvent être manipulées d'une manièreefficace et équitable. / We study the problem of scheduling in parallel and distributedsystems with multiple users. New platforms for parallel and distributedcomputing offers very large power which allows to contemplate the resolution ofcomplex interactive applications. Nowadays, it is still difficult to use thispower efficiently due to lack of resource management tools. The work done inthis thesis lies in this context: to analyse and develop efficient algorithmsfor manage computing resources shared among multiple users. We analyzescenarios with many submissions issued from multiple users over time. Thesesubmissions contain one or more jobs and the set of submissions are organizedin successive campaigns. Any job from a campaign can not start until allthe jobs from the previous campaign are completed. Each user is interested inminimizing the sum of flow times of the campaigns.In the first part of this work, we define a theoretical model for Campaign Scheduling under restrictive assumptions andwe show that, in the general case, it is NP-hard. For the single-user case, we show that an$ho$-approximation scheduling algorithm for the (classic) parallel jobscheduling problem is also an $ho$-approximation for the Campaign Schedulingproblem. For the general case with $k$ users, we establish a fairness criteriainspired by time sharing. Then, we propose FairCamp, a scheduling algorithm whichuses campaign deadlines to achieve fairness among users between consecutivecampaigns. We prove that FairCamp increases the flow time of each user by afactor of at most $kho$ compared with a machine dedicated to the user. Wealso prove that FairCamp is an $ho$-approximation algorithm for the maximumstretch.We compare FairCamp to {em First-Come-First-Served} (FCFS) by simulation. We showthat, compared with FCFS, FairCamp reduces the maximum stretch by up to $3.4$times. The difference is significant in systems used by many ($k>5$) users.Our results show that, rather than just individual, independent jobs, campaignsof jobs can be handled by the scheduler efficiently and fairly.
277

Ordonnancement d’un système de production industriel complexe : flow shop hybride avec des machines dédiées soumis à différentes contraintes temporelles / Scheduling of a complex industrial production system : hybrid flow shop with dedicated machines and different time constraints

Harbaoui, Houda 14 December 2018 (has links)
L’accroissement des profits, à travers l’amélioration de la productivité et la réduction des pertes de matières, représente un objectif primordial pour les entreprises industrielles. Dans cette thèse, nous nous intéressons à la résolution d’un problème industriel complexe réel avec des contraintes de temps. Nous nous sommes intéressés, tout d’abord, à un objectif principal, soit la minimisation des dates de fin de production, suivi d’un objectif secondaire qui est la minimisation des quantités de déchets non recyclables. Dans un premier temps, nous avons modéliséle problème par des modèles mathématiques, que nous avons résolu à l’aide d’un solveur. Dans un second temps, nous avons proposé une méthode approchée en forme d’algorithmes évolutionnistes. Cette méthode est appliquée aux deux objectifs mentionnés ci-dessus séparément. Une troisième méthode est ensuite appliquée à l’objectif principal, à savoir une méthode arborescente approchée. Nous avons testé les algorithmes proposés sur des instances inspirées d’un cas réel ; issues d’une entreprise du secteur agroalimentaire et sur des instances inspirées de la littérature. / Increasing profits, through the improvement of productivity and minimizing waste, is a primary objective for industrial companies. In this thesis, we are interested insolving a real complex industrial problem with time constraints. Firstly, we were interested in minimizing completion time (Cmax). Secondly, we focused on minimizing of non-recyclable waste. As a first step, we formulated the problem by mathematical models, which we solved using a solver. In a second step, we proposed an approximate method in the form of evolutionary algorithms. Both methods were applied to the two objectives mentioned above separately. Then, a third method which is a tree-search algorithm was applied only to the main objective. We tested the proposed algorithms on instances inspired from a real case; from an agri-food business, and also on instances inspired from the literature.
278

Modèles d’optimisation et d’évaluation de système de pilotage intelligent en contexte de flux fortement perturbés par les reprises : application au cas de la société Acta-Mobilier / Optimization and evaluation models for intelligent manufacturing control system in case of highly disturbed flows

Zimmermann, Emmanuel 12 September 2019 (has links)
Cette thèse CIFRE issue d’une collaboration entre Acta-Mobilier, fabricant de façades laquées haut de gamme et le CRAN. Cette thèse, s’inscrivant dans la continuité de celle de Mélanie Noyel, a pour objectif la réalisation d’une architecture de pilotage hybride s’appuyant sur le contrôle par le produit. Nous avons choisi de nous inspirer d’un méta-modèle développé au sein de l’équipe du CRAN. Cette architecture repose sur un modèle VSM, ou chaque niveau est susceptible de prendre des décisions à son échelle. Le plus haut niveau supervise les décisions tactiques (par exemple, le plan directeur de production), le plus bas niveau d’intelligence est distribué entre les produits dotés de moyen de communication et d’analyse (leur intelligence est attribuée à la réactivité du système car se trouvant au plus proche du besoin). En niveaux intermédiaires, nous trouvons d’une part des optimisateurs centralisés pour superviser les sous-ateliers de la chaîne de production, de manière à atteindre les objectifs de consommation, de temps de réglages ou de productivité des sous-ateliers qu’ils supervisent. D’une autre part, des optimisateurs pour des postes de travail spécifique faisant intervenir directement les produits et les informations qu’ils possèdent dans la prise de décision. Un optimisateur de chacune des deux catégories en accord avec les besoins définis par l’étude du flux de production de l’entreprise ont été réalisés. Un optimisateur centralisé a été réalisé pour l’atelier usinage dans lequel les opérations relatives au débit et au façonnage des formes des produits sont effectuées. Il est construit pour réaliser des regroupements en lots de fabrication et à les ordonnancer pour obtenir un compromis entre minimisation des consommations matières, des temps de réglage des machines et la minimisation du WIP. Le séquencement doit garantir que les regroupements, lors de leur division permettent de reformer rapidement les commandes clients. Cette contrainte est nécessaire, avant passage à la phase d’application de la finition. Il met en œuvre un algorithme génétique solutionnant un problème d’ordonnancement multicritères. Pour valider notre choix d’une méta-heuristique comme méthode de résolution du problème, nous avons tenté de le résoudre par une méthode de mathématique analytique et les résultats obtenus ont confirmé que notre décision était raisonnable. Cette optimisation a été testée sur plateforme de test et a fourni des résultats encourageants. Une implémentation faite dans l’entreprise, est utilisé chaque semaine pour une planification spécifique. Un optimisateur de la seconde catégorie a été étudié pour gérer le cas du robot de laquage, celui-ci doit fournir deux postes clients ayant leurs propres familles de produits mais devant être expédiées aux mêmes dates. En outre, les points faibles de ce poste, à savoir la consommation importante de laque à chaque changement de couleur et la longue durée d’attente avant de pouvoir visualiser les produits et savoir si un défaut qualité est apparu, impliquant de devoir refaire un cycle complet de laquage. L’optimisateur utilise un modèle de prédiction de non qualité afin d’évaluer les risques relatifs au passage du prochain lot à produire et si celui-ci est jugé trop élevé, un processus est déclenché choisissant parmi les lots présents en file d’attente, le plus adapté en considérant plusieurs facteurs. Cet optimisateur de poste de travail recueille des informations de la machine, des produits et des files d’attentes des postes en aval afin d’empêcher l’apparition d’un problème. Il a été implémenté sur un modèle de simulation. La question de la synchronisation des différents optimisateurs a été amorcée. En effet, le plan de production généré par le système d’information donne une plage de passage acceptable pour les lots dans chaque atelier et les optimisateurs se doivent de la respecter. Ces travaux aideront l’entreprise à franchir sa transition vers l’ère de l’industrie 4.0. / This CIFRE thesis comes from a collaboration between Acta-Mobilier, manufacturer of high-end lacquered facades and CRAN. This thesis, which is a continuation of that of Mélanie Noyel, aims to achieve a hybrid control architecture based on control by the product. We chose to take inspiration from a meta-model developed within the CRAN team. This architecture is based on a VSM model, where each level is likely to make decisions on its own scale. The highest level oversees tactical decisions (for example, the production master plan), the lowest level of intelligence is distributed between the products endowed with means of communication and analysis (their intelligence is attributed to the responsiveness of the system because being closer to the need). In intermediate levels, we find on the one hand centralized optimizers to supervise the sub-workshops of the production chain, in order to reach the objectives of consumption, time of adjustments or productivity of the sub-workshops that they supervise. On the other hand, optimizers for specific workstations directly involving the products and information they possess in decision-making. An optimizer of each of the two categories in accordance with the needs defined by the study of the workflow of the company have been realized. A centralized optimizer has been realized for the machining workshop in which the operations relating to the flow and shaping of the shapes of the products are carried out. It is built to make groupings in manufacturing batches and to schedule them to achieve a compromise between minimizing material consumption, machine setting times and minimizing WIP. Sequencing must ensure that clusters, when they are split, enable rapid customer order reform. This constraint is necessary before going to the application phase of the finish. It implements a genetic algorithm solving a multicriteria scheduling problem. To validate our choice of a meta-heuristic as a method of solving the problem, we tried to solve it by an analytical mathematical method and the results obtained confirmed that our decision was reasonable. This optimization was tested on a test platform and provided encouraging results. An implementation made in the company, is used every week for a specific planning. An optimizer of the second category has been studied to manage the case of the lacquer robot, it must provide two client stations having their own families of products but to be shipped on the same dates. In addition, the weak points of this post, namely the significant consumption of lacquer with each change of color and the long waiting time before being able to visualize the products and to know if a defect quality appeared, involving having to redo a cycle complete lacquering. The optimizer uses a non-quality prediction model to evaluate the risks associated with the passage of the next batch to be produced and if it is deemed too high, a process is triggered choosing among the lots present in the queue, the most suitable by considering several factors. This workstation optimizer gathers machine information, products, and queues from downstream workstations to prevent a problem from occurring. It has been implemented on a simulation model. The issue of synchronization of different optimizers has been initiated. Indeed, the production plan generated by the information system gives an acceptable range of passage for the batches in each workshop and the optimizers must respect it. This work will help the company make the transition to the Industry 4.0 era.
279

Formal verification of translation validators

Tristan, Jean-Baptiste 06 November 2009 (has links) (PDF)
Comme tout logiciel, les compilateurs, et tout particulièrement les compilateurs optimisant, peuvent être défectueux. Il est donc possible qu'ils changent la sémantique du programme compilé, et par conséquent ses propriétés. Dans le cadre de développement de logiciels critiques, où des méthodes formelles sont utilisées pour s'assurer qu'un programme satisfait certaines propriétés, et cela avant qu'il soit compilé, cela pose un problème de fond. Une solution à ce problème est de vérifier le compilateur en s'assurant qu'il préserve la sémantique des programmes compilés. Dans cette thèse, nous évaluons une méthode nouvelle pour développer des passes de compilations sûres: la vérification formelle de validateurs de traduction. D'une part, cette méthode utilise la vérification formelle à l'aide d'assistant de preuve afin d'offrir le maximum de garanties de sûreté sur le compilateur. D'autre part, elle repose sur l'utilisation de la validation de traduction, où chaque exécution du compilateur est validée a posteriori, une méthode de vérification plus pragmatique qui a permis de vérifier des optimisations avancées. Nous montrons que cette approche nouvelle du problème de la vérification de compilateur est viable, et même avantageuse dans certains cas, à travers quatre exemples d'optimisations réalistes et agressives: le list scheduling, le trace scheduling, le lazy code motion et enfin le software pipelining.
280

Modélisation et Simulation Rapide au niveau cycle pour l'Exploration Architecturale de Systèmes Intégrés sur puce

Buchmann, Richard 05 December 2006 (has links) (PDF)
La modélisation d'un système intégré sur puce nécessite la spécification de l'application logicielle et la modélisation de l'architecture matérielle puis le déploiement du logiciel sur ce matériel. L'objectif du concepteur de systèmes intégrés est de trouver la meilleure solution de déploiement pour optimiser les critères de surface de silicium, de consommation d'énergie, et de performances. Ces critères sont le plus souvent évalués par simulation. En raison du grand nombre de paramètres de l'architecture matérielle et des choix dans le déploiement du logiciel sur l'architecture, le temps nécessaire pour les simulations est important. Les outils permettant de réduire ce temps présentent un grand intérêt. Cette thèse présente des principes et des outils pour faciliter le développement des architectures matérielles et pour accélérer la simulation de modèles d'architectures synchrones décrites en langage SystemC, précis au cycle près et au bit près. Ce document est constitué de quatre chapitres : • La modélisation de composants matériels en SystemC sous la forme d'automates synchrones communicants (CFSM) ; • La génération de modèles SystemC, pour la simulation, à partir de descriptions synthétisables VHDL au niveau RTL ; • La vérification des règles d'écriture des modèles SystemC ; • La simulation rapide à l'aide d'une technique d'ordonnancement totalement statique. Ces outils permettent au concepteur de construire rapidement une architecture matérielle à l'aide de composants synthétisables au niveau RTL et de composants SystemC, respectant le modèle des CFSM. SystemCASS simule une telle architecture avec une accélération supérieure à un facteur 12 par rapport à un simulateur à échéancier dynamique.

Page generated in 0.085 seconds