• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 118
  • 48
  • 20
  • 1
  • 1
  • Tagged with
  • 190
  • 59
  • 53
  • 50
  • 46
  • 41
  • 33
  • 31
  • 28
  • 23
  • 22
  • 22
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Modèles et calculs garantis pour les systèmes (min,+)-linéaires

Le Corronc, Euriell 04 November 2011 (has links) (PDF)
Cette thèse se situe dans le contexte des systèmes (min,+)-linéaires incertains, contenus dans des intervalles dont seules les bornes sont connues. Dans un premier temps, puisque les calculs exacts - somme, inf-convolution, étoile de Kleene/clôture sous-additive - sont souvent coûteux en espace mémoire et en temps de calculs, des calculs approchés sont proposés à travers des fonctions d'inclusion. Les résultats obtenus sont des intervalles particuliers appelés conteneurs. La borne supérieure d'un conteneur est l'élément le plus grand de la classe d'équivalence du système approché selon la transformée de Legendre-Fenchel. La borne inférieure représente un minorant de cette classe d'équivalence et ainsi du système exact. Les caractéristiques de convexité de ces bornes permettent d'obtenir des algorithmes de calculs de complexité linéaire et quasi-linéaire. Dans un second temps, la commande des systèmes (min,+)-linéaires incertains est étudiée. Ces incertitudes peuvent apparaître suite aux calculs effectués sur les conteneurs proposés ci-dessus, mais également lorsque des paramètres incertains ou variables sont présents lors des modélisations. Des structures de contrôles existantes (précompensateur, retour de sortie) sont appliquées à ces systèmes incertains et les problèmes suivants sont ainsi traités : problème du Window Flow Control, réduction de l'incertitude en sortie du système contrôlé par un précompensateur, calcul d'un précompensateur neutre ralentissant les entrées sans dégrader la dynamique du système seul.
102

Nouvelles approches pour la résolution du problème d'ordonnancement de projet à moyens limités

Kone, Oumar 07 December 2009 (has links) (PDF)
Dans ce travail de thèse, nous avons étudié deux types de problèmes d'ordonnancement. La majeure partie concerne le problème d'ordonnancement de projet à moyens limités (RCPSP). Le problème d'ordonnancement des opérations de manutention dans un entrepôt de transbordement ("crossdocking") est également traité avec une moindre importance. Dans une première partie (la plus étendue), nous abordons le RCPSP. À partir de modélisations utilisant la programmation linéaire en nombres entiers, nous avons proposé deux nouvelles formulations de ce problème, utilisant des variables indicées par des événements. Dans l'une d'entre elles, on utilise une variable binaire pour marquer le début de l'exécution de chaque activité et une autre variable pour marquer sa fin. Dans la seconde proposition, une seule variable est utilisée. Elle identifie les événements après lesquels l'activité reste en cours ou débute son exécution. De façon générale, comparées à d'autres modèles de la littérature sur divers types d'instances, nos propositions affichent des résultats plus intéressants sur les instances contenant des activités aux durées disparates et associées à de longs horizons d'ordonnancement. En particulier, sur ces mêmes types d'instances mais hautement cumulatives (caractéristiques de base du RCPSP), elles sont également les plus performantes. Nous avons également abordé la résolution d'une extension du RCPSP consistant à prendre en compte des ressources particulières, qui peuvent être consommées en début d'exécution de chaque activité, mais aussi produites à leur fin : il s'agit du RCPSP avec consommation et production de ressources. Afin d'effectuer une comparaison expérimentale entre différents modèles, nous avons proposé une adaptation de nos formulations basées événements, des formulations à temps discret de Pritsker et de Christofides, et de la formulation à temps continu basée sur les flots (proposé par Artigues sur la base des travaux de Balas). Globalement, les résultats mon trent que nos formulations basées événements obtiennent les meilleurs résultats sur bon nombre de types d'instances. Dans la seconde partie (plus réduite), nous avons également proposé un branch-and-bound utilisant des coupes basées sur la frontière de Pareto, pour la résolution du problème d'ordonnancement des opérations de manutention au sein d'un entrepôt de transbordement ("crossdocking"). Les excellents résultats obtenus ont renforcé nos interrogations sur la complexité non-prouvée de ce problème, et ont permis d'établir par la suite que le problème est de complexité polynomiale.
103

Vision Asynchrone Événementielle: Algorithmes et Applications à la Microrobotique

Ni, Zhenjiang 26 November 2013 (has links) (PDF)
Le Dynamic Vision Sensor (DVS) est un prototype de la rétine silicium qui n'enregistre que des changements de contraste de la scène sous la forme de flux d'événements, excluant donc naturellement les niveaux de gris absolus redondants. Dans ce contexte, de nombreux algorithmes de vision asynchrones à grande vitesse basées sur l'événement ont été développés et leurs avantages par rapport aux méthodes de traitement traditionnel basé sur l'image ont été comparés. En retour haptique pour la micromanipulation, la vision est un candidat qualifié pour l'estimation de la force si le modèle position-force est bien établi. La fréquence d'échantillonnage doit toutefois atteindre 1 kHz pour permettre une sensation tactile transparente et fiable et assurer la stabilité du système. La vision basée sur l'événement a donc été appliquée pour fournir le retour d'effort nécessaire sur deux applications de micromanipulation: Le retour haptique sur la pince optique; Assistance virtuelle haptique sur micro-outil mécanique. Les résultats montrent que l'exigence de fréquence haptique de 1 kHz a été réalisée avec succès. Pour la première application, les algorithmes de détection de la position d'une microsphère à haute vitesse ont été développés. Un système de retour haptique tridimensionnel capable de manipuler plusieurs pièges optiques a été réalisé. Dans la deuxième application, un nouvel algorithme d'enregistrement de forme basé sur l'événement capable de suivre objet de forme arbitraire a été développé pour suivre une micropince piézoélectrique. La stabilité du système a été considérablement renforcée pour aider les opérateurs à effectuer des tâches de micromanipulation complexes.
104

Analyse et commande sans modèle de quadrotors avec comparaisons

Wang, Jing 25 November 2013 (has links) (PDF)
Inspiré par les limitations de contrôleurs PID traditionnels et les différentes performances dans les cas idéals et réalistes, les quadrotors existants, leurs applications et leurs méthodes de contrôle ont été intensivement étudiés dans cette thèse. De nombreux challenges sont dévoilés: les systèmes embarqués ont des limites des ressources de calcul et de l'énergie; la dynamique est assez complexe et souvent mal connu; l'environnement a beaucoup de perturbations et d'incertitudes; de nombreuses méthodes de contrôle ont été proposées dans des scénarios idéaux dans la littérature sans comparaison avec d'autres méthodes. Par conséquent, cette thèse porte sur ces principaux points dans le contrôle de quadrotors.Tout d'abord, les modèles cinématiques et dynamiques sont proposés, y compris toutes les forces et couples aérodynamiques importants. Un modèle dynamique simplifié est également proposé pour certaines applications. Ensuite, la dynamique de quadrotor est analysée. En utilisant la théorie de la forme normale, le modèle de quadrotor est simplifié à une forme plus simple nommée la forme normale, qui présente toutes les propriétés dynamiques possibles du système d'origine. Les bifurcations de cette forme normale sont étudiées, et le système est simplifié à son point de bifurcation en utilisant la théorie de la variété du centre. Basé sur l'étude des applications de quadrotors, cinq scénarios réalistes sont proposés : un cas idéal, les cas avec la perturbation du vent, les incertitudes des paramètres, les bruits de capteurs et les fautes de moteur. Ces cas réalistes peuvent montrer plus globalement les performances des méthodes de contrôle par rapport aux cas idéaux. Un schéma déclenché par événements est également proposé avec le schéma déclenché par. Ensuite, la commande sans modèle est présentée, Il s'agit d'une technique simple mais efficace pour la dynamique non-linéaire, inconnue ou partiellement connue. La commande par backstepping et la commande par mode glissant sont également proposées pour la comparaison.Toutes les méthodes de contrôle sont mises en œuvre sous les schémas déclenchés par temps et par événements dans cinq scénarios différents. Basé sur l'étude des applications de quadrotors, dix critères sont choisis pour évaluer les performances des méthodes de contrôle, telles que l'erreur maximale absolue de suivi, la variance de l'erreur, le nombre d'actionnement, la consommation d'énergie, etc.
105

Modèles robustes et efficaces pour la reconnaissance d'action et leur localisation / Robust and efficient models for action recognition and localization

Oneata, Dan 20 July 2015 (has links)
Vidéo d'interprétation et de compréhension est l'un des objectifs de recherche à long terme dans la vision par ordinateur. Vidéos réalistes tels que les films présentent une variété de problèmes difficiles d'apprentissage machine, telles que la classification d'action / récupération d'action, de suivi humaines, la classification interaction homme / objet, etc Récemment robustes descripteurs visuels pour la classification vidéo ont été développés, et ont montré qu'il est possible d'apprendre classificateurs visuels réalistes des paramètres difficile. Toutefois, afin de déployer des systèmes de reconnaissance visuelle à grande échelle dans la pratique, il devient important d'aborder l'évolutivité des techniques. L'objectif principal est cette thèse est de développer des méthodes évolutives pour l'analyse de contenu vidéo (par exemple pour le classement ou la classification). / Video interpretation and understanding is one of the long-term research goals in computer vision. Realistic videos such as movies present a variety of challenging machine learning problems, such as action classification/action retrieval, human tracking, human/object interaction classification, etc. Recently robust visual descriptors for video classification have been developed, and have shown that it is possible to learn visual classifiers in realistic difficult settings. However, in order to deploy visual recognition systems on large-scale in practice it becomes important to address the scalability of the techniques. The main goal is this thesis is to develop scalable methods for video content analysis (eg for ranking, or classification).
106

Les territoires de montagne face aux changements globaux : une étude rétrospective autour de la station de ski des Deux Alpes / Mountain Areas facing Global Change : a retrospective study in the vicinity of "Les 2 Alpes" ski resort

Fouinat, Laurent 05 December 2016 (has links)
Ce travail de thèse vise à reconstituer les conditions paléo-environnementales ayant eu lieu dans la vallée de l’Oisans à partir des archives naturelles représentées par les sédiments lacustres. Par une approche multi-marqueurs, nous visons à reconstituer tout à la fois : i) les fluctuations glaciaires en Oisans; ii) les modifications des activités humaines en montagne et leurs influence sur les flux de matière lors d’événements extrêmes ; iii) comprendre la relation entre changements climatiques, changements d’usage et évolution des aléas en haute montagne. Cette étude a permis de mettre en évidence les changements globaux, regroupant la variabilité climatique et les pratiques humaines, ayant influencés l’érosion autour des lacs de La Muzelle et du lac du Lauvitel durant les derniers millénaires.Les résultats principaux ont montrés que l’érosion du lac de la Muzelle a été largement dominé par l’activité glaciaire notamment avec la présence à certaines époques de fines particules détritiques liées à l’abrasion sous glaciaire. Ces dernières ont révélées une relation aux pluies torrentielles encore jamais observées auparavant, leur présence en période d’extension glaciaire étant synonyme d’une augmentation du nombre de dépôts lacustres de crues. Les activités humaines, en majeure partie représentées par l’utilisation agro-pastorale de l’espace avoisinant les lacs, ne sont clairement identifiables que lors des 300 dernières années au lac de la Muzelle. Le lac de Lauvitel est situé à une altitude moindre, dont la majorité du bassin versant est maintenant une réserve intégrale. Les études palynologiques ont mis en évidence certaines périodes d’activités humaines plus marquées. Les événements extrêmes enregistrés dans les sédiments dulac regroupent d’une part les crues, dont l’enregistrement permet une comparaison régionale de l’occurrence de ces événements et de mettre en évidence les changements de circulations atmosphériques à l’échelle des Alpes. D’autre part, les avalanches de neige lourde, dont peu d’enregistrements sont disponibles dans la bibliographie. Nous les avons identifiés grâce à l’utilisation du CT scan l’élaboration d’une nouvelle méthodologie basée sur la différence de densité relative des sédiments. Le comptage et la quantification des apports de matériel détritique grossier aux seins d’une matrice de sédiment lacustre fin, a permis d’identifier les apports liés à cet aléa au cours du temps. Nous avons ensuite reconstitué les événements d’avalanche de neige lourde déposés dans le lac de Lauvitel sur les derniers 3500 ans, dont l’occurrence intervient préférentiellement lors des périodes de retraits glaciaires. / This doctoral thesis aims to a paleo-environmental reconstitution of the Oisans valley based on the natural archive of lake sediments. From a multi-proxy approach, we aim to reconstruct: i) Glacial fluctuation reconstruction in Oisans valley; ii) human activities evolution in mountain area and their influences on sediment fluxes especially during extreme events; iii)understand the relationship between climate change, use of mountain lands and natural hazard.Through this study, we identified processes of global change, comprising natural climate variability and human practices, which affected erosion patterns around Lakes Muzelle and Lauvitel during the last millennia. Main results have shown that erosion in the lake Muzelle watershed was dominated in the past by glacial activity, in particular with the presence of fine detrital particles related to subglacial abrasion. They were identified to have a relationship never observed before; during glacial extension their presence is triggering a higher number of flood deposits. At this location, human activities were identified through agro-pastoral activities and more precisely by the coprophilous fungi spore counting, revealing cattle presence since 300 years. Lake Lauvitel is located at lower altitude, which most of the watershed is now situated in an Integral Reserve. Palynological investigations lead to identification of periods of higher human activities in the valley. Extreme events recorded in Lake Lauvitel sediment are on the one hand torrential floods, which allowed a comparison with other reconstructions highlighting changes in the climatic settings in the Alps. On the other hand, wet avalanches deposits were identified with the use of a CT scan and the development of a new methodology based on relative density differences in the sediment. The counting and the quantification of coarse detrital matter within the lacustrine fine sediment matrix allowed income identification of this hazard though time. We then reconstructed wet avalanches events deposited in Lake Lauvitel during the last 3500 years, which occurrence is preferentially during glacial retreats.
107

Commande faible coût pour une réduction de la consommation d'énergie dans les systèmes électroniques embarqués / Reduction of the energy consumption in embedded electronic devices with low control computational cost

Durand, Sylvain 17 January 2011 (has links)
La course à la miniaturisation des circuits électroniques pousse à développer des systèmes faible coût, quece soit en terme de consommation d’énergie ou de ressources de calcul. Il est ainsi possible de réduire la consommationen diminuant la tension d’alimentation et/ou la fréquence d’horloge, mais ceci a pour conséquence de diminuer aussila vitesse de fonctionnement du circuit. Une commande prédictive rapide permet alors de gérer dynamiquement un telcompromis, de manière à ce que la consommation d’énergie soit minimisée tout en garantissant de bonnes performances.Les stratégies de commande proposées ont notamment l’avantage d’être très robustes aux dispersions technologiquesqui sont un problème récurrent dans les nanopuces. Des solutions sont également proposées afin de réduire le coût decalcul du contrôleur. Les systèmes à échantillonnage non-uniforme, dont la loi de commande est calculée et mise à jourlorsqu’un événement est déclenché, sont ainsi étudiés. Ce principe permet de réduire le nombre d’échantillons et, parconséquent, d’économiser des ressources de calcul, tout en garantissant de bonnes performances du système commandé.Des résultats de simulation, et surtout expérimentaux, valident finalement l’intérêt d’utiliser une telle approche. / The demand of electronic components in all embedded and miniaturized applications encourages to developlow-cost components, in term of energy consumption and computational resources. Actually, the power consumption canbe reduced when decreasing the supply voltage and/or the clock frequency, but with the effect that the device runs moreslowly in return. Nevertheless, a fast predictive control strategy allows to dynamically manage this tradeoff in order tominimize the energy consumption while ensuring good performance of the device. Furthermore, the proposals are highlyrobust to tackle variability which is a real problem in nanometric systems on chip. Some issues are also suggested inthis thesis to reduce the control computational cost. Contrary to a time-triggered system where the controller calculatesthe control law at each (constant and periodic) sampling time, an event-based controller updates the control signalonly when the measurement sufficiently changes. Such a paradigm hence calls for resources whenever they are indeednecessary, that is when required from a performance or stability point of view for instance. The idea is to soften thecomputational load by reducing the number of samples and consequently the CPU utilization. Some simulation andexperimental results eventually validate the interest of such an approach.
108

Processus et indicateurs de risque en assurance non-vie et sécurité alimentaire / Processes and risk indicators in non-life insurance mathematics and food security

Tillier, Charles 19 June 2017 (has links)
L'analyse des risques est devenu un enjeu majeur dans notre société. Quels que soient les champs d'application dans lesquels une situation à risque peut survenir, les mathématiques et plus particulièrement les statistiques et les probabilités se révèlent être des outils essentiels. L'objet principal de cette thèse est de développer des indicateurs de risque pertinents et d'étudier les propriétés extrémales de processus intervenant dans deux domaines d'applications : en risque alimentaire et en assurance. La théorie du risque se situe entre l'analyse des valeurs extrêmes et la théorie des variables aléatoires à variations régulières ou à queues lourdes. Dans le premier chapitre, on définit les éléments clefs de la théorie du risque ainsi que la notion de variation régulière et on introduit différents modèles liés au risque alimentaire qui seront étudiés dans les chapitres 2 et 3. Le chapitre 2 présente les travaux effectués avec Olivier Wintenberger. Pour des classes de processus stochastiques, sous des hypothèses de variations régulières, on développe une méthode qui permet d'obtenir des équivalents asymptotiques en horizon fini d'indicateurs de risque en assurance et en risque alimentaire tels que la probabilité de ruine, le "temps passé au dessus d'un seuil" ou encore la "sévérité de la ruine". Le chapitre 3 se concentre sur des modèles en risque alimentaire. Précisément, on étudie les propriétés extrémales de différentes généralisations d'un processus d'exposition à un contaminant nommé KDEM pour Kinetic Dietary Exposure Model proposé par Patrice Bertail et ses co-auteurs en 2008. Sous des hypothèses de variations régulières, on propose des équivalents asymptotiques du comportement de queue et de l'indice extrémal du processus d'exposition. Enfin, le chapitre 4 passe en revue différentes techniques statistiques particulièrement adaptées à l'étude du comportement extrémal de certains processus de Markov. Grâce à des propriétés de régénérations, il est possible de découper le chemin des observations en blocs indépendants et identiquement distribués et de n'étudier ainsi que le processus sur un bloc. Ces techniques s'appliquent même si la chaîne de Markov n'est pas atomique. On se concentre ici sur l'estimation de l'indice de queue et de l'indice extrémal. On illustre la performance de ces techniques en les appliquant sur deux modèles - en assurance et en finance - dont on connaît les résultats théoriques / Risk analyses play a leading role within fields such as dietary risk, hydrology, nuclear security, finance and insurance and is more and more present in theapplications of various probability tools and statistical methods. We see a significant impact on the scientific literature and on public institutions in the past years. Risk theory, which is really close to extreme value analysis, typically deals with the occurrences of rare events which are functions of heavy-tailed random variables, for example, sums or products of regularly varying random variables. The purpose of this thesis is the following : to develop revelant risk indicators and to study the extremal properties of stochastic processes used in dietary risk assessment and in insurance. In Chapter 1, we present the main tools used in risk theory and the notion of regular variation and introduce different models involved in dietary risk assessment, which will be specifically studied in Chapters 2 and 3. Chapter 2 presents a joint work with Olivier Wintenberger. For a particular class of stochastic processes, under the assumption of regular variation, we propose a method that gives way to asymptotic equivalents on a finite-time horizon of risk indicators such as the ruin probability, the Expected Time over a Threshold or the Expected Severity of the ruin. Chapter 3 focuses on dietary risk models. To be precise, we study the extremal properties of an extension of a model called KDEM for Kinetic Dietary Exposure Model introduced by Patrice Bertail and his co-authors in 2008. Under the assumption of regular variation, we provide asymptotic equivalents for the tail behavior and the extremal index of the exposure process. In Chapter 4, we review different statistical tools specifically tailored for the study of the extremal behavior of Markov processes. Thanks to regeneration properties, we can split the path of observations into blocks which are independent and identically distributed. This technic still works even if the Markov chain is not atomic. We focus here on the estimation of the tail index and the extremal index. We illustrate the performance of these technics applying them on two models in insurance and finance for which we know the theoritical results.
109

Synthèse de contrôleurs des systèmes à évènements discrets basée sur les réseaux de Petri / Petri Net - Based Controller Synthesis for Discrete Event Systems

Vasiliu, Andra Ioana 03 February 2012 (has links)
La méthode des invariants est une des plus utilisées méthodes de synthèse pour les SED modélisés par des réseaux de Petri (RdP). Cependant, elle ne garantit pas en général une solution optimale dans la présence de l'incontrôlabilité. Dans ce travail nous proposons une solution à ce problème pour les RdP généralisés. Premièrement, nous proposons une solution d'identification des contraintes admissibles pour les RdP saufs non-conservatifs. La méthode repose sur une définition des contraintes contenant des marquages complémentés. Ceux-ci sont après éliminés en exploitant les composants conservatifs des RdP. Deuxièmement, nous avançons une technique de détermination des contraintes admissibles pour les RdP généralisés. La méthode est basée sur une vision spatiale de l'espace d'états du modèle. Les contraintes sont dérivées de l'équation d'hyperplan affin qui sépare les régions interdite- et autorisée- de cet espace. Nous proposons un algorithme pour le calcul du contrôleur optimal minimal. / The place-invariants method is one of the most popular controller synthesis approaches for Petri net (PN) modeled DES. Unfortunately, the observance of the constraints is not certain in the presence of uncontrollable transitions. This thesis offers a solution to this problem for ordinary and generalized PNs. We begin by studying safe non-conservative PNs, and devising a constraint-determination technique that will always provide a set of admissible constraints for this type of model. The approach stems from the general definition of forbidden states --- that of marking vectors. In the second part of our work, we present an admissible constraint-determination technique for generalized PNs. The method is based on a special view of the system's state space. The constraints are derived from the equation of the affine hyper-plane separating the authorized- and forbidden- regions of this space. We propose an algorithm that allows the identification of the minimal maximally permissive controller.
110

Performance optimization of a class of deterministic timed Petri nets : weighted marked graphs / Optimisation de performance d'une classe de réseaux de Pétri déterministes et temporisés : les graphes d'événements valués

He, Zhou 09 June 2017 (has links)
Au cours des dernières décennies, la complexité croissante des systèmes de production et de leur commande a rendu crucial le besoin d’utiliser les méthodes formelles pour faire face aux problèmes relatifs au contrôle, à la fiabilité, au diagnostic des fautes et à l’utilisation optimale des ressources dans les installations de production. Cela concerne en particulier les systèmes automatisés de production (SAP), caractérisés par des cycles technologiques complexes qui doivent s’adapter à des conditions changeantes. Les SAP modernes sont des sous-systèmes interconnectés tels que des machines à commande numérique, des stations d'assemblage , des véhicules guidés automatisés (AGV), des cellules robotisées, des convoyeurs et des systèmes de contrôle par ordinateur. Les fabricants utilisent des machines automatisées et des contrôleurs pour assurer des produits de qualité plus rapidement et plus efficacement. Aussi, ces systèmes automatisés peuvent fournir des informations essentielles pour aider les gestionnaires à prendre les bonnes décisions. Cependant, en raison de la grande flexibilité des SAP, des défaillances telles qu’un mauvais assemblage ou le dépôt d’une pièce dans un tampon inapproprié peuvent se produire lors du fonctionnement du système. De tels dysfonctionnements diminuent la productivité du système générant ainsi des pertes économiques et des effets perturbateurs sur le système. En conséquence, le problème de l’optimisation des performances des SAP est impératif.Cette thèse se focalise sur l’évaluation et l’optimisation des performances des systèmes de production automatisés via le modèle des réseaux de Pétri temporisés. / In the last decades, there has been a constant increase in the awareness of company management about the importance of formal techniques in industrial settings to address problems related to monitoring and reliability, fault diagnosis, and optimal use of resources, during the management of plants. Of particular relevance in this setting are the so-called Automated Manufacturing Systems (AMSs), which are characterized by complex technological cycles that must adapt to changing demands. Modern AMSs are interconnected subsystems such as numerically controlled machines, assembly stations, automated guided vehicles, robots, conveyors and computer control systems. Manufacturers are using automated machines and controls to produce quality products faster and more efficiently. Meanwhile, these automated systems can provide critical information to help managers make good business decisions. However, due to the high flexibility of AMSs, failures such as a wrong assembly or a part put in a wrong buffer may happen during the operation of the system. Such failures may decrease the productivity of the system which has an economical consequence and can cause a series of disturbing issues. As a result, the performance optimization in AMSs are imperative. This thesis focuses on the performance evaluation and performance optimization of automated manufacturing systems using timed Petri nets models.

Page generated in 0.1284 seconds