• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 379
  • 167
  • 50
  • 1
  • Tagged with
  • 592
  • 239
  • 177
  • 174
  • 119
  • 111
  • 100
  • 92
  • 91
  • 87
  • 86
  • 84
  • 83
  • 74
  • 71
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
501

Memory and performance issues in parallel multifrontal factorizations and triangular solutions with sparse right-hand sides / Problèmes de mémoire et de performance de la factorisation multifrontale parallèle et de la résolution triangulaire à seconds membres creux

Rouet, François-Henry 17 October 2012 (has links)
Nous nous intéressons à la résolution de systèmes linéaires creux de très grande taille sur des machines parallèles. Dans ce contexte, la mémoire est un facteur qui limite voire empêche souvent l’utilisation de solveurs directs, notamment ceux basés sur la méthode multifrontale. Cette étude se concentre sur les problèmes de mémoire et de performance des deux phases des méthodes directes les plus coûteuses en mémoire et en temps : la factorisation numérique et la résolution triangulaire. Dans une première partie nous nous intéressons à la phase de résolution à seconds membres creux, puis, dans une seconde partie, nous nous intéressons à la scalabilité mémoire de la factorisation multifrontale. La première partie de cette étude se concentre sur la résolution triangulaire à seconds membres creux, qui apparaissent dans de nombreuses applications. En particulier, nous nous intéressons au calcul d’entrées de l’inverse d’une matrice creuse, où les seconds membres et les vecteurs solutions sont tous deux creux. Nous présentons d’abord plusieurs schémas de stockage qui permettent de réduire significativement l’espace mémoire utilisé lors de la résolution, dans le cadre d’exécutions séquentielles et parallèles. Nous montrons ensuite que la façon dont les seconds membres sont regroupés peut fortement influencer la performance et nous considérons deux cadres différents : le cas "hors-mémoire" (out-of-core) où le but est de réduire le nombre d’accès aux facteurs, qui sont stockés sur disque, et le cas "en mémoire" (in-core) où le but est de réduire le nombre d’opérations. Finalement, nous montrons comment améliorer le parallélisme. Dans la seconde partie, nous nous intéressons à la factorisation multifrontale parallèle. Nous montrons tout d’abord que contrôler la mémoire active spécifique à la méthode multifrontale est crucial, et que les technique de "répartition" (mapping) classiques ne peuvent fournir une bonne scalabilité mémoire : le coût mémoire de la factorisation augmente fortement avec le nombre de processeurs. Nous proposons une classe d’algorithmes de répartition et d’ordonnancement "conscients de la mémoire" (memory-aware) qui cherchent à maximiser la performance tout en respectant une contrainte mémoire fournie par l’utilisateur. Ces techniques ont révélé des problèmes de performances dans certains des noyaux parallèles denses utilisés à chaque étape de la factorisation, et nous avons proposé plusieurs améliorations algorithmiques. Les idées présentées tout au long de cette étude ont été implantées dans le solveur MUMPS (Solveur MUltifrontal Massivement Parallèle) et expérimentées sur des matrices de grande taille (plusieurs dizaines de millions d’inconnues) et sur des machines massivement parallèles (jusqu’à quelques milliers de coeurs). Elles ont permis d’améliorer les performances et la robustesse du code et seront disponibles dans une prochaine version. Certaines des idées présentées dans la première partie ont également été implantées dans le solveur PDSLin (solveur linéaire hybride basé sur une méthode de complément de Schur). / We consider the solution of very large sparse systems of linear equations on parallel architectures. In this context, memory is often a bottleneck that prevents or limits the use of direct solvers, especially those based on the multifrontal method. This work focuses on memory and performance issues of the two memory and computationally intensive phases of direct methods, that is, the numerical factorization and the solution phase. In the first part we consider the solution phase with sparse right-hand sides, and in the second part we consider the memory scalability of the multifrontal factorization. In the first part, we focus on the triangular solution phase with multiple sparse right-hand sides, that appear in numerous applications. We especially emphasize the computation of entries of the inverse, where both the right-hand sides and the solution are sparse. We first present several storage schemes that enable a significant compression of the solution space, both in a sequential and a parallel context. We then show that the way the right-hand sides are partitioned into blocks strongly influences the performance and we consider two different settings: the out-of-core case, where the aim is to reduce the number of accesses to the factors, that are stored on disk, and the in-core case, where the aim is to reduce the computational cost. Finally, we show how to enhance the parallel efficiency. In the second part, we consider the parallel multifrontal factorization. We show that controlling the active memory specific to the multifrontal method is critical, and that commonly used mapping techniques usually fail to do so: they cannot achieve a high memory scalability, i.e. they dramatically increase the amount of memory needed by the factorization when the number of processors increases. We propose a class of "memory-aware" mapping and scheduling algorithms that aim at maximizing performance while enforcing a user-given memory constraint and provide robust memory estimates before the factorization. These techniques have raised performance issues in the parallel dense kernels used at each step of the factorization, and we have proposed some algorithmic improvements. The ideas presented throughout this study have been implemented within the MUMPS (MUltifrontal Massively Parallel Solver) solver and experimented on large matrices (up to a few tens of millions unknowns) and massively parallel architectures (up to a few thousand cores). They have demonstrated to improve the performance and the robustness of the code, and will be available in a future release. Some of the ideas presented in the first part have also been implemented within the PDSLin (Parallel Domain decomposition Schur complement based Linear solver) solver.
502

Vers une gestion coopérative des infrastructures virtualisées à large échelle : le cas de l'ordonnancement / Toward cooperative management of large-scale virtualized infrastructures : the case of scheduling

Quesnel, Flavien 20 February 2013 (has links)
Les besoins croissants en puissance de calcul sont généralement satisfaits en fédérant de plus en plus d’ordinateurs (ou noeuds) pour former des infrastructures distribuées. La tendance actuelle est d’utiliser la virtualisation système dans ces infrastructures, afin de découpler les logiciels des noeuds sous-jacents en les encapsulant dans des machines virtuelles. Pour gérer efficacement ces infrastructures virtualisées, de nouveaux gestionnaires logiciels ont été mis en place. Ces gestionnaires sont pour la plupart hautement centralisés (les tâches de gestion sont effectuées par un nombre restreint de nœuds dédiés). Cela limite leur capacité à passer à l’échelle, autrement dit à gérer de manière réactive des infrastructures de grande taille, qui sont de plus en plus courantes. Au cours de cette thèse, nous nous sommes intéressés aux façons d’améliorer cet aspect ; l’une d’entre elles consiste à décentraliser le traitement des tâches de gestion, lorsque cela s’avère judicieux. Notre réflexion s’est concentrée plus particulièrement sur l’ordonnancement dynamique des machines virtuelles, pour donner naissance à la proposition DVMS (Distributed Virtual Machine Scheduler). Nous avons mis en œuvre un prototype, que nous avons validé au travers de simulations (notamment via l’outil SimGrid), et d’expériences sur le banc de test Grid’5000. Nous avons pu constater que DVMS se montrait particulièrement réactif pour gérer des infrastructures virtualisées constituées de dizaines de milliers de machines virtuelles réparties sur des milliers de nœuds. Nous nous sommes ensuite penchés sur les perspectives d’extension et d’amélioration de DVMS. L’objectif est de disposer à terme d’un gestionnaire décentralisé complet, objectif qui devrait être atteint au travers de l’initiative Discovery qui fait suite à ces travaux. / The increasing need in computing power has been satisfied by federating more and more computers (called nodes) to build the so-called distributed infrastructures. Over the past few years, system virtualization has been introduced in these infrastructures (the software is decoupled from the hardware by packaging it in virtual machines), which has lead to the development of software managers in charge of operating these virtualized infrastructures. Most of these managers are highly centralized (management tasks are performed by a restricted set of dedicated nodes). As established, this restricts the scalability of managers, in other words their ability to be reactive to manage large-scale infrastructures, that are more and more common. During this Ph.D., we studied how to mitigate these concerns ; one solution is to decentralize the processing of management tasks, when appropriate. Our work focused in particular on the dynamic scheduling of virtual machines, resulting in the DVMS (Distributed Virtual Machine Scheduler) proposal. We implemented a prototype, that was validated by means of simulations (especially with the SimGrid tool) and with experiments on the Grid’5000 test bed. We observed that DVMS was very reactive to schedule tens of thousands of virtual machines distributed over thousands of nodes. We then took an interest in the perspectives to improve and extend DVMS. The final goal is to build a full decentralized manager. This goal should be reached by the Discovery initiative,that will leverage this work.
503

Contribution to modeling and optimization of home healthcare / Contribution à la modélisation et l'optimisation d’hospitalisation à domicile

Bashir, Bushra 15 November 2013 (has links)
Résumé indisponible. / A healthcare network or health system consists of all organizations, actions and people who participate to promote, restore or maintain people’s health. The health care systems in many developed countries are facing increasing costs. The major reason is the changing age distribution of the population with more elderly people in need of support. Increasing healthcare costs has created new alternatives to traditional hospitalization in which one is Home Health Care (HHC). Home health care or domiciliary care is the provision of health care and assistance to people in their own homes, according to a formal assessment of their needs. HHC has attained a specific place in healthcare network. HHC programs have now been successfully implemented in many countries. The purpose of HHC is to provide the care and support needed to assist patients to live independently in their own homes. HHC is primarily performed by means of personal visitations of healthcare workers to patients in their homes, where they provide care assistance according to patients’ needs. In this thesis we have considered different aspects of planning problems for home health care services. The efficient use of resources is necessary in continuous healthcare services. To meet the increased demand of HHC, operation research specialist can play an important role by solving the various combinatorial optimization problems arising in HHC. These problems can be tactical, strategic or operational with respect to planning horizon. Strategic problems are those which help in attaining long term goals or objectives, e.g. higher level of quality for HHC patients and efficient use of resources. These strategic objectives can be achieved through tactical i.e. medium term panning and operational planning i.e. short term planning. The main purpose of our thesis is to identify these potential optimization problems and solve them via recent metaheuristics. HHC is an alternative to traditional hospitalization and has got a significant share in the organization of healthcare in developed countries. The change in aging demographics, recent development in technology and the increase in the demand of healthcare services are major reasons for this rapid growth. Some studies show HHC as a tool to reduce costs of care, which is a major preoccupation in developed countries. Some others reveal that it leads to the improvement of patients’ satisfaction without increasing the resources. Home health care, i.e. visiting and nursing patients in their homes, is a flourishing realm in the medical industry. The number of companies has grown largely both in public and private sectors. The staffing needs for HHC companies have been expanded as well. Also they face the problem of assigning geographically dispersed patients to home healthcare workers and preparing daily schedules for these workers. The challenge of this problem is to combine aspects of vehicle routing and staff rostering. Both of them are well known NP- hard combinatorial optimization problems, it means the amount of computational time required to find solution increases exponentially with problem size. Home healthcare workers scheduling problem is difficult to solve optimally due to presence of large number of constraints. These are two types of constraints: hard constraints and soft constraints. The hard constraints are the restrictions to be fulfilled for the schedules to be applicable and soft constraints are preferences to improve the quality of these schedules. (...)
504

La formation historique de la théorie de l'acte administratif unilatéral / The history of the genesis of the unilateral administrative act's theory

Girard, Anne-Laure 12 December 2011 (has links)
Au début des années 1880, la théorie du ministre-juge entretient encore la fragmentation des actes unilatéraux de l’administration. La méthode d’exposition du droit administratif alimente également la dispersion de ces actes et nourrit le morcellement de leurs règles. Près d’une cinquantaine d’années sera nécessaire pour ordonner cette diversité, pour forger une conception générale de l’acte administratif unilatéral obéissant à un régime unifié. Afin de se représenter le processus d’élaboration de l’acte administratif unilatéral, la doctrine et le juge puisent conjointement dans le fonds conceptuel subjectif. Instruments traditionnels de la science juridique, à l’efficacité éprouvée, la volonté et la personnalité juridique révèlent, à partir de la fin du XIXe siècle, l’essence logique de l’acte administratif unilatéral. L’émergence d’une conception unifiée de l’acte n’est cependant pas le fruit de l’utilisation servile des matériaux hérités de la science juridique classique. Alors que cet outillage a été pensé pour un sujet libre et agissant ordinairement pour son propre compte, les administrativistes doivent systématiser l’activité juridique d’hommes agissant pour le compte d’êtres collectifs, privés de volonté propre. Les spécificités de l’acte administratif unilatéral requièrent donc un imposant travail d’adaptation. A la tradition, succède l’innovation lors de la conceptualisation du résultat de l’opération décisionnelle. A l’inverse du juge administratif, la doctrine repousse le legs des civilistes pour penser l’effet de droit et imagine un concept, la situation juridique, reflétant l’épanouissement de l’objectivisme. Son ambition de contenir le subjectivisme l’incite également à rompre avec ses premiers inspirateurs, les théoriciens allemands du droit public. La théorie de l’hétérolimitation de l’Etat, qui remplace celle de l’autolimitation, influe alors sur la conception de l’autorité des actes administratifs unilatéraux. / At the begining of the 1880’s, the theory of the « Minister-Judge » continues to maintain the partition of the unilateral administrative acts. The methodology of the Doctrine then in use, contributes to scatter the Administration’s decisions and feeds the fragmentation of the rules. It will take about fifty years to overcome this divesity and to forge a general conception of the unilateral administrative act governed by a unified legal system. In order to picture the elaborating process of the unilateral adminstrative act, the Doctrine and the Judge jointly draw in the subjective conceptual collection. Starting from the end of the 19th century onwards, the logical essence of the unilateral administrative act has been revealed by the traditionnal and proven tools of legal science, ie the Will and the Legal Body. However, the emergence of a unified conception of the Act is not the outcome of a servile use of the materials supplied by the classical legal science. While this tool set has been elaborated for a free subject, acting - in most cases - for its own behalf, the administrativists think over the legal activities of men, acting on behalf of collective bodies, without personal will. The specifics of the unilateral administrative act, then require a significant adaptation work. Innovation succeeds tradition in the conceptualisation of the result of the decision process. Contrary to the Judge, the Doctrine, through objectivism development, pushes back the heritage of the civilists and imagines the effect of the unilateral administrative act through an innovative concept : the legal situation. The Doctrine’s ambition to contain subjectivism also leads to the break up with the german theorists of public law who were the first inspiring masters. The theory of heterolimitation of the State, which replaces the doctrine of self limitation, influences over the conception of the authority of unilateral administrative acts.
505

Algorithmes à grain fin et schémas numériques pour des simulations exascales de plasmas turbulents / Fine grain algorithm and numerical schemes for exascale simulation of turbulent plasmas

Bouzat, Nicolas 17 December 2018 (has links)
Les architectures de calcul haute performance les plus récentes intègrent de plus en plus de nœuds de calcul qui contiennent eux-mêmes plus de cœurs. Les bus mémoires et les réseaux de communication sont soumis à un niveau d'utilisation critique. La programmation parallèle sur ces nouvelles machines nécessite de porter une attention particulière à ces problématiques pour l'écriture de nouveaux algorithmes. Nous analysons dans cette thèse un code de simulation de turbulences de plasma et proposons une refonte de la parallélisation de l'opérateur de gyromoyenne plus adapté en termes de distribution de données et bénéficiant d'un schéma de recouvrement calcul -- communication efficace. Les optimisations permettent un gain vis-à-vis des coûts de communication et de l’empreinte mémoire. Nous étudions également les possibilités d'évolution de ce code à travers la conception d'un prototype utilisant un modèle programmation par tâche et un schéma de communication asynchrone adapté. Cela permet d'atteindre un meilleur équilibrage de charge afin de maximiser le temps de calcul et de minimiser les communications entre processus. Un maillage réduit adaptatif en espace est proposé, diminuant le nombre de points sans pour autant perdre en précision, mais ajoutant de fait une couche supplémentaire de complexité. Ce prototype explore également une distribution de données différente ainsi qu'un maillage en géométrie complexe adapté aux nouvelles configurations des tokamaks. Les performances de différentes optimisations sont étudiées et comparées avec le code préexistant et un cas dimensionnant sur un grand nombre de cœurs est présenté. / Recent high performance computing architectures come with more and more cores on a greater number of computational nodes. Memory buses and communication networks are facing critical levels of use. Programming parallel codes for those architectures requires to put the emphasize on those matters while writing tailored algorithms. In this thesis, a plasma turbulence simulation code is analyzed and its parallelization is overhauled. The gyroaverage operator benefits from a new algorithm that is better suited with regard to its data distribution and that uses a computation -- communication overlapping scheme. Those optimizations lead to an improvement by reducing both execution times and memory footprint. We also study new designs for the code by developing a prototype based on task programming model and an asynchronous communication scheme. It allows us to reach a better load balancing and thus to achieve better execution times by minimizing communication overheads. A new reduced mesh is introduced, shrinking the overall mesh size while keeping the same numerical accuracy but at the expense of more complex operators. This prototype also uses a new data distribution and twists the mesh to adapt to the complex geometries of modern tokamak reactors. Performance of the different optimizations is studied and compared to that of the current code. A case scaling on a large number of cores is given.
506

Stabilité et performance des systèmes distribués de contrôle-commande / Stability and performance of distributed computer control systems

Felicioni, Flavia 10 March 2011 (has links)
L’objectif principal de cette thèse est l’étude de propriétés dynamiques et de méthodes de conception et synthèse des algorithmes de contrôle-commande des systèmes dans le cas où les fonctions de mesures, actionnements et contrôles sont distribuées sur des organes de calcul pouvant être partagés avec d’autres applications et connectés sur un réseau de communication numérique. En conséquence, les boucles de contrôle sont en compétition avec d’autres applications pour accéder aux ressources de calcul et de communication de capacité limitée et gérées par des politiques spécifiques. Ceci provoque l’apparition de délais et de perte d’informations transmises entre les différents nœuds qui peuvent dégrader les performances des systèmes et conduire à leur instabilité.Dans une première partie de la thèse, nous avons étudié l’analyse des performances de certains systèmes ainsi que la conception de contrôleurs robustes en fonction de la qualité de service fournie par le réseau. Cette étude a permis de spécifier les règles de conception de contrôleurs.Dans la deuxième partie, nous avons présenté une approche de conception conjointe intégrant les résultats obtenus dans les deux domaines: la synthèse et la conception des algorithmes de contrôle et l’ordonnancement de tâches temps réel qui partagent des ressources limitées. La technique proposée repose sur le changement de la période d’activation de l’algorithme de contrôle, et en conséquence le modèle du système devient un modèle échantillonné à taux variable. Les résultats proposés, en considérant l’algèbre de Lie des matrices d’évolution, permettent de calculer des contrôleurs adaptifs aux périodes qui stabilisent tous le système / The main contributions of this thesis are related to the analysis, synthesis and design of control systems sharing communication and computational resources. The research focuses on control systems where the feedback loops are closed over communication networks which transmit the information provided to its nodes by sensors, actuators and controllers. The shared resource in this scenario is the network. Some of the results are valid when the resource is a processor locally placed respect to several controller executing their algorithms on it. In any of the preceding scenarios, the control loops must contend for the shared resource. The limited capacity of the resource can cause delays and packet losses when information is transmitted. These effects can degrade the control system performance and even destabilize it.The first part of this thesis contributes to the performance analysis of specific classes of systems and to the design of robust controllers for network characteristics modeled by Quality of Service parameters. A series of methods to assist the control systems engineer are provided.In the second part, a contribution to the CoDesign approach is made via the integration of control system synthesis and design techniques with rules allowing to define the communication policy to manage real-time tasks sharing a limited resource. Putting in correspondence a scheduling of instances of the controller tasks with their sampling periods, the proposed policy results in discrete-time varying systems. The stabilization problem of these systems is solved with methods based on the solvability of Lie-algebras. Specifically, the proposed methodology provides adaptive controllers
507

Mécanismes auto-adaptatifs pour la gestion de la Qualité de Service dans les réseaux de capteurs sans fil / Auto-adaptive mechanisms for Quality of Service management in wireless sensor networks

Nefzi, Bilel 21 September 2011 (has links)
La plupart des réseaux de capteurs sans fill d’aujourd’hui fonctionne sur le protocole CSMA/CA. Fournir la qualité de service (QdS) dans un tel réseau est un problème difficile compte tenu de la dynamique du réseau et des contraintes en termes de ressources (énergie et mémoire). Dans cette thèse, sans changer le socle commun du CSMA/CA, nous avons proposé des mécanismes auto-adaptatifs qui permettent de gérer la QdS "best-effort" pour des applications nécessitant de la différenciation de services. Trois mécanismes sont proposés : CoSenS pour "Collecting then Sending burst Scheme", P-CoSenS qui a joute la gestion de priorités à CoSenS, et S-CoSenS qui a joute la dimension énergie à CoSenS. La dynamique du réseau est prise en compte grâce à l’auto-adaptation de périodes de collecte et de transmission en rafale. Il est à souligner que le mécanisme CoSenS permet non seulement d’améliorer les performances de CSMA/CA mais aussi de surmonter la difficulté d’ordonnancer les trafics entrant dans un nœud (routeur) car chaque paquet entrant est immédiatement retransmis vers la sortie. En effet, grâce à la pério de de collecte, les paquets entrants sont mis en file d’attente, rendant ainsi possible d’ordonnancer différemment les paquets selon leur priorité (P-CoSenS). Enfin, le compromis énergie/performance est pris en compte dans S-CoSenS. Selon l’état de l’environnement surveillé, le réseau peut se trouver dans une période où circule un trafic non urgent et souvent faible pendant laquelle il est judicieux de minimiser la consommation d’énergie et une pério de de trafic important pendant laquelle le réseau doit transporter des données urgentes pour suivre une situation alarmante de plus près. Comme CoSenS, S-CoSenS permet de s’auto-adapter dynamiquement en fonction de ces situations. L’ensemble de nos propositions est validé par simulations et CoSenS est implémenté sur une plateforme de réseau de capteurs. / Nowadays, most of wireless sensor networks use CSMA/CA protocol. Providing quality of service (QoS) support in such networks is a difficult problem because of the network dynamics and the high constraints in terms of resources like energy and memory. In this thesis and without changing the basic access protocol, CSMA/CA, we developed auto-adaptive mechanisms for best-effort QoS targeted to applications requiring differentiation services. Three mechanisms are proposed; CoSenS for "Collecting then Sending burst Scheme" which enhances the performances of CSMA/CA, P-CoSenS for "Priority CoSenS" which adds priority management to CoSenS and S-CoSenS for "S-CoSenS" which tackles energy efficiency using CoSenS. We emphasize that CoSenS mechanism not only enhances the performance of CSMA/CA in terms of throughput, end-to-end delay and successful transmission rates but enables also the implementation of scheduling policies; since the router collects and queues paquets before retransmitting them, it has a complete knowledge about them and can then schedule them efficiently (P-CoSenS). S-CoSenS tackles the energy/throughput tradeoff. In fact, the state of a network varies according to the monitored environment. The network may be at some times lightly loaded with non urgent traffic and at other times highly loaded with urgent traffic generated by nodes in order to monitor a happening phenomenon more closely and hence take the best decision. In the former case, the network must save energy. In the latter case, it must provide bandwidth. S-CoSenS auto-adapts its sleeping and active periods according the incoming traffic. Our propositions are validated by simulations and CoSenS is implemented on a wireless sensor platform
508

Validation temporelle et déploiement d'une application de contrôle industrielle à base de composants / Temporal validation and deployment of component based industrial control applications

Khalgui, Mohamed 02 February 2007 (has links)
Dans cette thèse, nous nous intéressons à la validation temporelle ainsi qu'au déploiement d'applications de contrôle industriel à base de composants. La technologie des composants retenue est celle des Blocs Fonctionnels définie dans la norme industrielle IEC 61499. Un Bloc Fonctionnel est défini comme un composant réactif supportant des fonctionnalités d'une application. L'avantage de cette norme, connue dans l'industrie, est la description statique de l'application ainsi que de son support d'exécution. Une première contribution de la thèse est l'interprétation des différents concepts définis dans la norme. Nous précisons, en particulier, la dynamique du composant en vue de décrire un comportement déterministe de l'application. Pour appliquer une validation temporelle exhaustive, nous proposons un modèle de comportement d'un Bloc Fonctionnel à l'aide du formalisme des automates temporisés. D'autre part, nous fournissons une sémantique au concept de réseau de Blocs Fonctionnels pour décrire une application comme une composition de Blocs. Une deuxième contribution de la thèse est le déploiement de tels réseaux sur une architecture distribuée multi-tâches tout en respectant des propriétés sur les temps de réponse de bout en bout. Nous transformons un réseau de Blocs Fonctionnels vers un ensemble de tâches élémentaires dépendantes, appelées actions. Cette transformation permet l'exploitation de résultats d'ordonnancement pour valider la correction temporelle de l'application. Pour déployer les blocs d'une application, nous proposons une approche hybride alliant un ordonnancement statique non-préemptif et un autre ordonnancement en ligne préemptif. L'ordonnancement statique permet la construction des tâches s'exécutant sur chaque calculateur. Ces tâches sont vues comme des séquencements statiques d'actions. Elles sont alors à ordonnancer dynamiquement selon une politique préemptive reposant sur EDF (Earliest Deadline First). Grâce à cette approche, nous réduisons le nombre de commutation de contexte en regroupant les actions au sein des tâches. De plus l'ordonnancement dynamique préemptif augmente la faisabilité du système. Enfin, une dernière contribution est une extension de la deuxième. Nous proposons une approche d'allocation de réseaux de blocs fonctionnels sur un support d'exécution distribué. Cette allocation, basée sur une heuristique de Liste, se repose sur la méthode hybride pour assurer un déploiement faisable de l'application. Le problème d'allocation est de trouver pour chaque bloc fonctionnel le calculateur capable de l'exécuter tout en respectant des contraintes fonctionnelles, temporelles et de support d'exécution. Notons enfin que l'heuristique proposée se base sur une technique de retour-arrière pour augmenter l'espace de solutions. / This thesis deals with the temporal validation and the deployment of component-based industrial control applications. We are interested in the Function Blocks approach, defined in the IEC 61499 standard, as a well known component based technology in the industry. A Function Block is an event triggered component owning data to support the application functionalities. The advantage of this technology is the taking into account of the application and also its execution support. The first thesis contribution deals with the interpretation of the different concepts defined in the standard. In particular, we propose a policy defining a deterministic behavior of a FB. To apply an exhaustive temporal validation of the application, we propose a behavioral model of a Block as Timed Automata. On the other hand, we propose a semantic for the concept of FBs networks to develop industrial control applications. The second thesis contribution deals with the deployment of FBs networks in a distributed multi-tasking architecture. Such deployment has to respect classical End to End Response Time Bounds as temporal constraints. To validate the temporal behavior of an application, we propose an approach transforming its blocks into an actions system with precedence constraints. The purpose is to exploit previous theories on the scheduling of real-time systems. To deploy FBs networks in feasible OS tasks, we propose a Hybrid scheduling approach combining an off-line non-preemptive scheduling and an on-line preemptive one. The off-line scheduling allows to construct OS tasks from FBs, whereas the on-line one allows to schedule these tasks according to the classical EDF policy. A constructed OS task is an actions sequence defining an execution scenario of the application. Thanks to this approach, we reduce the context switching at run-time by merging application actions in OS tasks. In addition, the system feasibility is increased by applying an on-line preemptive policy. Finally, the last thesis contribution is an extension of the previous one. We propose an approach allocating FBs networks in a distributed architecture. Based on a heuristic, such approach uses the hybrid method to construct feasible OS tasks in calculators. The allocation problem of a particular application FB is to look for a corresponding calculator while respecting functional, temporal and execution support constraints. We note that the proposed heuristic is based on a back-tracking technic to increase the solutions space.
509

Schedulability analysis for the design of reliable and cost-effective automotive embedded systems / Analyses d'ordonnancalité pour la conception de systèmes embarqués automobiles fiables et optimisés

Khan, Dawood Ashraf 29 November 2011 (has links)
Automobile système embarqué est une architecture distribuée de l'ordinateur des applications basées sur. La prolifération des systèmes embarqués dans une automobile a apporté de nombreux avantages,tels que le remplacement du système mécanique ancienne avec capteur électronique en réseau et desactionneurs, par exemple, dans des applications telles suspensions adaptatives. Le remplacement des systèmes mécaniques avec ceux électroniques et l'intégration de nouvelles fonctionnalités dans l'électronique soulève une grave préoccupation, c'est de fournir des garanties que ces systèmes embarqués seront en mesure d'effectuer, même dans des environnements difficiles, en particulier dans un système critique pour la sécurité comme un automobile. De plus, ceux-ci l'actualité informatique applications à la demande, imposée par un processus physique.Par exemple, pour éviter un événement catastrophique comme un accident de la demande de freinage doit répondre aux contraintes de minutage. Ce qui implique que la durée de temps entre l'instance de l'application du frein (à la pédale de frein) et l'instance de l'actionnement au niveau des roues d'un véhicule automobile doit être inférieure à la limite. En outre, l'application de freinage est généralement répartie sur le nombre de nœuds, qui sont embarqués communicants les uns avec les autres en utilisant une ressource de communication partagée. Par conséquent, il est important que nous fournissons des garanties que la demande, individuellement et collectivement, est atteinte de ses contrainte temporelle; qui est dans la composition de plusieurs nœuds embarqués. En outre, la prolifération des applications informatiques est également livré avec une hétérogénéité croissante et la complexité de l'architecture intégrée, ce qui conduira à l'augmentation de la complexité de l'analyse pour les systèmes automobiles.Par conséquent, il ya un besoin croissant d'assurer que ces systèmes automobiles embarqués répondre à des contraintes temporelles et de fournir des garanties de sécurité au cours de leur fonctionnement normal ou lors de situations critiques. Cette thèse vise à développer les analyses d'ordonnançabilité pour systèmes automobiles et les réseaux intégrés, avec le but de faciliter,d'une manière rentable et fiable, la conception et l'analyse des systèmes embarqués automobiles. Les analyses sont élaborées et appliquées dans le contexte de l'automobile; de ​​façon à réduire le risque d'échec en raison de délai: les limites du matériel; frais généraux de mise en œuvre, et les interférences dues à la circulation probaliste / Automotive embedded system is a distributed architecture of computer-based applications. The proliferation of embedded systems in an automobile has brought numerous benefits; such as replacement of old mechanical system with networked electronic sensor and actuators, for example, in applications like adaptive suspensions. The replacement of mechanical systems with electronic onesand the integration of new functionality in electronics raises a serious concern; that is to provide guarantees that these embedded systems will be able to perform, even in harsh environments, particularly in a safety-critical system like an automobile.Moreover, these computer-based applications demand timeliness, imposed by a physical process. For example, to avoid a catastrophic event like a crash the braking application has to meet thetiming-constraints. This implies that the time duration between the instance of application of the brake (at brake pedal) and the instance of actuation at the wheels of an automobile should be less than the deadline. Moreover, the braking application is usually spread over number of embedded nodes, which are communicating with each other using a shared communication resource. Therefore, it is important that we provide some guarantees that an application, individually and collectively, is meeting its timing constraint; that is in the composition of multiple embedded nodes. Moreover, theproliferation of computer-based applications also comes with an increasing heterogeneity and complexity of the embedded architecture; which lead to the increase in the complexity of the analysis for the automotive systems Therefore, there is an increasing need to ensure that these automotive embedded systems meet temporal constraints and provide safety guarantees during their normal operation or during critical situations. This thesis aims at developing the schedulability analyses for automotive systems and embedded networks; with the aim to facilitate, in a cost-effective and reliable manner, the design and analysis of automotive embedded systems. The analyses are developed and applied in the automotive context; so as to reduce the risk of deadline failure due to: hardware limitations ; implementation overheads; and nterference due to probabilistic traffic
510

Vérification des contraintes temporelles de bout-en-bout dans le contexte AutoSar / Verification of end-to-end real-time constraints in the context of AutoSar

Monot, Aurélien 26 October 2012 (has links)
Les systèmes électroniques embarqués dans les véhicules ont une complexité sans cesse croissante. Cependant, il est crucial d'en maîtriser le comportement temporel afin de garantir la sécurité ainsi que le confort des passagers. La vérification des contraintes temporelles de bout-en-bout est donc un enjeu majeur lors de la conception d'un véhicule. Dans le contexte de l'architecture logicielle AUTOSAR standard dans les véhicules, nous décomposons la vérification d'une contrainte de bout-en-bout en sous-problèmes d'ordonnancement sur les calculateurs et sur les réseaux de communication que nous traitons ensuite séparément. Dans un premier temps, nous présentons une approche permettant d'améliorer l'utilisation des calculateurs exécutant un grand nombre de composants logiciels, compatible avec l'introduction progressive des plateformes multi-coeurs. Nous décrivons des algorithmes rapides et efficaces pour lisser la charge périodique sur les calculateurs multi-coeurs en adaptant puis en améliorant une approche existant pour les bus CAN. Nous donnons également des résultats théoriques sur l'efficacité des algorithmes dans certains cas particuliers. Enfin, nous décrivons les possibilités d'utilisation de ces algorithmes en fonction des autres tâches exécutées sur le calculateur. La suite des travaux est consacrée à l'étude des distributions de temps de réponse des messages transmis sur les bus CAN. Dans un premier temps nous présentons une approche de simulation basée sur la modélisation des dérives d'horloges des calculateurs communicant sur le réseau. Nous montrons que nous obtenons des distributions de temps de réponse similaires en réalisant une longue simulation avec des dérives d'horloge ou en faisant un grand nombre de courtes simulations sans dérives d'horloge. Nous présentons enfin une technique analytique pour évaluer les distributions de temps de réponse des trames CAN. Nous présentons différents paramètres d'approximation permettant de réduire le nombre très important de calculs à effectuer en limitant la perte de précision. Enfin, nous comparons expérimentalement les résultats obtenus par analyse et simulation et décrivons les avantages et inconvénients respectifs de ces approches / The complexity of electronic embedded systems in cars is continuously growing. Hence, mastering the temporal behavior of such systems is paramount in order to ensure the safety and comfort of the passengers. As a consequence, the verification of end-to-end real-time constraints is a major challenge during the design phase of a car. The AUTOSAR software architecture drives us to address the verification of end-to-end real-time constraints as two independent scheduling problems respectively for electronic control units and communication buses. First, we introduce an approach, which optimizes the utilization of controllers scheduling numerous software components that is compatible with the upcoming multicore architectures. We describe fast and efficient algorithms in order to balance the periodic load over time on multicore controllers by adapting and improving an existing approach used for the CAN networks. We provide theoretical result on the efficiency of the algorithms in some specific cases. Moreover, we describe how to use these algorithms in conjunction with other tasks scheduled on the controller. The remaining part of this research work addresses the problem of obtaining the response time distributions of the messages sent on a CAN network. First, we present a simulation approach based on the modelisation of clock drifts on the communicating nodes connected on the CAN network. We show that we obtain similar results with a single simulation using our approach in comparison with the legacy approach consisting in numerous short simulation runs without clock drifts. Then, we present an analytical approach in order to compute the response time distributions of the CAN frames. We introduce several approximation parameters to cope with the very high computational complexity of this approach while limiting the loss of accuracy. Finally, we compare experimentally the simulation and analytical approaches in order to discuss the relative advantages of each of the two approaches

Page generated in 0.083 seconds