• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 7
  • Tagged with
  • 28
  • 28
  • 12
  • 9
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Gestion des systèmes automatisés d'entreposage : simulation, optimisation et résultats empiriques

Gagliardi, Jean-Philippe 18 April 2018 (has links)
Les systèmes automatisés d'entreposage {Automated Storage and Retrieval Systems- AS/RS) sont considérés aujourd'hui comme une technologie de pointe dans le domaine de l'entreposage et de la distribution à haut débit. L'implantation d'un tel système représente un investissement corporatif majeur, il est donc attendu que son niveau de performance soit élevé. Ce niveau de performance, pour un environnement donné, est le résultat d'un ensemble de décisions relatives à la fois au design et au contrôle du système. Pour cette raison, tant aux niveaux industriel qu'académique, on cherche à développer des approches permettant de modéliser, concevoir et contrôler au mieux ces systèmes qui jouent un rôle critique dans les chaînes logistiques modernes. À cette fin, plusieurs approches issues de la recherche opérationnelle peuvent être appliquées. Cette thèse comporte quatre articles, présentant chacun un aspect distinct de l'étude des AS/RS. Nous présentons, dans le premier article, une revue de littérature traitant des approches de modélisation des AS/RS. L'étude met l'accent sur les hypothèses de modélisation employées dans les différents articles et qui ne sont pas toujours intuitives, ni même mentionnées. Cette réalité fait en sorte qu'il est parfois très difficile d'exploiter les résultats de recherches précédentes afin de les transposer dans un autre contexte. En plus d'isoler les hypothèses de modélisation, nous présentons une structure séparant les différentes questions de recherche en fonction des problèmes étudiés. Les résultats de cette revue prennent la forme d'une synthèse permettant d'associer, pour un problème donné, les études et résultats provenant de contextes similaires. Nous proposons dans le second article un modèle de simulation à événements discrets conçu pour étudier les AS/RS à charge unitaire. En prenant appui sur la programmation orientée-objet, le modèle a été conçu de manière à pouvoir aisément modéliser plusieurs configurations, comme par exemple les systèmes à plusieurs allées ou les AS/RS visant à gérer la collecte de petits items dans des contenants. Une description détaillée du moteur de simulation est donnée. C'est grâce à ce modèle que les chapitres subséquents ont pu voir le jour, en permettant l'étude empirique de ces systèmes hautement complexes et dynamiques. Dans le troisième article, nous présentons une étude sur le problème de gestion de l'espace dans les AS/RS. Ce problème consiste à définir, pour chaque localisation de stockage, le ou les produits pouvant y être stockés. Nous nous intéressons principalement à l'étude de l'entreposage par zones dont le nombre peut varier entre une seule zone et autant de zones qu'il y a de produits. La gestion de l'espace a suscité beaucoup d'intérêt scientifique vers la fin des années 70. Plusieurs modèles analytiques ont été formulés, résultant en certaines conclusions largement acceptées dans tous les milieux. Cependant, nous constatons que la validité de ces modèles analytiques repose sur certaines hypothèses restrictives. À l'aide du modèle de simulation présenté, nous montrons que ces conclusions ne tiennent plus lorsque nous nous transposons dans un contexte réaliste. Ce nouveau résultat nous amène à voir la gestion de l'espace en fonction des caractéristiques des produits entreposés. Dans le quatrième article, nous portons notre attention sur le problème de séquencement des requêtes dans un AS/RS. Le séquencement des requêtes consiste à définir l'ordre dans lequel les requêtes de stockage et de collecte seront complétées selon un horizon à durée déterminée, dans un objectif de minimisation du temps de cycle moyen. Cela revient à maximiser le rendement du système. Pour ce faire, nous proposons une adaptation des heuristiques de la littérature pour traiter le cas de séquencement dynamique, puis nous proposons une des premières formulations mathématiques au problème. Par la suite, nous évaluons les opérations du système à l'aide du modèle de simulation détaillé dans le deuxième article. Les résultats empiriques obtenus illustrent l'effet positif du séquencement sur la performance du système en plus de fournir une comparaison des différentes approches de séquencement étudiées. À travers ces quatre chapitres, nous démontrons que la simulation et l'optimisation des systèmes automatisés d'entreposage posent plusieurs défis. Nous avons présenté un modèle de simulation robuste qui a permis de faire avancer les connaissances dans le domaine de la gestion de l'espace et du séquencement des requêtes.
12

Attribution, valorisation et maintenance des fauteuils roulants par la dynamique des systèmes

Rarrbo, Lamia 16 April 2018 (has links)
Dans ce travail de maîtrise, nous avons exploité l'approche de modélisation et de simulation proposée par la Dynamique des Systèmes (DS). La DS définit tout système complexe comme une structure, dont les composants sont interconnectés par des relations de causalité. Les modèles de la DS sont basés sur les concepts d'interaction, de rétroaction et de complexité. Cette méthodologie permet de comprendre et de simuler le comportement dynamique d'un système complexe et de mettre en évidence les facteurs structurels ayant un impact sur les performances et la résilience de ce dernier. Elle permet ainsi de comprendre le pourquoi et le comment de l'évolution de ce système dans le temps en vue de modifier et d'améliorer son fonctionnement. La DS permet également d'analyser l'impact d'une prise de décision sur l'évolution du système permettant ainsi d'étudier divers scénarios et stratégies organisationnels. Dans ce mémoire, nous avons utilisé la DS comme approche de modélisation et de simulation à l'amélioration des processus de prise de décision dans le cadre des aides à la mobilité et notamment au projet ± d'attribution, de valorisation et de maintenance des fauteuils roulants ¿ pour le compte de l'Institut de Réadaptation en Déficience Physique de Québec (IRDPQ). Nous avons ainsi analysé le cycle de vie d'une aide à la mobilité, proposé un modèle de simulation qui tient compte de la maintenance préventive. Dans ce modèle, nous avons également analysé l'évolution du stock de fauteuils roulants et avons présenté l'évolution de ce flux en termes de défauts par semaine afin de montrer l'incidence de la stratégie de maintenance adoptée à la réduction du nombre de pannes et par conséquent, à l'amélioration de la fiabilité de ces équipements. Notre étude a notamment montré que la fiabilité des équipements peut être améliorée tout en réduisant les actions de maintenance inutiles par la prise en compte d'une maintenance intelligente qui permettra de réduire la fréquence des pannes.
13

Contribution à la modélisation mathématique pour la simulation et l'observation d'états des bioprocédés

Bogaerts, Philippe 21 April 1999 (has links)
Les bioprocédés ont connu un essor considérable au cours de ces dernières années et sont promis à un bel avenir. Qu'il s'agisse de la production de vaccins, de la fermentation de levures pour l'industrie alimentaire ou encore de l'épuration biologique des eaux usées, les applications sont nombreuses et les produits sont d'un intérêt capital pour l'être humain. Étant donnés le coût et le temps de mise en oeuvre de ces procédés, il est particulièrement utile de construire des simulateurs permettant de reproduire le comportement macroscopique des cultures cellulaires utilisées. Ces simulateurs peuvent servir à déterminer des conditions optimales de fonctionnement (en fonction des critères de l'utilisateur) et à tester certains outils (régulateurs, capteurs logiciels, etc.). Par ailleurs, il est nécessaire, pour le suivi et la régulation de ces procédés, de disposer de grandeurs mesurées (concentrations cellulaires, en substrats, en le produit d'intérêt, etc.). Les problèmes liés à la mesure matérielle de ces grandeurs sont nombreux: coût des capteurs, destruction des échantillons, longues périodes d'échantillonnage, temps d'analyse élevés, etc. Il est dès lors utile de construire des observateurs d'états (ou capteurs logiciels) fournissant une estimation en temps continu de grandeurs non mesurées sur la base d'un modèle mathématique et de certaines mesures matérielles. Les modèles mathématiques sont nécessaires pour la synthèse des deux types d'outils envisagés dans ce travail (simulateurs et capteurs logiciels). Les modèles utilisés consistent en les bilans massiques des constituants apparaissant dans le schéma réactionnel, ce dernier contenant les réactions essentielles pour la description des phénomènes à l'échelle macroscopique. Au sein de ces bilans massiques, une nouvelle structure générale de modèle cinétique est proposée, possédant un certain nombre de propriétés intéressantes, telles l'interprétation physique des paramètres cinétiques, les concentrations définies positives sous certaines conditions, la garantie de stabilité entrées bornées - états bornés, ou encore la possibilité de linéarisation en les paramètres à estimer. Une méthodologie générale d'estimation paramétrique est proposée, afin d'identifier les coefficients pseudo-stoechiométriques, les coefficients cinétiques et certains paramètres expérimentaux (concentrations initiales des cultures). Cette méthodologie possède un caractère systématique, prend en compte les erreurs de mesure sur l'ensemble des signaux (y compris à l'instant initial), fournit à l'utilisateur la covariance des erreurs d'estimation paramétrique, prend en compte intrinsèquement les contraintes de signe sur les paramètres, fournit une estimation des erreurs de simulation, permet de réduire le nombre d'équations différentielles au sein du modèle, etc. La mise en oeuvre et l'intérêt de ces outils sont illustrés en simulation (cultures bactériennes) et dans le cas d'une application réelle (cultures de cellules animales CHO). La première catégorie d'observateurs d'états étudiée dans ce travail est celle des observateurs utilisant pleinement le modèle cinétique. L'observation d'états basée sur l'identification des conditions initiales les plus vraisemblables est plus particulièrement analysée. Elle consiste à estimer en temps continu l'entièreté de l'état par intégration d'un modèle de simulation au départ des conditions initiales les plus vraisemblables. Ces dernières sont identifiées à chaque nouvel instant de mesure sur la base de toute l'information disponible jusqu'à cet instant. Certaines propriétés mathématiques sont étudiées (dont une comparaison avec le filtre de Kalman) et un certain nombre d'extensions de la méthode sont proposées (dont une version récurrente qui ne nécessite plus de résoudre un problème d'optimisation non linéaire à chaque nouvel instant de mesure). Ces outils sont à nouveau illustrés dans le cadre des cultures de cellules animales CHO, et se basent sur les modèles de simulation développés dans la première partie du travail. Étant donné les risques de divergence des observateurs de cette première catégorie lorsque la qualité du modèle cinétique n'est pas suffisante, une seconde catégorie est envisagée, constituée des observateurs utilisant partiellement le modèle cinétique. Dans ce contexte, un nouvelle technique est proposée consistant en un observateur hybride entre le filtre de Kalman étendu (utilisant pleinement le modèle cinétique) et l'observateur asymptotique de Bastin et Dochain (n'utilisant pas du tout le modèle cinétique). Cette structure estime (conjointement avec l'état du système) un degré de confiance en le modèle cinétique. Elle est capable d'évoluer de façon progressive, en fonction de ce degré de confiance, entre les deux solutions extrêmes (filtre de Kalman et observateur asymptotique), tirant ainsi parti des avantages respectifs de ces deux méthodes selon les conditions opératoires et la qualité du modèle cinétique. Ces outils sont validés sur des cultures bactériennes simulées.
14

Langages de scénarios : Utiliser des ordres partiels pour modéliser, vérifier et superviser des systèmes parallèles et répartis.

Gazagnaire, Thomas 28 March 2008 (has links) (PDF)
Cette thèse se place dans le cadre de la modélisation et de l'analyse de systèmes parallèles et répartis. Plus précisément, nous nous intéressons à la modélisation, la vérification et la supervision de systèmes, composés d'entités indépendantes interagissant localement par mémoire partagée et globalement par échange asynchrone de messages.<br /><br />Dans ce contexte, plutôt que de modéliser séparément chaque entité, puis d'analyser les comportements qui peuvent se produire lorsque ces entités interagissent, nous fournissons une théorie permettant de modéliser globalement le système considéré tout en conservant des propriétés de vérification et de supervision décidables. Cette théorie se base sur le formalisme des ordres partiels étiquetés (appelés "pomsets").<br /><br />Dans ce but, nous définissons le modèle des HMSC causaux qui étend le formalisme des HMSC en autorisant, comme pour les traces de Mazurkiewicz, certains événements à commuter sur chaque processus. Nous montrons, tout d'abord, qu'une restriction syntaxique des HMSC causaux a le même pouvoir d'expression que les réseaux bornés d'automates mixtes, un modèle qui étend les réseaux d'automates asynchrones de Zielonka et les réseaux d'automates communicants. De plus, nous montrons que les méthodes classiques de model-checking de systèmes séquentiels peuvent s'appliquer aux modèles plus concis basés sur les pomsets, comme les HMSC causaux, sans perte d'efficacité. Enfin, nous proposons des méthodes de traitement efficace d'observations volumineuses d'exécutions réparties, ainsi que des techniques de supervision, telles que le diagnostic ou la corrélation d'événements, qui utilisent des modèles basés sur les pomsets.
15

Une approche sur la recherche et l'art à l'époque du numérique à travers l'étude des systèmes artificiels d'organisation de la mémoire humaine : nécessité et proposition d'un outil d'enregistrement et de synthèse des données susceptible de contribuer à la mise en place d'une nouvelle forme de doctorat ("doctorat_machine")

Santorineos, Manthos 27 October 2006 (has links) (PDF)
La société se trouve dans une situation hybride entre la civilisation du papier et celle de la technologie numérique, surtout en ce qui concerne l'enregistrement de la connaissance, mais la technologie numérique est actuellement utilisée pour l'amélioration des conditions et non pour leur évolution, et les vrais changements ne sont pas encore accomplis. Or les propriétés du nouveau système de traitement de la mémoire pourraient être exploitées en vue d'un changement de la manière de recherche et l'artiste-chercheur peut profiter d'une technologie qui se caractérise de la notion de " plateforme " et non plus de " media ". Dans ce cadre, il a été créé un système pour l'usage des capacités numériques de traitement de la connaissance pour affronter les problèmes de complexité de l'objet de recherche. Nous étudions ainsi l'hypothèse que ce système, le doctorat_machine, constitue la nouvelle forme de doctorat au niveau de l'enregistrement et de la présentation de la recherche.
16

Dedicated Hardware Context-Switch Services for Real-Time Multiprocessor Systems

Allard, Yannick 07 November 2017 (has links) (PDF)
Computers are widely present in our daily life and are used in critical applic-ations like cars, planes, pacemakers. Those real-time systems are nowadaysbased on processors which have an increasing complexity and have specifichardware services designed to reduce task preemption and migration over-heads. However using those services can add unpredictable overheads whenthe system has to switch from one task to another in some cases.This document screens existing solutions used in commonly availableprocessors to ease preemption and migration to highlight their strengths andweaknesses. A new hardware service is proposed to speed up task switchingat the L1 cache level, to reduce context switch overheads and to improvesystem predictability.The solution presented is based on stacking several identical cachememories at the L1 level. Each layer is able to save and restore its completestate independently to/from the main memory. One layer can be used forthe active task running on the processor while another layers can be restoredor saved concurrently. The active task can remain in execution until thepreempting task is ready in another layer after restoration from the mainmemory. The context switch between tasks can then be performed in avery short time by switching to the other layer which is now ready to runthe preempting task. Furthermore, the task will be resumed with the exactL1 cache memory state as saved earlier after the previous preemption. Theprevious task state can be sent back to the main memory for future use.Using this mechanism can lead to minimise the time required for migrationsand preemptions and consequently lower overheads and limit cache missesdue to preemptions and usually considered in the cache migration andpreemption delays. Isolation between tasks is also provided as they areexecuted from a dedicated layer.Both uniprocessor and multiprocessor designs are presented along withimplications on the real-time theory induced by the use of this hardware ser-vice. An implementation of the system is characterized and results show im-provements to the maximum and average execution time of a set of varioustasks: When the same size is used for the baseline cache and HwCS layers,94% of the tasks have a better execution time (up to 67%) and 80% have a bet-ter Worst Case Execution Time (WCET). 80% of the tasks are more predictableand the remaining 20% still have a better execution time. When we split thebaseline cache size among layers of the HwCS, measurements show that 75%of the tasks have a better execution time (up to 67%) leading to 50% of thetasks having a better WCET. Only 6% of the tasks suffer from worse executiontime and worse predictability while 75% of the tasks remain more predictablewhen using the HwCS compared to the baseline cache. / Les ordinateurs ont envahi notre quotidien et sont de plus en plus souventutilisés pour remplir des missions critiques. Ces systèmes temps réel sontbasés sur des processeurs dont la complexité augmente sans cesse. Des ser-vices matériels spécifiques permettent de réduire les coûts de préemption etmigration. Malheureusement, ces services ajoutent des temps morts lorsquele système doit passer d’une tâche à une autre.Ce document expose les solutions actuelles utilisées dans les processeurscourants pour mettre en lumière leurs qualités et défauts. Un nouveau ser-vice matériel (HwCS) est proposé afin d’accélérer le changement de tâches aupremier niveau de mémoire (L1) et de réduire ainsi les temps morts dus auxchangements de contextes tout en améliorant la prédictibilité du système.Bien que cette thèse se concentre sur le cache L1, le concept développépeut également s’appliquer aux autres niveaux de mémoire ainsi qu’àtout bloc dépendant du contexte. La solution présentée se base sur unempilement de caches identiques au premier niveau. Chaque couche del’empilement est capable de sauvegarder ou recharger son état vers/depuisla mémoire principale du système en toute autonomie. Une couche peutêtre utilisée par la tâche active pendant qu’une autre peut sauvegarder ourestaurer l’état d’une autre tâche. La tâche active peut ainsi poursuivre sonexécution en attendant que la tâche suivante soit rechargée. Le changementde contexte entre la tâche active et la tâche suivante peut alors avoir lieu enun temps très court. De plus, la tâche reprendra son exécution sur un cacheL1 dont l’état sera identique à celui au moment où elle a été interrompueprécédemment. L’état du cache de la tâche désormais inactive peut êtresauvegardé dans la mémoire principale en vue d’une utilisation ultérieure.Ce mécanisme permet de réduire au strict minimum le temps de calculperdu à cause des préemptions et migrations, les temps de sauvegarde et derechargement de la L1 n’ayant plus d’influence sur l’exécution des tâches. Deplus, chaque niveau étant dédié à une tâche, les interférences entre tâchessont réduites.Les propriétés ainsi que les implications sur les aspects temps réelsthéoriques sont présentées pour des systèmes mono et multiprocesseurs.Une implémentation d’un système uniprocesseur incluant ce servicematériel et sa caractérisation par rapport à l’exécution d’un set de tâchessont également présentées ainsi que les bénéfices apportés par le HwCS:Lorsque les couches du HwCS ont la même taille que le cache de base, 94%des tâches ont un meilleur temps d’exécution (jusqu’à 67%) et 80% ont unmeilleur pire temps d’exécution (WCET). 80% des tâches deviennent plusprédictibles et les 20% restants bénéficient néanmoins d’un meilleur WCET.Toutefois, si la taille du cache est partagée entre les couches du HwCS, lesmesures montrent que 75% des tâches ont un meilleur temps d’exécution,impliquant un meilleur WCET pour la moitié des tâches du système. Seule-ment 6% des tâches voient leur WCET augmenter et leur prédictibilitédiminuer tandis que 75% des tâches améliorent leur prédictibilité grâce auHwCS. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
17

Modélisation de processus coévolutifs sur réseaux : applications à l'épidémiologie

Marceau, Vincent. 18 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2011-2012 / Les réseaux sont des structures mathématiques abstraites qui sont utilisées pour modéliser une grande variété de systèmes complexes. Ils trouvent une application importante en épidémiologie, où on les utilise pour modéliser les contacts entre les individus d'une population afin d'étudier comment un agent viral pourrait s'y propager. Jusqu'à maintenant, la majorité des modèles mathématiques en épidémiologie sur réseaux ont été développés dans le cadre du paradigme de V épidémie isolée, dans lequel le seul processus étudié est la propagation d'un agent viral. En réalité, plusieurs processus peuvent toutefois avoir lieu simultanément et interagir au sein d'une même population. On parle alors de processus coévolutifs. Ce mémoire est consacré au développement des outils nécessaires à la modélisation de processus coévolutifs en épidémiologie sur réseaux. On s'intéresse plus particulièrement à deux types de coévolution, soit la coévolution d'un agent viral avec la topologie du réseau et la coévolution de deux agents viraux.
18

Vérification temporelle des systèmes cycliques et acycliques basée sur l’analyse des contraintes

Azzabi, Ahmed 08 1900 (has links)
Nous présentons une nouvelle approche pour formuler et calculer le temps de séparation des événements utilisé dans l’analyse et la vérification de différents systèmes cycliques et acycliques sous des contraintes linéaires-min-max avec des composants ayant des délais finis et infinis. Notre approche consiste à formuler le problème sous la forme d’un programme entier mixte, puis à utiliser le solveur Cplex pour avoir les temps de séparation entre les événements. Afin de démontrer l’utilité en pratique de notre approche, nous l’avons utilisée pour la vérification et l’analyse d’une puce asynchrone d’Intel de calcul d’équations différentielles. Comparée aux travaux précédents, notre approche est basée sur une formulation exacte et elle permet non seulement de calculer le maximum de séparation, mais aussi de trouver un ordonnancement cyclique et de calculer les temps de séparation correspondant aux différentes périodes possibles de cet ordonnancement. / We present a new approach for formulating and computing time separation of events used for timing analysis of different types of cyclic and acyclic systems that obey to linear-min-max type constraints with finite and infinite bounded component delays. Our approach consists of formulating the problem as a mixed integer program then using the solver Cplex to get time separations between events. In order to demonstrate the practical use of our approach we apply it for the verification and analysis of an Intel asynchronous differential equation solver chip. Compared to previous work, our approach is based on exact formulation and it allows not only the maximum separation computing, but it can also provide cyclic schedules and compute bound on possible periods of such schedules.
19

Immanuel Wallerstein : de la sociologie du développement à l’histoire globale / Immanuel Wallerstein : from development sociology to global history

Hugot, Yves David 21 September 2017 (has links)
Dans cette thèse nous avons cherché à prendre la mesure de la rupture épistémologique produite par l’analyse des systèmes-monde dans le champ des sciences sociales à travers l’étude d’un de ses principaux représentants, Immanuel Wallerstein. Dans un premier temps, ses recherches sur les mouvements nationalistes, la décolonisation et les indépendances africaines, se sont inscrites dans le cadre de ce qu’on a appelé la théorie de la modernisation qui corrélait changements sociaux et développement. Un tel modèle reposait sur une philosophie de l’histoire progressiste ordonnant les sociétés pensées comme des entités discrètes sur un axe menant de la tradition à la modernité, de sociétés agraires et rurales pauvres et oppressives pour l’individu à des sociétés urbaines industrielles prospères et individualistes. L’échec du développement des pays africains au cours des années 60 a fait douter Wallerstein de la pertinence de ce modèle. Il a alors cherché à élaborer une théorie alternative de la modernité à l’échelle globale. Au lieu de lire l’histoire mondiale selon le fil d’une modernisation qui serait un processus se réalisant à l’échelle sociétale, il l’a organisée autour de l’échange inégal entre zones exploiteuses et exploitées appartenant à un même système social appelé « système-monde moderne. » L’histoire de la modernité depuis la Renaissance et la conquête de l’Amérique devenait alors celle d’une polarisation continue entre les différentes zones de ce système, sa globalisation à partir de la deuxième moitié du dix-huitième siècle et durant tout le dix-neuvième ne faisant qu’étendre au monde entier l’inégalité entre un centre développé et une périphérie sous-développée. Au-delà de la critique de la théorie de la modernisation et du développementalisme, l’analyse des systèmes-monde a aussi procédé à une remise en cause de l’image progressiste de l’histoire qui s’était imposée depuis la philosophie des Lumières. Le système-monde moderne apparu au tournant du quinzième et du seizième siècle, comme tout système, aura une fin, comme il a eu un début. Nous vivons dans un système social qui en tant que tel est voué à disparaître sans qu’on puisse dire s’il constitue un progrès par rapport aux précédents (jamais aucun système social n’a été aussi inégalitaire), ni s’il donnera naissance à un système qui sera meilleur (en bifurcation chaotique l’avenir est incertain).En élaborant une autre « chronosophie » (Krystof Pomian), une autre « image » (Thomas Kuhn) de l’histoire que celle, progressiste, qui sous-tendait le développementalisme et la théorie de la modernisation, c’est bien une révolution copernicienne et une rupture épistémologique dans les sciences sociales qu’expose l’analyse des systèmes-monde. C’est donc bien un nouveau paradigme qu’elle se propose de constituer, l’œuvre de Wallerstein incarnant le passage des histoires mondiales classiques fondées sur le nationalisme méthodologique et l’idée de progrès, vers les histoires globales actuelles. / This PhD thesis aims to study the epistemological break produced by world-systems analysis in the field of social sciences, through the study of one of its major representatives, Immanuel Wallerstein. Initially, his research on nationalist movements, decolonization and African Independences was part of what has been called modernization’s theory. Such a model, built on a progressist philosophy of history, orders societies - perceived as discrete entities - on a linear axis leading from tradition to modernity, from poor and oppressive agrarian societies to prosperous and individualistic urban, industrial societies. The failure of development in African countries during the 1960s caused Wallerstein to doubt the relevance of this model. He then sought to elaborate an alternative theory of modernity on a global scale. In this theory, modernisation - a process realizable on the societal scale - is not the guiding thread to the reading of world history. Rather, world history is organised through the unequal exchange between exploitative and exploited zones belonging to the same social system he called “modern world-system”. The history of modernity from the Renaissance and the conquest of America onwards became one of continuous polarisation between different zones of the system. Its globalisation from the second half of the eighteenth and throughout the nineteenth century expanded inequality between a developed centre and an underdeveloped periphery to the entire world. Further to the critique of modernisation and developmentalism, the world-systems analysis has also called into question the progressive image of history which had been imposed since the Enlightenment philosophy. The modern world-system as it emerges at the turn of the fifteenth to the sixteenth century will have a demise as it had a beginning. As a social system, it is bound to disappear. It does not constitute an improvement with regard to the precedent systems (never has any social system been so inegalitarian) and it is unlikely to breed a better system since in a chaotic bifurcation, the future is uncertain.By elaborating a new “image” (Thomas Kuhn) of history, a new chronosophy (Krzysztof Pomian), the world-systems analysis operates a Copernican revolution and an epistemological rupture in the social sciences with regards to the theory of modernisation presented as the compendium of nineteenth century social science. As such, the world-systems analysis emerges as a new paradigm. Wallerstein’s work constitutes the passage from world histories founded on methodological nationalism and the idea of progress to the current non-Eurocentric global histories.
20

Analyse of real-time systems from scheduling perspective / Analyse des systèmes temps réel de point de vue ordonnancement

Chadli, Mounir 21 November 2018 (has links)
Les logiciels sont devenus une partie importante de notre vie quotidienne, car ils sont maintenant utilisés dans de nombreux périphériques hétérogènes, tels que nos téléphones, nos voitures, nos appareils ménagers, etc. Ces périphériques sont parsemés d’un certain nombre de logiciels intégrés, chacun gérant une tâche spécifique. Ces logiciels intégrés sont conçus pour fonctionner à l’intérieur de systèmes plus vastes avec un matériel varié et hétérogène et des ressources limitées. L'utilisation de logiciels embarqués est motivée par la flexibilité et la simplicité que ces logiciels peuvent garantir, ainsi que par la réduction des coûts. Les Cyber-Physical System (CPS) sont des logiciels utilisés pour contrôler des systèmes physiques. Les CPS sont souvent intégrés et s'exécutent en temps réel, ce qui signifie qu'ils doivent réagir aux événements externes. Un CPS complexe peut contenir de nombreux systèmes en temps réel. Le fait que ces systèmes puissent être utilisés dans des domaines critiques tels que la médecine ou les transports exige un haut niveau de sécurité pour ces systèmes. Les systèmes temps réel (RTS), par définition, sont des systèmes informatiques de traitement qui doivent répondre à des entrées générées de manière externe. Ils sont appelés temps réel car leur réponse doit respecter des contraintes de temps strictes. Par conséquent, l'exactitude de ces systèmes ne dépend pas seulement de l'exactitude des résultats de leur traitement, mais également du moment auquel ces résultats sont donnés. Le principal problème lié à l'utilisation de systèmes temps réel est la difficulté de vérifier leurs contraintes de synchronisation. Un moyen de vérifier les contraintes de temps peut consister à utiliser la théorie de la planification, stratégie utilisée pour partager les ressources système entre ses différents composants. Outre les contraintes de temps, il convient de prendre en compte d'autres contraintes, telles que la consommation d'énergie ou la sécurité. Plusieurs méthodes de vérification ont été utilisées au cours des dernières années, mais avec la complexité croissante des logiciels embarqués, ces méthodes atteignent leurs limites. C'est pourquoi les chercheurs se concentrent maintenant sur la recherche de nouvelles méthodes et de nouveaux formalismes capables de vérifier l'exactitude des systèmes les plus complexes. Aujourd'hui, une classe de méthodes de vérification bien utilisées est les techniques basées sur des modèles. Ces techniques décrivent le comportement du système considéré à l'aide de formalismes mathématiques, puis, à l'aide de méthodes appropriées, permettent d'évaluer l'efficacité du système par rapport à un ensemble de propriétés. Dans ce manuscrit, nous nous concentrons sur l'utilisation de techniques basées sur des modèles pour développer de nouvelles techniques de planification afin d'analyser et de valider la satisfiabilité d'un certain nombre de propriétés sur des systèmes temps réel. L'idée principale est d'exploiter la théorie de l'ordonnancement pour proposer ces nouvelles techniques. Pour ce faire, nous proposons un certain nombre de nouveaux modèles afin de vérifier la satisfiabilité d'un certain nombre de propriétés telles que l'ordonnancement, la consommation d'énergie ou la fuite d'informations. / Software’s become an important part of our daily life as they are now used in many heterogeneous devices, such as our phones, our cars, our home appliances … etc. These devices are dotted with a number of embedded software’s, each handling a specific task. These embedded software’s are designed to run inside larger systems with various and heterogeneous hardware and limited resources. The use of embedded software is motivated by the flexibility and the simplicity that these software can guarantee, and to minimize the cost. Cyber-Physical System (CPS) are software used to control physical systems. CPS are often embedded and run in real-time, which means that they must react to external events. A complex CPS can contains many real-time systems. The fact that these systems can be used in critical domains like medicine or transport requires a high level of safety for these systems. Real-Time Systems (RTS) by definition are processing information systems that have to respond to externally generated inputs, and they are called real-time because their response must respect a strict timing constraints. Therefore, the correctness of these systems does not depend only on the correctness of their treatment results, but it also depends on the timings at which these results are given. The main problem with using real-time systems is the difficulty to verify their timing constraints. A way to verify timing constraints can be to use Scheduling theory which is a strategy used in order to share the system resources between its different components. In addition to the timing constraints, other constraints should be taken in consideration, like energy consumption or security. Several verification methods have been used in the last years, but with the increasing complexity of the embedded software these methods reach their limitation. That is why researchers are now focusing their works on finding new methods and formalisms capable of verifying the correctness of the most complex systems. Today, a well-used class of verification methods are model-based techniques. These techniques describe the behavior of the system under consideration using mathematical formalisms, then using appropriate methods they give the possibility to evaluate the correctness of the system with respect to a set of properties. In this manuscript we focus on using model-based techniques to develop new scheduling techniques in order to analyze and validate the satisfiability of a number of properties on real-time systems. The main idea is to exploit scheduling theory to propose these new techniques. To do that, we propose a number of new models in order to verify the satisfiability of a number of properties as schedulability, energy consumption or information leakage.

Page generated in 0.0941 seconds