81 |
Élaboration, parcours et automatisation de traces et savoirs numériques / Design, Browsing and Automation of Digital Knowledge and TracesBlot, Guillaume 30 June 2017 (has links)
Comment l'accès au savoir peut-il être impacté par la technologie ? Il suffit d'observer le virage intenté par les outils de communication au début des années 2000 pour se rendre compte : convergence des médias, pratiques participatives et numérisation massive des données. Dans ce contexte, on imagine que l'accès au savoir tend à se démocratiser. En effet, les individus semblent se réapproprier les espaces de vie, en inversant le modèle de transmission top-down, qui va du producteur vers le consommateur, au profit de processus de transfert basés sur l'intelligence collective. Pourtant, on aurait tort de réduire cette réorganisation à un simple renversement du modèle. Car l'intelligence collective est encline à divers biais cognitifs et socio-cognitifs, amenant parfois vers des situations irrationnelles. Autrefois, on s’accommodait de ces mécaniques sociales aux conséquences limitées, aujourd'hui les savoirs numérisés constituent des ensembles massivement communiquant, donnant naissance à de nouvelles voies d'accès et à de nouveaux clivages. Pourquoi ce savoir qui n'a jamais été aussi massif et ouvert, se révèle-t-il si sélectif ? Je propose d'explorer ce paradoxe. L'enregistrement massif et constant de nos traces numériques et l'hyper-connexion des individus, participent à la construction de structures organisationnelles, où se retrouvent numérisées de manière complexe, une partie des dynamiques sociales. En formalisant de la sorte les voies navigables, ces structures organisationnelles façonnent nos trajectoires. Sur cette base, les informaticiens ont mis au point des algorithmes de parcours individualisés, ayant pour objectifs de prédire et de recommander. Ainsi, on propose d'automatiser l'accès au savoir. Se pose alors la question de la gouvernance des individus, dans un contexte où l'intelligence collective est soumise à l'infrastructure : enregistrement des traces, composition des structures organisationnelles et algorithmes de parcours. / How access to knowledge can be impacted by Information Technology? In the earlier 2000s, communication tools caused a significant turn : media convergence, participative practices and massive data. In this way, free access to knowledge might tend to be democratized. People seem to regain spaces, reversing traditional top-down model, going from producer to consumer, for the benefit of an horizontal model based on collective intelligence. However, it should not automatically be assumed that this leads to a simple model reversing. Collective intelligence is subject to cognitive biases, leading to potential irrational situations. Formerly, those social mechanisms had limited consequences. Nowadays, digital knowledge are massive communicating spaces, giving birth to new access paths and new cleavages. Why this massive and open knowledge, is actually so selective? I propose to explore this paradox. Massive and constant tracking of traces and individuals hyper-connection, these two facts help organizational structures design, where social dynamics are digitalized in a complex way. These structures formalize human trajectories. On this basis, computer scientists set up prediction algorithms and recommender engines. This way, knowledge access is automatized. It can then be asked about people governance, in this context of infrastructure submission: recording traces, designing knowledge structure and automating algorithms.
|
82 |
Exploiting Model Transformation Examples for Easy Model Transformation Handling (Learning and Recovery) / Vers une assistance à la manipulation de transformations de modèles par l'exploitation d'exemples de transformationSaada, Hajer 04 December 2013 (has links)
L'Ingénierie Dirigée par les Modèles (IDM) est un domaine de recherche en pleine émergence qui considère les modèles comme des éléments de base. Chaque modèle est conforme à un autre modèle, appelé son méta-modèle, qui définit sa syntaxe abstraite et ses concepts. Dans un processus IDM, différents types de modèles sont manipulés par des transformations de modèles. Une transformation génère un modèle dans un langage cible à partir d'un modèle dans un langage source. Pour concevoir une transformation, les développeurs doivent avoir une bonne connaissance des méta-modèles concernés ainsi que des langages de transformation, ce qui rend cette tâche difficile. Dans cette thèse, nous proposons d'assister l'écriture des transformations et plus généralement de comprendre comment une transformation opère. Nous adhérons à l'approche de transformation de modèles par l'exemple qui propose de créer une transformation de modèles à partir d'exemples de transformation. Cela permet d'utiliser la syntaxe concrète définie pour les méta-modèles, et cela évite donc de requérir que les développeurs aient une bonne maîtrise des méta-modèles utilisés. Dans ce contexte, nous proposons deux contributions. La première consiste à définir une méthode pour générer des règles de transformation opérationnelles à partir d'exemples. Nous nous basons sur une approche qui utilise l'Analyse Relationnelle de Concepts (ARC) comme technique d'apprentissage pour obtenir des patrons de transformation à partir d'un appariement de type 1-1 entre les modèles. Nous développons une technique pour extraire des règles de transformation opérationnelles à partir de ces patrons. Ensuite, nous utilisons le langage et le moteur de règles JESS pour exécuter ces règles. Nous étudions aussi comment mieux apprendre des règles de transformations à partir d'exemples, en utilisant séparément chaque exemple ou en réunissant tous les exemples. La deuxième contribution consiste à récupérer les traces de transformation à partir d'exemples de transformation. Ces traces peuvent être utilisées par exemple pour localiser des erreurs durant l'exécution des programmes de transformation ou vérifier la couverture de tous les modèles d'entrée par une transformation. Dans notre contexte, nous supposons que ces traces vont servir pour un futur apprentissage des règles de transformation. Nous traitons tout d'abord le problème de récupération des traces avec des exemples provenant d'un programme de transformation. Nous proposons une approche basée sur une méta-heuristique multi-objectifs pour générer des traces sous forme d'appariement de type n-m entre des éléments de modèles. La fonction objectif s'appuie sur une similarité lexicale et structurelle entre ces éléments. Une extension de cette méthode est proposée pour traiter le problème plus général de l'appariement entre modèles. / Model Driven Engineering (MDE) considers models as first class artifacts. Each model conforms to another model, called its metamodel which defines its abstract syntax and its semantics.Various kinds of models are handled successively in an MDE development cycle. They are manipulated using, among others, programs called model transformations. A transformation takes as input a model in a source language and produces a model in a target language. The developers of a transformation must have a strong knowledge about the source and target metamodels which are involved and about the model transformation language. This makes the writing of the model transformation difficult.In this thesis, we address the problem of assisting the writing of a model transformation and more generally of understanding how a transformation operates.We adhere to the Model Transformation By example (MTBE) approach, which proposes to create a model transformation using examples of transformation. MTBE allows us to use the concrete syntaxes defined for the metamodels. Hence, the developers do not need in-depth knowledge about the metamodels. In this context, our thesis proposes two contributions.As a first contribution, we define a method to generate operational transformation rules from transformation examples. We extend a previous approach which uses Relational Concept Analysis as a learning technique for obtaining transformation patterns from 1-1 mapping between models. We develop a technique for extracting relevant transformation rules from these transformation patterns and we use JESS language and engine to make the rules executable. We also study how we better learn transformation rules from examples, using transformation examples separately or by gathering all the examples.The second contribution consists in recovering transformation traces from transformation examples. This trace recovery is useful for several purposes as locating bugs during the execution of transformation programs, or checking the coverage of all input models by a transformation. In our context, we expect also that this trace will provide data for a future model transformation learning technique. We first address the trace recovery problem with examples coming from a transformation program. We propose an approach, based on a multi-objective meta-heuristic, to generate the textit{many-to-many} mapping between model constructs which correspond to a trace. The fitness functions rely on the lexical and structure similarity between the constructs. We also refine the approach to apply it to the more general problem of model matching.
|
83 |
A trust framework for multi-organization environments / Un système de confiance pour les environnements multi-organisationnelsToumi, Khalifa 01 April 2014 (has links)
De nos jours, la propagation rapide des technologies de communication, de stockage de données et des web services encouragent les entreprises à collaborer entre elles formant ainsi un environnement multi-organisationnels. Ces entreprises participent à cet environnement afin de profiter des opportunités offertes tels que: (1) la possibilité d'utilisation des ressources et des services externes et professionnels (2) la réduction du temps de production et (3) les bénéfices résultant des effets de synergie. Toutefois, cette collaboration n'est pas parfaite. Des nombreux problèmes peuvent apparaître tels que l'utilisation malveillante des ressources, la divulgation des données ou des services inadéquats. Par conséquent, la sécurité est une préoccupation importante des participants. Les principaux défis de sécurité pour un participant sont la gestion de la confiance et le contrôle d'accès. Dans cette thèse, nous avons abordé en particulier ces deux domaines et nous proposons une nouvelle approche de gestion de la confiance pour les systèmes mutli-organisationnels. Notre approche est divisée en quatre parties. Tout d'abord, nous avons défini un modèle de confiance basé sur la notion des vecteurs. Ces derniers sont composés d'un ensemble de paramètres qui permettent de fournir un degré de confiance sous certaines conditions. Dans notre approche, nous envisageons deux types de vecteurs. D'une part, un vecteur lié à une relation entre un utilisateur et une organisation et d'autre part un vecteur qui relie deux organisations. De plus, nous avons montré comment évaluer et partager ces vecteurs entre les organisations, et comment utiliser les informations évaluées pour améliorer la sécurité. Concernant notre deuxième contribution, nous avons intégré ce nouveau modèle de confiance dans le modèle de contrôle d'accès OrBAC (Organization Based Access Control). Cette intégration a donné naissance à notre modèle TRUST-OrBAC. En outre, nous avons appliqué cette solution à un cas d'étude de collaboration entre des entreprises. Troisièmement, nous avons proposé une nouvelle ontologie de confiance basée sur des concepts de contrôle d'accès. Cette ontologie sera utilisée pour partager les degrés de confiance entre les participants et pour définir l'équivalence entre leurs objectifs. Ainsi, comment définir cette relation de confiance, comment comprendre l'objectif de la confiance d'un demandeur, et comment évaluer la valeur de la recommandation sont toutes des problématiques auxquelles nous avons essayé de répondre dans le cadre de ce travail. Quatrièmement, nous avons amélioré notre travail par la conception d'une approche de test passif afin d'évaluer le comportement d'un utilisateur. Cette contribution a été basée sur l'outil de test MMT (Montimage Monitoring Tool). Finalement, nous avons conçu une architecture sécurisée d'un système distribué en se basant sur nos contributions / The widespread of inexpensive communication technologies, distributed data storage and web services mechanisms currently urge the collaboration among organizations. Partners are participating in this environment motivated by several advantages such as: (1) the ability to use external and professional resources, services and knowledge, (2) the reduction of time-consuming requirements and (3) the benefaction of experts experience. However, this collaboration is not perfect since several problems can arise such as the misuse of resources, disclosure of data or inadequate services. Therefore, security is an important concern of the participants. In particular trust management and access control are one of the major security issues for an organization. This thesis addresses these two areas in particular. It proposes a novel and comprehensive trust framework for Multi-Organization Environments. Our approach is organized in four parts. First, we propose a vector based model approach for defining trust vectors. These vectors evaluate a set of requirements, under conditions, and provide a degree of confidence. In our approach, we consider two different types of vectors. On the one hand, a vector that links a user to an organization and, on the other hand, a vector that links two organizations. We also show how these vectors are evaluated and shared among the different organizations, and how we combine the provided trust information in order to enhance the security. Second, the TRUST-OrBAC model was designed to add the previous trust approach to the ORBAC model. Moreover, this solution was applied with a real collaboration network between companies. Third, we present a trust ontology methodology based on access control concepts. This ontology will be used to share the trust beliefs between participants and to make equivalence between their trust objectives. How to define this trust relationship, how to understand the trust objective of a requester, and how to evaluate the recommendation value is addressed in this thesis. Fourth, we improve our work by designing a passive testing approach in order to evaluate the behavior of a user. This contribution is based on the monitoring tool MMT. Finally the entire architecture of our system is proposed
|
84 |
Environnements de visualisation pour l'évaluation des performances des systèmes parallèles : étude, conception et réalisationArrouye, Yves 01 November 1995 (has links) (PDF)
Les applications parallèles sont de plus en plus complexes et, même si les environnements de développement s'améliorent, de plus en plus difficiles à mettre au point que ce soit du point de vue de leur correction ou, dans le cadre qui nous intéresse, de leurs performances. Un outil intéressant pour la mise au point des performances d'une application est la visualisation de son exécution. Le travail présenté dans ce mémoire porte sur l'étude, la conception et la réalisation d'un environnement interactif extensible de visualisation pour l'évaluation de performance de systèmes parallèles. Un tel environnement permet de reconstituer le comportement d'une application d'après des traces d'exécution et facilite, par le calcul et la présentation d'indices de performances, la compréhension de son fonctionnement et la détection de ses problèmes de performance. Nous commençons par préciser les concepts importants dans un environnement de visualisation et présentons ensuite l'état de l'art en la matière. Nous décrivons ensuite la conception et la réalisation de l'environnement Scope. Cet environnement est validé par rapport aux objectifs initiaux et son utilité est démontrée par l'étude de sessions d'évaluation de performance d'applications concrètes.
|
85 |
Technique de visualisation pour l’identification de l’usage excessif d’objets temporaires dans les traces d’exécutionDuseau, Fleur 12 1900 (has links)
De nos jours, les applications de grande taille sont développées à l’aide de nom-
breux cadres d’applications (frameworks) et intergiciels (middleware). L’utilisation ex-
cessive d’objets temporaires est un problème de performance commun à ces applications.
Ce problème est appelé “object churn”. Identifier et comprendre des sources d’“object
churn” est une tâche difficile et laborieuse, en dépit des récentes avancées dans les tech-
niques d’analyse automatiques.
Nous présentons une approche visuelle interactive conçue pour aider les développeurs
à explorer rapidement et intuitivement le comportement de leurs applications afin de
trouver les sources d’“object churn”. Nous avons implémenté cette technique dans Vasco,
une nouvelle plate-forme flexible. Vasco se concentre sur trois principaux axes de con-
ception. Premièrement, les données à visualiser sont récupérées dans les traces d’exécu-
tion et analysées afin de calculer et de garder seulement celles nécessaires à la recherche
des sources d’“object churn”. Ainsi, des programmes de grande taille peuvent être vi-
sualisés tout en gardant une représentation claire et compréhensible. Deuxièmement,
l’utilisation d’une représentation intuitive permet de minimiser l’effort cognitif requis
par la tâche de visualisation. Finalement, la fluidité des transitions et interactions permet
aux utilisateurs de garder des informations sur les actions accomplies. Nous démontrons
l’efficacité de l’approche par l’identification de sources d’“object churn” dans trois ap-
plications utilisant intensivement des cadres d’applications framework-intensive, inclu-
ant un système commercial. / Nowadays, large framework-intensive programs are developed using many layers of
frameworks and middleware. Bloat, and particularly object churn, is a common per-
formance problem in framework-intensive applications. Object churn consists of an ex-
cessive use of temporary objects. Identifying and understanding sources of churn is a
difficult and labor-intensive task, despite recent advances in automated analysis tech-
niques.
We present an interactive visualization approach designed to help developers quickly
and intuitively explore the behavior of their application with respect to object churn. We
have implemented this technique in Vasco, a new flexible and scalable visualization
platform. Vasco follows three main design goals. Firstly, data is collected from execu-
tion traces. It is analyzed in order to calculate and keep only the data that is necessary
to locate sources of object churn. Therefore, large programs can be visualized while
keeping a clear and understandable view. Secondly, the use of an intuitive view allows
minimizing the cognitive effort required for the visualization task. Finally, the fluidity
of transitions and interactions allows users to mentally preserve the context throughout
their interactions. We demonstrate the effectiveness of the approach by identifying churn
in three framework-intensive applications, including a commercial system.
|
86 |
Analyse et rejeu de traces de charge dans les grands systèmes de calcul distribuésEmeras, Joseph 01 October 2013 (has links) (PDF)
High Performance Computing is preparing the era of the transition from Petascale to Exascale. Distributed computing systems are already facing new scalability problems due to the increasing number of computing resources to manage. It is now necessary to study in depth these systems and comprehend their behaviors, strengths and weaknesses to better build the next generation. The complexity of managing users applications on the resources conducted to the analysis of the workload the platform has to support, this to provide them an efficient service. The need for workload comprehension has led to the collection of traces from production systems and to the proposal of a standard workload format. These contributions enabled the study of numerous of these traces. This also led to the construction of several models, based on the statistical analysis of the different workloads from the collection. Until recently, existing workload traces did not enabled researchers to study the consumption of resources by the jobs in a temporal way. This is now changing with the need for characterization of jobs consumption patterns. In the first part of this thesis we propose a study of existing workload traces. Then we contribute with an observation of cluster workloads with the consideration of the jobs resource consumptions over time. This highlights specific and unattended patterns in the usage of resources from users. Finally, we propose an extension of the former standard workload format that enables to add such temporal consumptions without loosing the benefit of the existing works. Experimental approaches based on workload models have also served the goal of distributed systems evaluation. Existing models describe the average behavior of observed systems. However, although the study of average behaviors is essential for the understanding of distributed systems, the study of critical cases and particular scenarios is also necessary. This study would give a more complete view and under- standing of the performance of resource and job management. In the second part of this thesis we propose an experimental method for performance evaluation of distributed systems based on the replay of production workload trace extracts. These extracts, replaced in their original context, enable to experiment the change of configuration of the system in an online workload and observe the different configurations results. Our technical contribution in this experimental approach is twofold. We propose a first tool to construct the environment in which the experi- mentation will take place, then we propose a second set of tools that automatize the experiment setup and that replay the trace extract within its original context. Finally, these contributions conducted together, enable to gain a better knowledge of HPC platforms. As future works, the approach proposed in this thesis will serve as a basis to further study larger infrastructures.
|
87 |
Efficacité mnésique et mécanisme d'intégration : applications chez l'adulte jeune et dans le vieillissement normal / Memory Effectiveness and the Integration Mechanism : applications in young adults and normal agingMacri, Anthony 24 November 2017 (has links)
Nous sous-estimons sans cesse notre mémoire. Nous la blâmons pour ses déboires mais ne la louons jamais pour ses succès. Toutefois, il faut bien l'admettre, notre mémoire flanche et ses capacités, notamment concernant l'évocation de souvenirs, faiblissent avec le temps et l'avancée en âge. Le cadre de la cognition incarnée propose que notre mémoire n'est pas simplement un outil nous permettant d'accéder à notre passé. Elle est avant tout tournée vers le présent et nous aide à appréhender chaque moment de notre vie quotidienne grâce à l'accumulation des expériences que nous vivons et qui nous servent de référence. La mémoire conserve des traces sensori-motrices de ces expériences (Versace, Labeye, Badard, & Rose, 2009) et son efficacité se définit alors par la capacité d'une situation à réactiver des propriétés stockées en mémoire et pertinentes par rapport à cette situation. C'est de cette réactivation que découle l'émergence des connaissances mais l'efficacité de cette réactivation dépend principalement du lien entre les différentes propriétés lorsqu'elles sont encodées au sein des traces des événements auxquels elles appartiennent. Au sein du modèle fonctionnel de mémoire à traces-multiples Act-in (Versace et al., 2014), l'établissement de ce lien repose sur le mécanisme d'intégration intra-trace. Certains facteurs, tels que la réalisation d'une action ou l'expérience d'une émotion, sont connus pour leurs effets sur l'efficacité de la mémoire. Cependant, ces effets n'ont que très peu été étudiés en rapport avec une conception incarnée de la mémoire. Nous émettions l'hypothèse que l'influence de ces facteurs sur la mémoire reflétait principalement leur impact sur le fonctionnement du mécanisme d'intégration. Le premier objectif de ce travail de thèse était donc d'évaluer si l'action et l'émotion permettaient d'améliorer le fonctionnement du mécanisme d'intégration. Ce mécanisme pouvant opérer à différents niveaux d'association entre les propriétés d'un événement : intégration des propriétés d'un item ou intégration de cet item à son contexte; ces travaux avaient également pour objectif de mettre en évidence un pattern clair vis-à-vis des effets de l'action et de l'émotion sur ces différents niveaux. Enfin, nous soutenons l'hypothèse émise par certains auteurs (e.g. Benjamin, 2000) selon laquelle les difficultés mnésiques rencontrées lors du vieillissement normal sont dues à un déficit dans l'établissement d'associations en mémoire entre différents éléments d'un événements. Ce déficit associatif peut se traduire en termes de déficit du mécanisme d'intégration et le dernier objectif de ces travaux consistait à évaluer si l'action et l'émotion, de par leur influence sur le mécanisme d'intégration, pouvaient réduire les déficits mnésiques observés chez les personnes âgées. Afin de tester ces hypothèses, nous avons employé un paradigme permettant d'obtenir des scores de performances sur les différents niveaux d'intégration chez un même individu tout en manipulant les effets de la réalisation d'actions au moment de l'encodage de l'information ou en manipulant la valence émotionnel du matériel employé et ce chez des adultes jeunes et âgés. / We tend to always underestimate our memory. We blame it for its mishaps but never praise it for its successes. Nonetheless, one must admit that memory has its flaws and its capacities, mostly regarding recollections, weaken with time and age. In the grounded cognition framework, memory is not just a tool to access our past. Memory is mainly turned towards the present and it helps us adapt to each moment of our daily lives thanks to the accumulation of the experiences we live and that become references. Memory is made up of sensori-motor traces of these experiences (Versace, Labeye, Badard, & Rose, 2009) and its effectiveness is thus defined by the potential of a situation to reactivate the properties stored in memory and that are relevant for the present situation. Knowledge emerges the reactivation from but the effectiveness of the reactivation depends mostly on the link between the different properties of an event at the moment of their encoding in memory. Within Act-in, a multiple-traces functional memory model (Versace et al., 2014), the formation of this link rests upon the integration mechanism.Several factors, such as performing an action or experiencing an emotion, are known to influence on memory effectiveness. However, this influence has only be rarely investigated in a grounded approach of memory. We formulated the hypothesis that the influence of these factors on memory reflects their impact on the integration mechanism. The first objective of this thesis was to assess if action and emotion were able to improve integration. This mechanism operates on different levels of association between the properties of an event: integration of the properties of an item and integration of the item to its context; the work reported in the present document aimed to identify a clear pattern regarding the effects of action and emotion on these different levels.Finally, we support the hypothesis formulated by several authors (e.g. Benjamin, 2000) according to which the memory difficulties encountered in normal aging are caused by a deficit in the formation of associations between the different elements of an event in memory. The associative deficit can be translated in terms of an integration deficit and our last objective was then to assess if action and emotion, through their influence on integration, could reduce the memory deficits observed in older adults. To test these hypotheses, we used a paradigm designed to evaluate the performances on the different levels of integration in one individual manipulating at the same time the actions performed by the participants at encoding or the emotional valence of the material both in young and older adults.
|
88 |
Abstraction et comparaison de traces d'exécution pour l'analyse d'applications multimédias embarquées / Abstraction and comparison of execution traces for analysis of embedded multimedia applicationsKamdem Kengne, Christiane 05 December 2014 (has links)
Le projet SoC-Trace a pour objectif le développement d'un ensemble de méthodes et d'outils basés sur les traces d'éxécution d'applications embarquées multicoeur afin de répondre aux besoins croissants d'observabilité et de 'débogabilité' requis par l'industrie. Le projet vise en particulier le développement de nouvelles méthodes d'analyse, s'appuyant sur différentes techniques d'analyse de données telles que l'analyse probabiliste, la fouille de données, et l'agrégation de données. Elles devraient permettre l'identification automatique d'anomalies,l'analyse des corrélations et dépendances complexes entre plusieurs composants d'une application embarquées ainsi que la maîtrise du volume important des traces qui peut désormais dépasser le GigaOctet. L'objectif de la thèse est de fournir une représentation de haut niveau des informations contenues dans les traces, basée sur la sémantique. Il s'agira dans un premier temps de développer un outil efficace de comparaison entre traces;de définir une distance démantique adaptée aux traces, puis dans un second temps d'analyser et d'interpréter les résultats des comparaisons de traces en se basant sur la distance définie. / The SoC-Trace project aims to develop a set of methods and tools based on execution traces of multicore embedded applications to meet the growing needs of observability and 'débogability' required by the industry. The project aims in particular the development of new analytical methods, based on different data analysis techniques such as probabilistic analysis, data mining, and data aggregation. They should allow the automatic identification of anomalies, the analysis of complex correlations and dependencies between different components of an embedded application and control of the volume traces that can now exceed the gigabyte. The aim of the thesis is to provide a high-level representation of information in the trace based semantics. It will initially develop an effective tool for comparing traces, to define a semantic distance for execution traces, then a second time to analyze and interpret the results of comparisons of traces based on the defined distance.
|
89 |
Performance et temps. Pour une théorie esthétique du temps dans la performance artistique du XXe siècle et du début du XXIe siècle / Performance and Time. Towards an Aesthetic Theory of Time in 20th and early 21st Century Performance ArtBury, Józef 12 December 2014 (has links)
La présente recherche a pour but d’étudier le rôle du temps dans les expériences artistique et esthétique relatives à la performance artistique. Cette étude porte sur les œuvres et les pratiques de la performance du XXe et du début du XXIe siècles, allant des premières manifestations publiques des avant-gardes historiques jusqu’à la performance augmentée par l’intégration des nouvelles technologies de l’enregistrement, de l’information et de la communication. Partant de l’hypothèse de l’efficience du composant temporel de la performance, il s’agit tout d’abord de démontrer que la structure temporelle de la performance fait l’objet d’une élaboration artistique réfléchie et que le temps peut être considérée comme « matériau » ou « milieu » de l’œuvre-performance. Les analyses de la dimension temporelle des œuvres particulières révèlent également son pouvoir d’agir sur le vécu de tous les protagonistes réunis au sein de la performance-événement et sa capacité de les impliquer à différents degrés dans le processus de la concrétisation de l’œuvre-performance. Ces différentes fonctions du temps, son « activité » et son mode opératoire sont analysés au cours de cette recherche en tant qu’ « agentivité du temps dans la performance ». À l’issue de ces investigations, le temps apparaît comme l’un des facteurs ontogénétiques de l’œuvre-performance fondant sa spécificité, et comme l’une de ses qualités intrinsèques susceptible de déterminer les conduites artistique et esthétique de l’artiste et du spectateur, au point de les rendre interchangeables. / The objective of the present research is to investigate the role of time in artistic and aesthetic experiences pertaining to performance art. This paper focuses on the performance works and practices of the 20th and early 21st centuries, ranging from the first public performances of historical avant-garde movements to the performance augmented through the use of the latest recording, information processing and communication technologies. Starting with the hypothesis of the efficiency of a performance’s temporal component, we first demonstrate that the temporal structure of a performance is the matter of well-thought-out artistic design, and that time can be regarded as the medium, or “milieu” of a performance work. Moreover, analyses of the temporal dimension of individual performance works reveal how time can affect the real-life experience of all the protagonists taking part in the performance-event, involving them, to varying degrees, in the process through which the performance comes into being as a work of art. These multiple functions of time, its “activity” and modus operandi are discussed throughout this study as “agency of time in performance”. The research shows that time turns out to be one of the ontogenetic, specificity-conferring factors of a performance work, and also one of its intrinsic qualities which is likely to determine the artist’s and spectator’s artistic and aesthetic attitudes to such an extent that they become interchangeable.
|
90 |
Treblinka (1942-1943) : lieu paradigmatique de la "Solution Finale" de la question juive : rendre compte des limites de l'extrême : essai de réinscription dans l'histoire / Treblinka 1942-1943 : the paradigmatic site of the "Final Solution of the Jewish Question" : conveying the representation of the limits of the extreme : an essay on rewriting historical emplotmentHausser-Gans, Michèle 05 July 2016 (has links)
Alors qu’un vaste corpus de documents existe en français concernant la Shoah en général et Auschwitz en particulier, celui relatif aux sites de l’Action Reinhard – Sobibor, Chelmno, Belzec, et surtout Treblinka - est relativement peu abondant. Un des obstacles majeurs à leur étude est l’absence - voulue par les nazis - des traces « visibles » de leur existence. Rasés et transformés en exploitations agricoles dès la fin 1943, aucun ne fut libéré par une quelconque armée. En France, Treblinka reste un camp encore largement méconnu. De tous les centres de mise à mort de l’opération Reinhard, ce fut pourtant celui où l’assassinat des Juifs fut le plus « efficace » (selon les responsables du système) - près d’un million victimes en 400 jours - et celui où les survivants furent (relativement) les plus nombreux : entre 50 et 70 en 1945. Il représente le cas paradigmatique d’une « impossibilité de rendre compte ». Décrire et réinscrire Treblinka dans l’Histoire, malgré tous ces écueils, c’est aussi déjouer les pronostics mémoriels du projet nazi tout en incitant l’historien à réfléchir sur les méthodes de son champ de recherche et sur le sens de son travail. / If a vast array of historical and literary material concerning WWII and the Holocaust is available in French, accounts concerning Aktion Reinhard in Poland, (Sobibor, Belzec, and Treblinka Camps) are relatively scarce. One of the major causes for this scarcity is the fact that the Nazis purposely destroyed almost all traces of their occurrence. Before the end of 1943, these sites were dismantled and turned into fake farms. None of these places was “liberated” by any military force.In France, Treblinka remains quite unknown. So is the fact that it was the most “successful” unit of the Aktion Reinhard death machinery. Close to a million Jews were assassinated there during the 400 days that it operated. It was also there that the number of survivors was relatively important: 50 to 70 were alive in 1945. It can be viewed as the paradigmatic case of words’ inability to express such knowledge. Despite all these difficulties, the description and reinsciption in History of Treblinka’s reality addresses a double necessity: to defeat the Nazis’ predictions regarding the erasure of their crimes and to confront the Historian with the relevance of his methods and the meaning of his endeavor.
|
Page generated in 0.0196 seconds