• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 16
  • 4
  • Tagged with
  • 44
  • 15
  • 8
  • 8
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

LIDIA-1 : une première maquette vers la TA Interactive "pour tous"

Blanchon, Hervé 21 January 1994 (has links) (PDF)
L'objet de cette thèse est la définition et l'étude, au moyen d'une maquette, du concept de Traduction Automatisée Fondée sur le Dialogue pour auteur monolingue. Nous situons d'abord l'objet de cette étude dans une perspective historique en montrant pourquoi les travaux précédents en TAFD n'ont pas (encore) conduit à des systèmes utilisés en pratique. Nous proposons alors le concept de TAFD pour auteur monoligue qui offre de nouvelles perspectives concrètes et permet de poser des questions scientifiques intéressantes. Le but est de permettre à un auteur monolingue de documentation technique de traduire les documents qu'il rédige. Dans ce cadre, l'auteur aide le système à traduire dans une ou plusieurs langues cibles, via une standardisation et une clarification interactives effectuées une seule fois quel que soit l'ensemble des langues cibles visées. Afin que la station de rédaction de l'auteur soit un ordinateur personnel de milieu de gamme, le système est distribué. Les traitements linguistiques couteux (analyse, transfert et génération) - écrits en Ariane-G5 par les linguistes du GETA - sont donc effectués sur un serveur de traduction distribué en mode asynchrone. La maquette LIDIA-1 permet d'étudier les contraintes informatiques, ergonomiques et linguistiques d'un tel système, et de proposer des solutions. Elle permet de traduire une pile de démonstration qui explique certaines ambiguités du français, vers l'allemand, l'anglais et le russe. Pour vérifier les traductions produites, l'auteur peut demander des rétrotraductions. Nous avons utilisé une architecture distribuée dans laquelle trois serveurs communiquent au moyen de messages et de boîtes aux lettres. Le processus de clarification est basé sur un mécanisme de reconnaissance de patrons à chacun desquels est associée une méthode de production du dialogue en langue naturelle.
22

Optimisation des méthodes d'implantation automatisée sur les réseaux structurés

Bellon, Alain 12 December 1984 (has links) (PDF)
Étude des méthodes de placements : évaluation des critères d'optimisation, et fonction du cout de placement. Présentation des heuristiques de placement suivant une classification synthétique afin de mettre en évidence leurs avantages, leurs inconvénients et leurs domaines d'application. Principes d'adaptation des méthodes de placement au traitement des réseaux structurés. Implantation des connexions dans les structures à canaux d'interconnexion. Détail des stratégies basées sur une décomposition du traitement en deux phases successives. Étude en particulier des méthodes de tracé global sur les réseaux prédiffusés. Présentation d'un système d'implantation automatise sur les réseaux de cellules prédiffusés structurés en matrice de macro-site.
23

Systèmes d'accès à des ressources documentaires : vers des anté-serveurs intelligents

Le Crosnier, Hervé 21 December 1990 (has links) (PDF)
Un système documentaire est modélisé par trois fonctions : la fonction d'indexation dont on étudie les hypothèses permettant l'indexation automatique. Une fonction de traduction des questions de l'utilisateur qui permet de définir la qualité de l'interface homme-système. Une fonction de pertinence qui permet de classer les documents en fonction des besoins documentaires de l'utilisateur. On étudie dans ce cadre le modèle booléen, le modèle vectoriel, et le modèle probabiliste. On évalue les perspectives offertes par le modèle hypertexte et l'approche connexionniste en informatique documentaire. Une application pratique est étudiée : la réalisation, suivant un modèle booléen de l'interface utilisateur du catalogue de la bibliothèque scientifique de l'université de Caen. On évalue ensuite les axes de recherche nouveaux en informatique documentaire au travers de trois axes de travail : les systèmes experts, l'auto-apprentissage et les modèles de représentation. La perspective des anté-serveurs intelligents est présentée, et une liste des fonctionnalités nécessaires au succès de ce type d'intermédiaire est établie.
24

Navigation sûre en environnement dynamique : une approche par planification de mouvement partiel

Petti, Stéphane Renaud 11 July 2007 (has links) (PDF)
Notre travail aborde le problème de navigation autonome en milieu dynamique partiellement connu. Ce problème a généré de nombreux travaux durant les dix dernières années. Néanmoins, nous avons observé que certains aspect fondamentaux liés à la nature dynamique de l'environnement ont été oubliés, en commençant par la limite de temps qu'un système placé dans un environnement dynamique a, pour prendre une décision et exécuter son mouvement. Bien que cette contrainte soit d'importance cruciale, il y a paradoxalement peu de travaux dans la littérature la prennent en compte. Cette contrainte temps réel a été placée au cœur de notre travail. Dans ce travail nous présentons une technique de planification qui prend en compte de manière explicite la contrainte temps réel imposée par l'environnement dynamique. La planification de mouvement partiel (PMP) est une technique originale de planification qui réagit à tout moment; dès que le temps imparti pour calculer une trajectoire est écoulé, la meilleure trajectoire calculée disponible est transmise. En fait, de notre point de vue, l'approche PMP est la meilleure approche possible au problème que nous avons observé, à savoir l'incompatibilité intrinsèque entre la planification en environnement dynamique et la contrainte temps réelle. PMP intègre également le problème de sûreté, que nous considérons d'un point de vue des états de collisions inévitables (ICS), concept récent qui englobe toutes les approches existantes et de proposer une technique qui donne de fortes garanties de sûreté pour notre système. Enfin, dans ce travail, nous démontrons l'efficacité de notre approche PMP pour des environnements relativement complexes. Plusieurs expérience ont été mises en œuvre où PMP a ainsi été intégré sur une plate forme réelle, le robot type voiture Cycab, véhicule conçu par l'INRIA.
25

Conception d’architecture de système-de-systèmes à logiciel prépondérant dirigée par les missions / Mission-driven Software-intensive System-of-Systems Architecture Design

Ferreira silva, Eduardo 17 December 2018 (has links)
La formulation des missions est le point de départ du développement de systèmes-de- systèmes, étant utilisée comme base pour la spécification, la vérification et la validation d’architectures de systèmes-de-systèmes. Élaborer des modèles d’architecture pour systèmes-de-systèmes est une activité complexe, cette complexité reposant spécialement sur les comportements émergents, c'est-à-dire, des comportements issus des interactions entre les parties constituantes d’un système-de-systèmes qui ne peuvent pas être prédits même si on connaît tous les comportements de tous les systèmes constituants. Cette thèse adresse le lien synergique entre mission et architecture dans le cadre des systèmes-de-systèmes à logiciel prépondérant, en accordant une attention particulière aux comportements émergents créés pour réaliser les missions formulées. Nous proposons ainsi une approche pour la conception d’architecture de systèmes-de-systèmes dirigée par le modèle de mission. Dans notre approche, le modèle de mission sert à dériver et à valider les architectures de systèmes-de-systèmes. Dans un premier temps, nous générons la structure de l’architecture à l’aide de transformations de modèles. Ensuite, lors que l’architecte spécifie les aspects comportementaux, la description de l’architecture résultante est validée à l’aide d’une démarche conjointe qui comprend à la fois la vérification des propriétés spécifiées et la validation par simulation des comportements émergents. La formalisation en termes de logique temporelle et la vérification statistique de modèles sont les fondements formels de l’approche. Un outil mettant en œuvre l’ensemble de l’approche a été également développé et expérimenté. / The formulation of missions is the starting point to the development of Systems-of-Systems (SoS), being used as a basis for the specification, verification and validation of SoS architectures. Specifying, verifying and validating architectural models for SoS are complex tasks compared to usual systems, the inner complexity of SoS relying specially on emergent behaviors, i.e. features that emerge from the interactions among constituent parts of the SoS which cannot be predicted even if all the behaviors of all parts are completely known. This thesis addresses the synergetic relationship between missions and architectures of software-intensive SoS, giving a special attention to emergent behaviors which are created for achieving formulated missions. We propose a design approach for the architectural modeling of SoS driven by the mission models. In our proposal, the mission model is used to both derive, verify and validate SoS architectures. As first step, we define a formalized mission model, then we generate the structure of the SoS architecture by applying model transformations. Later, when the architect specifies the behavioral aspects of the SoS, we generate concrete SoS architectures that will be verified and validated using simulation-based approaches, in particular regarding emergent behaviors. The verification uses statistical model checking to verify whether specified properties are satisfied, within a degree of confidence. The formalization in terms of a temporal logic and statistical model checking are the formal foundations of the developed approach. A toolset that implements the whole approach was also developed and experimented.
26

Cancer de la vessie : sélection de biomarqueurs urinaires et développement d’un outil d’analyse multiparamétrique pour le diagnostic et la récidive des tumeurs urothéliales / Bladder cancer : selection of urinary biomarkers and development of a multiplex analytical tool for the diagnosis and recurrence of urothelial tumors

Paoli, Marine de 13 September 2016 (has links)
Les travaux présentés dans cette thèse concernent le développement d'un outil d'analyse multiparamétrique pour la quantification de biomarqueurs urinaires du cancer de la vessie.La première partie des travaux de recherche a pour objectif la sélection de marqueurs pour le diagnostic et la récidive des tumeurs urothéliales. Une première étude a permis l'évaluation de la sélectivité de marqueurs candidats dans des échantillons urinaires de patients atteints de cancer de la vessie. Cinq des vingt marqueurs initiaux ont été sélectionnés pour leur performance diagnostique, définissant le Panel 1 : VEGF, MMP9, IL8, PTGS2 et EN2. Une seconde étude a été réalisée afin d'évaluer le potentiel de marqueurs et de paramètres cliniques pour le diagnostic de la récidive des tumeurs urothéliales. Les échantillons urinaires évalués provenaient donc de patients présentant une récidive du cancer de la vessie et de patients ne présentant pas de récidive. Le Panel 2 a ainsi été défini, basé sur le modèle de régression multiple le plus performant. Il comprend les paramètres cliniques et moléculaires suivants : nombre de récidives antérieures, nombre de thérapies par BCG, stade de la tumeur au moment du diagnostic, CDH1, IL8, ErbB2, IL6, EN2 et VEGF.La seconde partie concerne le développement d'un test multiparamétrique pour la quantification des marqueurs sélectionnés. Il s'agit d'une plateforme automatisée, à haut-débit et sous un format de plaque de microtitration 96-puits. La méthode de quantification choisie est un immunoessai de type sandwich sous la forme de puce à protéines. Le développement de la plateforme a débuté avec le Panel 1 dont trois des cinq marqueurs (VEGF, MMP9 et IL8) ont été intégrés avec succès. Suite à la seconde étude de sélection de marqueurs, le développement de l'immunoessai multiparamétrique a été orienté vers le Panel 2. À l'exception du marqueur EN2, nécessitant une configuration d'immunoessai différente, tous les marqueurs du Panel 2 ont pu être intégrés à la plateforme / The work reported in this thesis focuses on the development of a multiplex analytical tool for the quantification of selected bladder cancer urinary biomarkers.The aim of the first part of this work is the selection of urinary biomarkers for the diagnosis and recurrence of urothelial tumors. A first study evaluated the selectivity of candidate markers in urine samples of bladder cancer patients. Five of the twenty initial markers were selected for their diagnostic performance. They define Panel 1: VEGF, MMP9, IL8, PTGS2 and EN2. A second study was then conducted to assess the potential of urinary markers and clinical parameters for the diagnosis of bladder cancer recurrence. Two types of urine samples were thus evaluated: samples from recurrent bladder cancer patients and samples from bladder cancer patients without recurrence. Panel 2 was then defined based on the best performing multivariate regression model. It includes the following clinical and molecular parameters: number of past recurrences, number of BCG therapies, tumor stage at diagnosis, CDH1, IL8, ErbB2, IL6, EN2 and VEGF.The second part involves the development of a multiplex test for the quantification of the selected markers. It is a high-throughput automated platform in a 96-well microtiter plate format. It was designed as a multiplex sandwich immunoassay based on a protein microarray. The platform development began with Panel 1 for which three of the five markers (VEGF, MMP9 and IL8) were successful integrated into a multiplex immunoassay. The end of the second marker selection study marked the development transition from Panel 1 to Panel 2. With the exception of EN2, requiring a different immunoassay configuration, all the Panel 2 markers were integrated into the platform
27

La gestion automatisée des réseaux d'assainissement : analyse d'un processus d'innovation technique

Lancelot, Brigitte 01 March 1985 (has links) (PDF)
La gestion automatisée des réseaux d'assainissement est une innovation technique née dans le département de la Seine Saint-Denis au début des années 1970, dans des conditions locales spécifiques (problèmes aigus de dysfonctionnements de réseau, contexte physique particulier imposant de fortes contraintes techniques, occasion institutionnelle saisie par les élus pour renforcer leur solidarité à la fois technique, financière et politique, techniciens dynamiques). Cette innovation commence à se diffuser en France, dans d'antres contextes urbains. Ce n’est pas la transposition pure et simple du système de gestion automatisée de Seine Saint-Denis qui se manifeste. Néanmoins les divers cas rencontrés peuvent être regroupés dans une typologie simple, prouvant leur appartenance à un même cadre de logique globale dont la Seine Saint-Denis peut être considérée comme le prototype. Les facteurs favorables à l a diffusion de l'innovation sont nombreux. Leur force ne deviendra effective que lorsque l'efficacité de l'innovation aura été démontrée. Néanmoins, une démarche intellectuelle nouvelle face à la gestion des réseaux d’assainissement a été lancée, sans que soit remise en cause la problématique classique de 1'assainissement. Les enjeux que représentent les réseaux d'assainissement sont tels que des solutions du type de la gestion automatisée, certes complexe mais si peu chère en investissement face aux coûts des travaux de génie civil, doivent être tentées. L'amélioration des connaissances apportées par 1a recherche dans ce domaine, aidera à l'application de méthodes d’assainissement plus efficaces d’un point de vue économique et écologique.
28

Utilisation de méthodes linguistiques pour la détection et la correction automatisées d'erreurs produites par des francophones écrivant en anglais / Using linguistic methods for the automatic detection and correction of errors produced by French speakers writing in English

Garnier, Marie 19 September 2014 (has links)
Le point de départ de cette recherche est le constat des difficultés persistantes rencontrées par les francophones de niveau intermédiaire à avancé lors de la production de textes en anglais, dans des contextes personnels ou professionnels. Les premiers outils utilisés pour remédier à ces erreurs, les correcteurs grammaticaux automatiques, ne prennent pas en compte de nombreuses erreurs produites par les francophones utilisant l'anglais, notamment car ces correcteurs sont rarement adaptés à un public ayant l'anglais comme L2. Nous proposons d'identifier précisément les difficultés rencontrées par ce public cible à partir du relevé des erreurs dans un corpus adapté, et d'élaborer une modélisation linguistique des erreurs et des corrections à apporter. Cette modélisation est fondée sur une analyse linguistique approfondie des phénomènes concernés, à partir d'indications grammaticales, d'études de corpus, et de l'analyse des segments erronés. La validité de l'utilisation de méthodes linguistiques est établie par l'implémentation informatique des règles de détection et de correction, suivie de l'évaluation des résultats de l'application de ces règles sur des corpus d'anglais L1 et L2. / The starting point of this research is the observation that French speakers writing in English in personal or professional contexts still encounter grammatical difficulties, even at intermediate to advanced levels. The first tools they can reach for to correct those errors, automatic grammar checkers, do not offer corrections for a large number of the errors produced by French-speaking users of English, especially because those tools are rarely designed for L2 users. We propose to identify the difficulties encountered by these speakers through the detection of errors in a representative corpus, and to create a linguistic model of errors and corrections. The model is the result of the thorough linguistic analysis of the phenomena at stake, based on grammatical information available in reference grammars, corpus studies, and the analysis of erroneous segments. The validity of the use of linguistic methods is established through the implementation of detection and correction rules in a functional platform, followed by the evaluation of the results of the application of those rules on L1 and L2 English corpora.
29

La production automatisée d'informations en appui aux pratiques journalistiques: Analyse des représentations, des conditions d'association et de la structuration des usages en Belgique francophone

Dierickx, Laurence 30 April 2020 (has links) (PDF)
Le phénomène de la production automatisée d'informations, caractérisé par un processus de transformation de données structurées en textes en langage naturel ou en toute autre forme de représentation visuelle, interroge la manière dont il se développe dans le monde du journalisme. S'il peut être envisagé comme un produit fini qui sera délivré aux audiences sans médiation journalistique, cette thèse s'intéresse à son autre versant :celui d'un appui aux pratiques journalistiques. Souvent désigné par la métaphore du "robot journaliste", ce phénomène nourrit des représentations duales qui reflètent ses enjeux :tantôt abordé en termes de menace sur l'emploi, voire sur l'identité professionnelle des journalistes ;tantôt perçu comme une opportunité, dans une vision enchantée d'un journalisme en réinvention. Ceci pose la question du rapport du journaliste à l'objet technique, dès lors que celui-ci est conçu comme un outil qui lui fera gagner du temps dans ses routines, ou qui se posera en tant que source d'information s'ajoutant à un arsenal existant. Les objectifs de cette thèse sont de comprendre les mécanismes de structuration des usages professionnels dans le contexte de la production automatisée d'informations, d'identifier les sources de résistance qui ne permettent pas de réaliser ces usages et, partant, de contribuer à une meilleure compréhension d'une relation homme-machine placée sous tension. Considérant que l'on ne peut faire usage d'une technologie sans se la représenter, de quelle manière les représentations sociales et les pratiques culturelles des journalistes vont-elles participer à la structuration des usages (et des non-usages) d'artefacts de la production automatisée d'informations lorsque ceux-ci sont envisagés en tant qu'outils du journalisme ?Cette question de recherche a été envisagée selon deux hypothèses :celle de l'impact de la métaphore du "robot" quant à des résistances contre l'intégration de l'objet dans les routines professionnelles, et celle de l'adéquation des productions matérielles de l'artefact avec les savoir-faire et exigences journalistiques. L'analyse mise en oeuvre s'appuie sur les cadres conceptuels et théoriques proposés par le modèle SCOT (Social Construction Of Technology) et l'école française de la sociologie des usages. Elle s'est déployée dans le cadre d'une étude empirique menée dans deux rédactions en Belgique francophone, lesquelles se distinguent tant par leur culture professionnelle que par leur structure organisationnelle. Dans ces deux expériences, il s'agissait de suivre le processus d'une construction sociotechnique qui a activement impliqué les journalistes dans la conception des artefacts. Bien que cette première forme d'usage ne garantisse pas des usages finaux, elle pose les premiers jalons d'usages d'adoption. Les résistances observées ne sont pas nécessairement liées à la nature de l'objet technique. Elles sont également à trouver dans un manque d'intérêt envers le domaine d'application, une forme de technophobie, un manque d'appétence pour une approche par données dans le journalisme, une mise en cause du management et de l'organisation, ou encore dans une représentation duale induite par la métaphore du robot. Le mécanisme de structuration des usages va donc relever d'un processus complexe dépendant à la fois de facteurs endogènes, liés au contexte organisationnel et aux routines journalistiques, et de facteurs exogènes, liés aux cadres plus larges de l'imaginaire technologique et de la relation homme-machine. / ABSTRACT The phenomenon of news automation, characterized by the process of transformation of structured data into texts in natural language or any other form of visual representation, asks the question about how it is integrated within newsrooms. If it can be considered as a finished product that will be delivered to audiences without journalistic mediation, this thesis is interested in its aspect related to the support of journalistic practices. Often associated with the metaphor of the "robot journalist," news automation encourages dual representations that reflect its challenges: either a threat against employment and professional identity or an opportunity through an enchanted vision of the reinvention of journalism. This thesis explores how journalists tackle this new form of relationship as an artefact, as a tool, that is supposed to free them from repetitive and time-consuming tasks or to provide them an additional source of information. The aims of this research project are, therefore, to understand how it will shape new professional uses, to identify the causes of resistance that could lead to non-uses, and to contribute to a better understanding of a man-machine relationship developed under tension. Considering that one cannot make use of a given technology without representing it, how will the social representations and cultural practices of journalists contribute to shaping the uses (and the non-uses) of news automation software when it is considered as a journalistic tool? This research question was examined according to two hypotheses: that of the impact of the robot metaphor, and that of the adequacy of the material productions of the artefact with journalistic know-how and requirements. The analysis is based on conceptual and theoretical frameworks proposed by the SCOT model (Social Construction of Technology) and by the French school of the sociology of uses. It is approached through an empirical study conducted within two newsrooms in French-speaking Belgium, which are radically different both in their professional culture and in their organizational structure. In these two experiences, we have followed the process of a socio-technical construction which involved journalists in the design process. Although this first form of use does not guarantee the end-use of the two automation artefacts, it does lay the groundwork for adoption. The reasons to explain the observed resistances are not necessarily related to the nature of the object. They are also to be found in a lack of interest, a form of technophobia, a lack of appetite for a data-driven approach, a questioning of the management, or the dual representation induced by the robot metaphor. The mechanism for structuring the use will, therefore, be developed through a complex process shaped by both endogenous factors linked to the organizational context and journalistic routines, and exogenous factors related to the broader frameworks of the technological imaginaries and the man-machine relationship. / Doctorat en Information et communication / info:eu-repo/semantics/nonPublished
30

Enquête sur la fabrique du visible dans le web : utopies, photographies et algorithmes à l'oeuvre

Proulx, Christelle 12 1900 (has links)
Cette recherche porte sur les manières dont les entités dominantes du web fabriquent le visible. Pour ce faire, la thèse examine les liens entre les aspirations utopiques de Google, Facebook et de la vision artificielle, les algorithmes spécifiques qu’ils développent, la relation qu’ils entretiennent avec les images, principalement photographiques, et leurs façons de moduler les visibilités. Afin de mener l’enquête sur les modalités de production, de présentation et d’acquisition du savoir visuel dans le web, l’approche théorique et méthodologique employée s’inspire de la sociologie de l’acteur-réseau, de l’étude féministe des sciences et inscrit des œuvres d’art dans le rôle d’analyseurs. L’œuvre hypermédiatique Image Atlas (2012) de Taryn Simon et Aaron Swartz installe l’examen de Google et de Google Images qui reconduisent les aspirations à l’accès universel, tandis que les captures d’écran de la série street view (2009) de Michael Wolf sont l’occasion de poursuivre l’étude de cette fonction photographique de Google Maps. L’exposition « After Faceb00k: Okanagan Valley » (2014) est le point de départ de l’examen de l’utopie facebookienne de la communauté planétaire. Le dépliage des éléments de l’œuvre vidéo The Future is Here! (2019) de Mimi Ọnụọha pose ensuite les éléments nécessaires à l’analyse du développement de l’apprentissage machine de la vision et des aspirations à l’automatisation radicale que ces programmes intensifient. Diverses modalités du visible sont ainsi mises au jour : la pertinence, l’autorité et la localisation, les affinités et le partage, la reconnaissance et la prédiction sont autant de stratégies par lesquelles Google, Facebook et la vision artificielle fabriquent le visible pour le rendre opérationnel plutôt que représentationnel. La thèse vient ainsi révéler, en suivant les œuvres, l’opérationnalisation de la photographie, en tant qu’objet et que notion, dans l’établissement et le maintien d’un capitalisme cognitif parasitaire produit par les assemblages sociotechniques à l’étude. / This research addresses on the ways in which internet's dominant entities fabricate the visible. To do so, the thesis focuses on the links between the utopian aspirations of Google, Facebook and computer vision, the specific algorithms they develop, the relationship they have with images – mainly photographic – and how they modulate visibilities. To investigate the modalities of production, presentation and acquisition of visual knowledge online, the theoretical and methodological approach used is inspired by the actor-network sociology, the feminist study of science, and inscribes artworks in the role of analyzers. Taryn Simon and Aaron Swartz's hypermedia work Image Atlas (2012) installs the examination of Google and Google Images that re-conduce aspirations for universal access. The screenshots from Michael Wolf's street view series (2009) are an opportunity to further investigate this Google Maps' photographic function. "After Faceb00k: Okanagan Valley" (2014) is the starting point for the examination of Facebook’s utopia of the global community. The unfolding of elements from Mimi Ọnụọha's video The Future is Here! (2019) then lays the groundwork necessary to analyze the development of machine learning of vision and the aspirations for radical automation intensified by these programs. Various modalities of the visible are thus uncovered: relevance, authority and localization, affinity and sharing, recognition and prediction. These are all strategies by which Google, Facebook and computer vision manufacture the visible to make it operational rather than representational. Following the artworks, the thesis thus comes to reveal the operationalization of photography, as an object and as a notion, in the establishment and maintaining of a parasitic cognitive capitalism produced by the sociotechnical assemblages under study.

Page generated in 0.0655 seconds