• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 49
  • 18
  • 1
  • Tagged with
  • 119
  • 78
  • 24
  • 21
  • 20
  • 20
  • 18
  • 15
  • 15
  • 15
  • 15
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Applications de la théorie des graphes à des objets musicaux : modélisations, visualisations en hyperespace / Aplications of graph theory to musical objects : modeling, visualization in hyperspace

Baroin, Gilles 05 December 2011 (has links)
A la frontière entre musique et mathématiques, cette étude présente un espace musical géométrique original utilisé pour l'analyse et la pédagogie.En utilisant différentes méthodes, les mathématiciens et théoriciens de la musique ont démontré que notre espace des hauteurs tempéré à douze notes peut être considéré comme une combinaison de tierces mineurs et majeures. Nous utilisons le produit cartésien de deux graphes circulaires C3□C4 pour construire le graphe Planet qui répond à ce concept. Comme la décomposition implique deux ensembles et que chaque classe de hauteur est la combinaison unique de ces deux sous-groupes, nous utilisons une coloration en termes de graphes par des nombres complexes et introduisons le concept d'idéogrammes à deux dimensions. Nous effectuons une analyse spectrale du graphe Planet pour déterminer ses espaces propres et obtenir des coordonnées géométriques. Le modèle qui en résulte est appelé Planet-4D, il offre à chaque symbole une position physiquement équivalente. Il comporte plus de symétries que tout modèle discret 3D. A partir de ce modèle, nous construisons une représentation en quatre dimensions où les accords parfaits se trouvent en surface d'une hypersphère. Nous étendons enfin le concept principal pour afficher n'importe quel agrégat de notes sur l'hypersphère dans un cadre atonal. Dans une seconde partie, nous modélisons sous forme de graphes des objets musicaux existants : claviers, réseaux de notes (Tonnetze) ou d'accords ainsi que des schémas de modulation. Nous appliquons des projections spectrales afin de visualiser les symétries inhérentes à ces objets et terminons par des études d'œuvres tonales et atonales, effectuées avec le système de visualisation inventé. / At the frontier between music and mathematics, this study presents an original geometrical musical space used for musical analysis and pedagogy.Using different schemes, mathematicians and music theorists have demonstrated that the tempered twelve tones pitch space can be considered as a combination of minor and major thirds. We use the Cartesian product of two circular graphs C3□C4 to build the Planet graph that matches this concept. Since the decomposition involves two sets and each pitch class being a unique combination of these two sub-groups, we use a graph coloration based on complex numbers and introduce the concept of bi-dimensional ideograms. We perform a spectral analysis of the Planet graph to determine its Eigen spaces and obtain geometrical coordinates. The resulting model, called Planet-4D, grants each symbol and equivalent physical position, and involves more symmetries than any discrete 3D model. From there, we build a four dimensional chordal space where perfect chords lie on a hypersphere. We finally extend this concept to display any set of pitches in an atonal context. In the second section we construct the graphs of some existing musical objects such as keyboards, tone networks (Tonnetze), chordal spaces or modulation schemes. We apply spectral projections to visualize the symmetries that are inherent to these objects. This work concludes with musical studies of tonal and atonal pieces, performed with the help of the visualization tolls designed in this study.
32

Statistical models to learn the structural organisation of neural circuits from multimodal brain images : application to Gilles de la Tourette syndrome / Modèles statistiques pour apprendre l'organisation structurelle des circuits neuronaux à partir d'images multimodales du cerveau : application au syndrome de Gilles de la Tourette

Gori, Pietro 08 January 2016 (has links)
Nous proposons un cadre statistique pour analyser les anomalies morphologiques et organisationnelles altérant l'anatomie des circuits neuronaux chez les patients atteints du syndrome de Gilles de la Tourette. Les composants de chaque circuit (matière grise et blanche) sont représentés comme des maillages 3D et intégrés dans un seul complexe. Cela permet d'étudier leur organisation et surtout la connectivité structurelle. La méthode proposée est basée sur une approche statistique appelée construction d'atlas qui résulte en un template, capturant les invariants de la population, et en déformations template-vers-sujets, décrivant la variabilité morphologique. Premièrement, nous intégrons la construction d'atlas dans un cadre bayésien qui permet d'estimer automatiquement des paramètres autrement fixés. Deuxièmement, nous réduisons les ressources de calcul nécessaires au traitement de faisceaux de fibres en définissant un schéma d'approximation basée sur un nouveau modèle appelé courants pondérés. Troisièmement, nous décrivons un nouveau modèle de déformation pour la construction d'atlas qui permet de capturer les variations morphologiques et organisationnelles. On montre l'efficacité de la méthode par comparaison de deux groupes de 44 patients et 22 témoins. Les résultats soulignent des anomalies sur la forme des structures de la matière grise et sur la connectivité structurelle. / We propose a statistical framework to analyse morphological and organisational anomalies altering the anatomy of neural circuits in patients with Gilles de la Tourette syndrome. The components of each circuit, from both white and grey matter, are represented as 3D meshes and integrated in a single shape complex. This allows to study their organisation and in particular the structural connectivity. The proposed methodology is based on a statistical approach called atlas construction which results in a template complex, capturing the invariants of the population and in template-to-subject deformations, describing the morphological variability. First, we embed the atlas construction in a Bayesian framework which allows to automatically estimate important parameters otherwise fixed by the user. Second, we reduce the important computational resources required to process fiber bundles by defining an approximation scheme based on a new computational model called weighted currents. Third, we describe a new deformation scheme for the atlas construction which permits to model variations in structural connectivity and at the same time to capture global anatomical changes. We show the effectiveness of the proposed method by comparing two groups of 44 patients and 22 controls respectively. Results highlight anomalies about both the shape of grey matter structures and structural connectivity.
33

Alchemy and computer : a computational analysis of the Jabirian corpus / Alchimie et ordinateur : une analyse computationnelle du corpus jābirien

Cicola, Ilaria 17 October 2016 (has links)
Cet élaborât veut donner un nouvel approche à l’étude du corpus jābirien, en prenant compte de la littérature et des études précédents et des problématiques inhérentes à ce particulier corpus (synonymie, polysémie, dispersion du savoir, citations d’autres auteurs, hypertextualité). Grace aux nouvelles technologies d’analyse computationnelle ce travail vise à la digitalisation de textes édités (Muḫtār Rasāʾil, Tabdīr al-iksīr al-aʿẓam, Kitāb al- ahjār), pour créer un corpus numérique annoté selon le Text Encoding Initiative (TEI), le système d’annotation le plus utilisé dans le Natural Language Processing (NLP). La première section de la thèse comprend une introduction historique, prenant compte de la figure de Jābir et de son travail, de la querelle sur son existence et de l’histoire de la science Arabe médiévale ; et méthodologique, qui explique les outils utilisés pour l’analyse. La deuxième section est opérationnelle : le travail est expliqué dans tous ses détails et où les choix de numérisation et analyse sont exposés. Les problématiques présentées dans la première section trouvent ici des réponses pour ce qui concerne leur analyse. Le noyau de ce travail est représenté cependant par les Appendices, divisées en quatre parties : Les Appendices A, B et C sont des extraits bruts de la numérisation, qui donnent une idée du processus d’annotation selon le standard TEI. Les trois textes édités sont représentés par le premier livre de l’édition. L’Appendice D est un échantillon de concordances qui se base sur la lemmatisation des deux premiers livres du Tadbīr. L’Appendice E est une liste de fréquence du même échantillon utilisé pour la création des concordances. / This work presents a novel approach to the study of the Jābirian corpus while taking into consideration the existent works and literature and the problems of this peculiar corpus (synonymy, polysemy, dispersion of the knowledge, quotes od other authors, hypertextuality). Thanks to the modern technologies of computational analysis, this thesis aims to the digitalization of edited texts (Muḫtār Rasāʾil, Tabdīr al-iksīr al-aʿẓam, Kitāb al- ahjār) in order to create a digitalized corpus tagged following the Text Encoding Initiative (TEI), the most used annotation in Natural Language Processing (NLP). Section I is an introduction on the historical setting and remarks of the subject of the texts studied, comprising also an excursus on the figure of Jābir Ibn Hayyān and the querelle on his existence; and an explanation of the methodological setting in which this work is settled. Section II is the operational part, where are shown the compromises used in the realization of the digitalized corpus, as well as the strategies used so as to render the various issues presented in Section I. Section II presents the set of choices that tried to aswer to the questions made in Section I. The core of the work is represented by the Appendices, divided in four parts: Appendix A, B and C are extracts of the digitalized corpus, it was decided to include the first section of all the three source books, in order to represent every detail of the digitalization strategies and processes. Appendix D comprise a sample of concordances based on the lemmatization of the edition of the first two books of the Tadbīr. Appendix E is the frequency list of the same sample used for the concordances.
34

Approche logique des grammaires pour les langues naturelles

Anoun, Houda 24 October 2007 (has links) (PDF)
Les contributions majeures de cette thèse s'articulent autour des trois axes de base de la linguistique computationnelle, à savoir la logique, la linguistique et l'informatique. Nous proposons ainsi un nouveau système non-directionnel GLE permettant de simuler les opérations transformationnelles du Programme Minimaliste dans un cadre logique qui fait appel au raisonnement hypothétique de manière contrôlée. La pertinence de ce formalisme est soulignée en montrant sa capacité à prendre en charge des phénomènes linguistiques complexes, nécessitant un partage contraint de ressources, tels que le liage d'anaphores ou la résolution d'ellipse. En outre, nous présentons un atelier logique, nommé ICHARATE, destiné à la recherche et l'enseignement de la linguistique computationnelle. Cet outil est composé de bibliothèques pour l'assistant à la démonstration Coq, qui comprennent la formalisation de systèmes logiques avancés dédiés au traitement des langues naturelles, dont la logique multimodale.
35

Environnement numérique de lecture : instrumentation de l'activité de lecture savante sur support numérique

Gebers, Erik 21 April 2008 (has links) (PDF)
Nos travaux de recherche portent sur l'instrumentation de la lecture savante, lecture intensive dont le but est de produire un nouveau contenu qui réifie l'interprétation d'un corpus par un lecteur. Malgré l'émergence d'une culture numérique, le papier reste le support privilégié de cette pratique. Pour s'imposer, le numérique doit offrir plus que le papier. À la raison graphique introduite par ce dernier il doit offrir en plus sa raison computationnelle. Notre thèse postule que pour la réussite de l'exploitation de documents numériques dans une activité de lecture savante, le processus d'informatisation doit porter sur l'environnement du lecteur et non sur le document seul. Nous mobilisons les disciplines de l'ingénierie documentaire et de l'ingénierie des connaissances pour démontrer qu'avec ce positionnement il est possible aujourd'hui de produire des dispositifs logiciels répondant aux critiques des documents numériques et offrant une objectivation et une appropriation inédites.
36

Développement de sondes photoréactives pour l'étude de la structure du récepteur AT[indice inférieur 1] de l'angiotensine II : un nouveau mode de liaison pour les récepteurs couplés aux protéines G peptidergiques

Fillion, Dany January 2012 (has links)
Compte tenu de la grande distribution des gènes des récepteurs couplés aux protéines G (GPCR) dans le génome humain et du vaste potentiel thérapeutique de ces récepteurs, beaucoup d'efforts ont été déployés au cours des trois dernières décennies afin de comprendre les bases structurales de leurs mécanismes d'actions. Les travaux de recherches présentés dans le cadre de cette thèse rapportent le développement et l'utilisation d'approches biochimiques afin de caractériser la structure moléculaire d'un modèle de GPCR peptidergique, soit le récepteur de l'angiotensine II de type 1 (AT[indice inférieur 1]). Dans une première étude (J.Med.Chem.2006,49(7):2200-9), nous décrivons la synthèse stéréospécifique d'une sonde photoréactive, le p-[3-(trifluorométhyl)-3H-diazirin-3-yl]-L-phénylalanine (Tdf), ainsi que sa caractérisation en marquage par photoaffinité (MPA). Nous démontrons par l'utilisation du récepteur de l'angiotensine II de type 2 (AT[indice inférieur 2]) comme modèle de GPCR que le Tdf est plus réactif que le p-benzoyl-L-phénylalanine (Bpa, la sonde photoréactive la plus couramment utilisée), en plus de ne présenter aucune chimiosélectivité envers les méthionines. Ces propriétés font que le Tdf est non seulement complémentaire au Bpa, mais représente également un outil moléculaire permettant de déterminer avec précision les sites de contacts ligand/récepteur par MPA. Dans une deuxième étude (J.Med.Chem.2010; 53(5):2063-75), nous cherchons à identifier l'ensemble des domaines du site de liaison du récepteur AT[indice inférieur 1] qui contacte chacune des huit positions de l'angiotensine II (AngII) par MPA. À l'aide de deux séries de huit radio-analogues photoréactifs incorporant le Bpa ou le Tdf, nous démontrons qu'un mutant constitutivement actif (MCA) du récepteur AT[indice inférieur 1], AT[indice inférieur 1]-[N111G] (AT[indice inférieur 1],-MCA), possède une relation structure-activité (SAR) plus tolérante que le récepteur de type sauvage (TS). Nos résultats suggèrent que la portion N-terminale (NT) de l'AngII réside dans un environnement hydrophile et interagit avec différentes régions du récepteur MCA-AT[indice inférieur 1], dont plusieurs domaines extracellulaires (DEC). Dans une troisième étude (Manuscrit soumit [i.e. soumis]), nous utilisons l'essai de proximité aux méthionines (EPM) afin d'identifier précisement les résidus des DEC du récepteur AT[indice inférieur 1] qui forment le site de liaison pour l'AngII. Les données recueillies sont utilisées afin de générer in silico une structure tridimensionnelle du récepteur AT[indice inférieur 1] lié à l'AngII. Cette structure met en évidence le rôle central de plusieurs DEC, mais aussi des deux ponts disulfures, dans l'organisation de la topologie extracellulaire du site de liaison du récepteur AT[indice inférieur 1]. L'AngII y interagit alors simultanément avec l'ensemble des DEC, mais aussi profondément au sein des domaines transmembranaires (DTM). Nous émettons l'hypothèse que ce mode de liaison puisse être commun à d'autres GPCR peptidergiques.
37

Un environnement générique et ouvert pour le traitement des expressions polylexicales : de l'acquisition aux applications

Ramisch, Carlos Eduardo 11 September 2012 (has links) (PDF)
Cette thèse présente un environnement ouvert et souple pour l'acquisition automatique d'expressions multimots (MWE) à partir de corpus textuels monolingues. Cette recherche est motivée par l'importance des MWE pour les applications du TALN. Après avoir brièvement présenté les modules de l'environnement, le mémoire présente des résultats d'évaluation intrinsèque en utilisant deux applications: la lexicographie assistée par ordinateur et la traduction automatique statistique. Ces deux applications peuvent bénéficier de l'acquisition automatique de MWE, et les expressions acquises automatiquement à partir de corpus peuvent à la fois les accélérer et améliorer leur qualité. Les résultats prometteurs de nos expériences nous encouragent à mener des recherches ultérieures sur la façon optimale d'intégrer le traitement des MWE dans ces applications et dans bien d'autres
38

A modal approach to model computational trust / Modèles de confiance logiques

Kramdi, Seifeddine 05 October 2015 (has links)
Le concept de confiance est un concept sociocognitif qui adresse la question de l'interaction dans les systèmes concurrents. Quand la complexité d'un système informatique prohibe l'utilisation de solutions traditionnelles de sécurité informatique en amont du processus de développement (solutions dites de type dur), la confiance est un concept candidat, pour le développement de systèmes d'aide à l'interaction. Dans cette thèse, notre but majeur est de présenter une vue d'ensemble de la discipline de la modélisation de la confiance dans les systèmes informatiques, et de proposer quelques modèles logiques pour le développement de module de confiance. Nous adoptons comme contexte applicatif majeur, les applications basées sur les architectures orientées services, qui sont utilisées pour modéliser des systèmes ouverts telle que les applications web. Nous utiliserons pour cela une abstraction qui modélisera ce genre de systèmes comme des systèmes multi-agents. Notre travail est divisé en trois parties, la première propose une étude de la discipline, nous y présentons les pratiques utilisées par les chercheurs et les praticiens de la confiance pour modéliser et utiliser ce concept dans différents systèmes, cette analyse nous permet de définir un certain nombre de points critiques, que la discipline doit aborder pour se développer. La deuxième partie de notre travail présente notre premier modèle de confiance. Cette première solution basée sur un formalisme logique (logique dynamique épistémique), démarre d'une interprétation de la confiance comme une croyance sociocognitive, ce modèle présentera une première modélisation de la confiance. Apres avoir prouvé la décidabilité de notre formalisme. Nous proposons une méthodologie pour inférer la confiance en des actions complexes : à partir de notre confiance dans des actions atomiques, nous illustrons ensuite comment notre solution peut être mise en pratique dans un cas d'utilisation basée sur la combinaison de service dans les architectures orientées services. La dernière partie de notre travail consiste en un modèle de confiance, où cette notion sera perçue comme une spécialisation du raisonnement causal tel qu'implémenté dans le formalisme des règles de production. Après avoir adapté ce formalisme au cas épistémique, nous décrivons trois modèles basés sur l'idée d'associer la confiance au raisonnement non monotone. Ces trois modèles permettent respectivement d'étudier comment la confiance est générée, comment elle-même génère les croyances d'un agent et finalement, sa relation avec son contexte d'utilisation. / The concept of trust is a socio-cognitive concept that plays an important role in representing interactions within concurrent systems. When the complexity of a computational system and its unpredictability makes standard security solutions (commonly called hard security solutions) inapplicable, computational trust is one of the most useful concepts to design protocols of interaction. In this work, our main objective is to present a prospective survey of the field of study of computational trust. We will also present two trust models, based on logical formalisms, and show how they can be studied and used. While trying to stay general in our study, we use service-oriented architecture paradigm as a context of study when examples are needed. Our work is subdivided into three chapters. The first chapter presents a general view of the computational trust studies. Our approach is to present trust studies in three main steps. Introducing trust theories as first attempts to grasp notions linked to the concept of trust, fields of application, that explicit the uses that are traditionally associated to computational trust, and finally trust models, as an instantiation of a trust theory, w.r.t. some formal framework. Our survey ends with a set of issues that we deem important to deal with in priority in order to help the advancement of the field. The next two chapters present two models of trust. Our first model is an instantiation of Castelfranchi & Falcone's socio-cognitive trust theory. Our model is implemented using a Dynamic Epistemic Logic that we propose. The main originality of our solution is the fact that our trust definition extends the original model to complex action (programs, composed services, etc.) and the use of authored assignment as a special kind of atomic actions. The use of our model is then illustrated in a case study related to service-oriented architecture. Our second model extends our socio-cognitive definition to an abductive framework that allows us to associate trust to explanations. Our framework is an adaptation of Bochman's production relations to the epistemic case. Since Bochman approach was initially proposed to study causality, our definition of trust in this second model presents trust as a special case of causal reasoning, applied to a social context. We end our manuscript with a conclusion that presents how we would like to extend our work.
39

Modélisation cognitive computationnelle de la recherche d'information utilisant des données oculomotrices / Computational cognitive modeling of information search using eye movement data.

Lopez Orozco, Francisco 16 July 2013 (has links)
Cette thèse en informatique présente un travail de modélisation cognitive computationnelle, à partir de données de mouvements oculaires lors de tâches de recherche d'information dans des textes. Nous nous intéressons à cette situation quotidienne de recherche d'informations dans un journal ou une page web, dans laquelle il faut juger si un texte est sémantiquement relié ou non à un but, exprimé par quelques mots. Parce que le temps est souvent une contrainte, les textes ne sont souvent pas entièrement lus avant qu'intervienne la décision. Plus précisément, nous avons analysé les mouvements des yeux dans deux tâches de recherche d'information consistant à lire un paragraphe et à décider rapidement i) s'il est associé à un but donné et ii) s'il est plus associé à un but donné qu'un autre paragraphe traité auparavant. Un modèle est proposé pour chacune de ces situations. Nos simulations sont réalisées au niveau des fixations et des saccades oculaires. En particulier, nous prédisons le moment auquel les participants décident d'abandonner la lecture du paragraphe parce qu'ils ont suffisamment d'information pour prendre leur décision. Les modèles font ces prédictions par rapport aux mots qui sont susceptibles d'être traités avant que le paragraphe soit abandonné. Les jugements d'association sémantiques humains sont reproduits par le calcul des similarités sémantiques entre mots produits par l'analyse de la sémantique latente (LSA, Landauer et al., 2007). Nous avons suivi une approche statistique paramétrique dans la construction de nos modèles. Ils sont basés sur un classifieur bayésien. Nous proposons un seuil linéaire bi-dimensionnel pour rendre compte de la décision d'arrêter de lire un paragraphe, utilisant le Rang de la fixation et i) la similarité sémantique (Cos) entre le paragraphe et le but ainsi que ii) la différence de similarité sémantique (Gap) entre chaque paragraphe et le but. Pour chacun des modèles, les performances montrent que nous sommes capables de reproduire en moyenne le comportement des participants face aux tâches de recherche d'information étudiées durant cette thèse. Cette thèse comprend deux parties principales : 1) la conception et la passation d'expériences psychophysiques pour acquérir des données de mouvements oculaires et 2) le développement et le test de modèles cognitifs computationnels. / This computer science thesis presents a computational cognitive modeling work using eye movements of people faced to different information search tasks on textual material. We studied situations of everyday life when people are seeking information on a newspaper or a web page. People should judge whether a piece of text is semantically related or not to a goal expressed by a few words. Because quite often time is a constraint, texts may not be entirely processed before the decision occurs. More specifically, we analyzed eye movements during two information search tasks: reading a paragraph with the task of quickly deciding i) if it is related or not to a given goal and ii) whether it is better related to a given goal than another paragraph processed previously. One model is proposed for each of these situations. Our simulations are done at the level of eye fixations and saccades. In particular, we predicted the time at which participants would decide to stop reading a paragraph because they have enough information to make their decision. The models make predictions at the level of words that are likely to be fixated before a paragraph is abandoned. Human semantic judgments are mimicked by computing the semantic similarities between sets of words using Latent Semantic Analysis (LSA) (Landauer et al., 2007). We followed a statistical parametric approach in the construction of our models. The models are based on a Bayesian classifier. We proposed a two-variable linear threshold to account for the decision to stop reading a paragraph, based on the Rank of the fixation and i) the semantic similarity (Cos) between the paragraph and the goal and ii) the difference of semantic similarities (Gap) between each paragraph and the goal. For both models, the performance results showed that we are able to replicate in average people's behavior faced to the information search tasks studied along the thesis. The thesis includes two main parts: 1) designing and carrying out psychophysical experiments in order to acquire eye movement data and 2) developing and testing the computational cognitive models.
40

Un concept technologique de trace numérique

Collomb, Cléo-Marie 08 July 2016 (has links)
Cette thèse entend proposer un concept technologique – non-anthropocentré – de trace numérique. Il s’agit de rappeler que l’informatique exigeant des objets et des actes qu’ils passent par l’inscription pour exister, les machines computationnelles sont parties prenantes des processus de production des traces numériques, qu’une « sémiotique technologique » permettrait de décrire. L’enjeu d’un tel concept est de mettre en circulation une narration qui ne soit pas de l’ordre de ces discours de fin de monde décrits par Déborah Danowski et Eduardo Viveiros de Castro. Ces discours racontent la vie d’humains réduits à habiter un environnement ontologiquement dévitalisé et artificialisé, comme c'est le cas lorsque la valorisation technique et économique des traces numériques risque à terme de déboucher sur une « délégation machinique de nos relations » (Louise Merzeau) ou encore sur une « gouvernementalité algorithmique » ou un « asservissement machinique » (Antoinette Rouvroy et Thomas Berns). À partir du moment où il y a des discours de fin de monde cependant, c’est qu’une tentative est à l’œuvre :celle qui consiste à inventer une mythologie adéquate à notre présent, celle qui essaie de dire quelque chose de la fin d’une certaine aventure anthropologique. Et c’est pour participer à cette tentative, tout en cherchant à éviter de contribuer aux discours de fin de monde, qu’une approche technologique des traces numériques à même de faire compter les machines computationnelles est proposée. / This Ph.D. thesis aims at proposing a concept that is technological – in other words, not anthropocentric – of digital traces. The point is that since computational processes require objects and actions to take the form of inscriptions as a condition of their existence, computational machines are fundamentally involved in the process of producing digital traces, which a technological semiotics could describe. What is at stake in the concept we propose is to put into circulation a narration which avoids the theme of “the end of the world” described by Déborah Danowski and Eduardo Viveiros de Castro. These “end of the world” stories evoke the life of human beings who are reduced to living in an environment that is ontologically devitalized and purely artificial, as it seems to be the case when the technical and economic valorization of digital traces has the end result of “delegating our human relations to machines” (Louise Merzeau) or yet again of leading to “algorithmic governmentality” (Antoinette Rouvroy and Berns). When the theme of “the end of the world” raises its head, it means that an attempt is being made: an attempt to invent a mythology appropriate to our present situation, a narration which tries to say something about the end of a certain anthropological adventure. And it is in order to participate in this venture, but seeking to avoid contributing to the theme of “the end of the world”, that we propose a technological approach to digital traces, enabling us to take into account computational machines as a part of the contemporary world. / Doctorat en Philosophie / info:eu-repo/semantics/nonPublished

Page generated in 0.0818 seconds