Spelling suggestions: "subject:"algorithmic""
281 |
Reconstruction, Détection et Régularisation de Données DiscrètesBougleux, Sébastien 05 December 2007 (has links) (PDF)
Cette thèse traite des problématiques de structuration et de traitement de données discrètes organisées ou non. Elle se décompose en deux parties. La première partie concerne la structuration de données représentées par des ensembles de points du plan ou de l'espace Euclidien. Dans ce contexte, nous considérons les problèmes de la reconstruction polygonale de courbes planaires et de la détection de formes géométriques 3D connues. Ces deux problèmes sont traités par des techniques de géométrie algorithmique et combinatoire, basées sur le diagramme de Voronoï et la triangulation de Delaunay. Dans le cadre de la reconstruction de courbes planaires, nous proposons une famille hiérarchique de sous-graphes du graphe de Gabriel, que nous appelons les beta-CRUSTS Locaux. Nous étudions les propriétés de cette famille, qui nous permettent de concevoir un algorithme de reconstruction des courbes simples. Ensuite, nous proposons une méthode de détection de formes géométriques connues à partir d'un ensemble de points 3D (nous nous restreignons au cas des structures linéaires et planaires), plongés dans un milieu bruité ou non. Cette méthode est basée sur une extension des alpha-formes, générées à partir de boules ellipsoïdales. Dans une deuxième partie, nous traitons le problème de la régularisation de données par des méthodes variationnelles discrètes sur graphes pondérés, de topologie quelconque. Pour cela, nous proposons une large famille de fonctionnelles discrètes, basées sur les normes L2 et Lp du gradient. Ceci conduit à des processus de diffusion linéaire ou non-linéaire sur graphes. Ce formalisme étend un certain nombre de modèles variationnels, que nous appliquons à des problèmes de restauration, de lissage, et de simplification d'images et de maillages.
|
282 |
Essays on environmental regulation / Essais sur la régulation environnementaleDanilina, Vera 11 December 2017 (has links)
Cette thèse développe l’analyse d’une politique économique environnementale appliquée dans le cadre d’une économie ouverte et dans celui d’une économie fermée. Elle étudie les effets sur le bien-être et l’environnement des réglementations volontaire et obligatoire tenant compte de l’hétérogénéité des agents économiques et des pays. Elle s’intéresse en particulier aux différents types d’éco-étiquetages en autarcie (Chapitre 1) et après ouverture au commerce international (Chapitre 2); aux programmes d’apport d’information à plusieurs niveaux (Chapitre 3); et aux taxes sur les émissions et marchés publics écologiques (Chapitre 4). L’analyse montre que non seulement le gouvernement mais également les éco-consommateurs peuvent inciter même les producteurs éco-indifférents à se décider pour l’agir respectueux de l’environnement. Les instruments de politique environnementale induisent auto-sélection et polarisation dans les marchés desservis par des entreprises hétérogènes en termes de productivité. Je démontre que des instruments volontaires peuvent avoir des résultats positifs sur le bien-être et l’environnement. En fonction d’hypothèses précises, ils peuvent également être plus efficaces que des approches obligatoires. Le modèle montre également que quand il y a ouverture au commerce international, la politique écologique a un effet supplémentaire sur le bien-être et sur l’environnement, dépendamment du type de politique et des consciences environnementales des différents pays commerciaux. / This thesis develops an applied environmental economic policy analysis in closed and open economy frameworks. It investigates welfare and environmental outcomes of voluntary and mandatory regulation allowing for heterogeneity across economic agents and countries. Particularly, it focuses on voluntary eco-labels of different types in autarky (Chapter 1) and upon opening to international trade (Chapter 2); multi-tier information provision programmes (Chapter 3); and emission taxes and green public procurement (Chapter 4). The analysis shows that not only the government but also eco-concerned consumers can incentivise even eco-indifferent producers to act more environmentally-friendly. Environmental policy instruments induce self-selection and polarisation in the markets served by firms heterogeneous in their productivity. I demonstrate that voluntary instruments can lead to positive welfare and environmental outcomes. Under particular assumptions, they also can be more efficient than mandatory approaches. The model also shows that upon opening to international trade eco-policy yields additional welfare and environmental effects conditionally on the type of the policy and the environmental awareness difference across trading countries.
|
283 |
Approches bioinformatiques pour l'assessment de la biodiversité / Bioinformatics approachs for the biodiversity assesmentRiaz, Tiayyba 23 November 2011 (has links)
Cette thèse s'intéresse à la conception et le développement des techniques de bioinfor- matique qui peuvent faciliter l'utilisation de l'approche metabarcoding pour mesurer la diversité d'espèces. Le metabarcoding peut être utilisé avec le séquencage haut débit pour l'identification d'espèces multiples à partir d'un seul échantillon environnemental. La véritable force du metabarcoding réside dans l'utilisation de barcode marqueurs choisi pour une étude particulière et l'identification d'espèces ou des taxons peut être réalisé avec des marqueurs soigneusement conçu. Avec l'avancement des techniques haut débit de séquençage, une énorme quantité des données de séquences est produit qui contient un nombres substantiel des mutations. Ces mutations posent un grand problème pour les estimations correctes de la biodiversité et pour le d'assignation de taxon. Les trois problèmes majeurs dans le domaine de la bioinformatique que j'ai abordés dans cette thèse sont: i) évaluer la qualité d'une barcode marker , ii) concevoir des nouveaux région barcode et iii) d'analyser les données de séquençage pour traiter les erreurs et éliminer le bruit en séquences. Pour évaluer la qualité d'un barcode marker, on a développé deux mesures quantita- tive,formelle: la couverture (Bc) et la spécificité (Bs). La couverture donne une mesure de universalité d'une pairs de primer pour amplifier un large nombre de taxa, alors que la spécificité donne une mesure de capacité à discriminer entre les différents taxons. Ces mesures sont très utiles pour le classement des barcode marker et pour sélectionner les meilleurs markers. Pour trouver des nouveaux région barcode notamment pour les applications metabarcod- ing, j'ai développé un logiciel, ecoPrimers3. Basé sur ces deux mesures de qualité et de l'information taxinomique intégré, ecoPrimers nous permet de concevoir barcode markers pour n'importe quel niveau taxonomique . En plus, avec un grand nombre de paramètres réglables il nous permet de contrôler les propriétés des amorces. Enfin, grâce a des algorithmes efficaces et programmé en langage C, ecoPrimers est suffisamment efficace pour traiter des grosses bases de données, y compris génomes bactériens entièrement séquencés. Enfin pour traiter des erreurs présentes dans les données de séquencage , nous avons analysé un ensemble simple d'échantillons de PCR obtenus à partir de l'analyse du régime alimentaire de Snow Leopard. En mesurant les corrélations entre les différents paramètres des erreurs, nous avons observé que la plupart des erreurs sont produites pendant l'amplification par PCR. Pour détecter ces erreurs, nous avons développé un algorithme utilisant les graphes, qui peuvent différencier les vrai séquences des erreurs induites par PCR. Les résultats obtenus à partir de cet algorithme a montré que les données de-bruitée a donnent une estimation réaliste de la diversité des espèces étudiées dans les Alpes françaises. / This thesis is concerned with the design and development of bioinformatics techniques that can facilitate the use of metabarcoding approach for measuring species diversity. Metabarcoding coupled with next generation sequencing techniques have a strong po- tential for multiple species identification from a single environmental sample. The real strength of metabarcoding resides in the use of barcode markers chosen for a particular study. The identification at species or higher level taxa can be achieved with carefully designed barcode markers. Moreover with the advent of high throughput sequencing techniques huge amount of sequence data is being produced that contains a substantial level of mutations. These mutations pose a problem for the correct estimates of biodi- versity and for the taxon assignation process. Thus the three major challenges that we addressed in this thesis are: evaluating the quality of a barcode region, designing new barcodes and dealing with errors occurring during different steps of an experiment. To assess the quality of a barcode region we have developed two formal quantitative mea- sures called barcode coverage (Bc) and barcode specificity (Bs). Barcode coverage is concerned with the property of a barcode to amplify a broad range of taxa, whereas barcode specificity deals with its ability to discriminate between different taxa. These measures are extremely useful especially for ranking different barcodes and selecting the best markers. To deal with the challenge of designing new barcodes for metabarcoding applications we have developed an efficient software called ecoPrimers. Based on the above two quality measures and with integrated taxonomic information, ecoPrimers1 enables us to design primers and their corresponding barcode markers for any taxonomic level. Moreover with a large number of tunable parameters it allows us to control the properties of primers. Finally, based on efficient algorithms and implemented in C language, ecoPrimers is efficient enough to deal with large data bases including fully sequenced bacterial genomes. Finally to deal with errors present in DNA sequence data, we have analyzed a simple set of PCR samples obtained from the diet analysis of snow leopard. We grouped closely related sequences and by measuring the correlation between different parameters of mutations, we have shown that most of the errors were introduced during PCR amplification. In order to deal with such errors, we have further developed an algorithm using graphs approach, that can differentiate true sequences from PCR induced errors. The results obtained from this algorithm showed that de-noised data gave a realistic estimate of species diversity studied in French Alpes. This algorithm is implemented in program obiclean.
|
284 |
Combining checkpointing and other resilience mechanisms for exascale systems / L'utilisation conjointe de mécanismes de sauvegarde de points de reprise (checkpoints) et d'autres mécanismes de résilience pour les systèmes exascalesBentria, Dounia 10 December 2014 (has links)
Dans cette thèse, nous nous sommes intéressés aux problèmes d'ordonnancement et d'optimisation dans des contextes probabilistes. Les contributions de cette thèse se déclinent en deux parties. La première partie est dédiée à l’optimisation de différents mécanismes de tolérance aux pannes pour les machines de très large échelle qui sont sujettes à une probabilité de pannes. La seconde partie est consacrée à l’optimisation du coût d’exécution des arbres d’opérateurs booléens sur des flux de données.Dans la première partie, nous nous sommes intéressés aux problèmes de résilience pour les machines de future génération dites « exascales » (plateformes pouvant effectuer 1018 opérations par secondes).Dans le premier chapitre, nous présentons l’état de l’art des mécanismes les plus utilisés dans la tolérance aux pannes et des résultats généraux liés à la résilience.Dans le second chapitre, nous étudions un modèle d’évaluation des protocoles de sauvegarde de points de reprise (checkpoints) et de redémarrage. Le modèle proposé est suffisamment générique pour contenir les situations extrêmes: d’un côté le checkpoint coordonné, et de l’autre toute une famille de stratégies non-Coordonnées. Nous avons proposé une analyse détaillée de plusieurs scénarios, incluant certaines des plateformes de calcul existantes les plus puissantes, ainsi que des anticipations sur les futures plateformes exascales.Dans les troisième, quatrième et cinquième chapitres, nous étudions l'utilisation conjointe de différents mécanismes de tolérance aux pannes (réplication, prédiction de pannes et détection d'erreurs silencieuses) avec le mécanisme traditionnel de checkpoints et de redémarrage. Nous avons évalué plusieurs modèles au moyen de simulations. Nos résultats montrent que ces modèles sont bénéfiques pour un ensemble de modèles d'applications dans le cadre des futures plateformes exascales.Dans la seconde partie de la thèse, nous étudions le problème de la minimisation du coût de récupération des données par des applications lors du traitement d’une requête exprimée sous forme d'arbres d'opérateurs booléens appliqués à des prédicats sur des flux de données de senseurs. Le problème est de déterminer l'ordre dans lequel les prédicats doivent être évalués afin de minimiser l'espérance du coût du traitement de la requête. Dans le sixième chapitre, nous présentons l'état de l'art de la seconde partie et dans le septième chapitre, nous étudions le problème pour les requêtes exprimées sous forme normale disjonctive. Nous considérons le cas plus général où chaque flux peut apparaître dans plusieurs prédicats et nous étudions deux modèles, le modèle où chaque prédicat peut accéder à un seul flux et le modèle où chaque prédicat peut accéder à plusieurs flux. / In this thesis, we are interested in scheduling and optimization problems in probabilistic contexts. The contributions of this thesis come in two parts. The first part is dedicated to the optimization of different fault-Tolerance mechanisms for very large scale machines that are subject to a probability of failure and the second part is devoted to the optimization of the expected sensor data acquisition cost when evaluating a query expressed as a tree of disjunctive Boolean operators applied to Boolean predicates. In the first chapter, we present the related work of the first part and then we introduce some new general results that are useful for resilience on exascale systems.In the second chapter, we study a unified model for several well-Known checkpoint/restart protocols. The proposed model is generic enough to encompass both extremes of the checkpoint/restart space, from coordinated approaches to a variety of uncoordinated checkpoint strategies. We propose a detailed analysis of several scenarios, including some of the most powerful currently available HPC platforms, as well as anticipated exascale designs.In the third, fourth, and fifth chapters, we study the combination of different fault tolerant mechanisms (replication, fault prediction and detection of silent errors) with the traditional checkpoint/restart mechanism. We evaluated several models using simulations. Our results show that these models are useful for a set of models of applications in the context of future exascale systems.In the second part of the thesis, we study the problem of minimizing the expected sensor data acquisition cost when evaluating a query expressed as a tree of disjunctive Boolean operators applied to Boolean predicates. The problem is to determine the order in which predicates should be evaluated so as to shortcut part of the query evaluation and minimize the expected cost.In the sixth chapter, we present the related work of the second part and in the seventh chapter, we study the problem for queries expressed as a disjunctive normal form. We consider the more general case where each data stream can appear in multiple predicates and we consider two models, the model where each predicate can access a single stream and the model where each predicate can access multiple streams.
|
285 |
Systèmes d’intelligence artificielle et santé : les enjeux d’une innovation responsable.Voarino, Nathalie 09 1900 (has links)
L’avènement de l’utilisation de systèmes d’intelligence artificielle (IA) en santé s’inscrit dans le cadre d’une nouvelle médecine « haute définition » qui se veut prédictive, préventive et personnalisée en tirant partie d’une quantité inédite de données aujourd’hui disponibles. Au cœur de l’innovation numérique en santé, le développement de systèmes d’IA est à la base d’un système de santé interconnecté et auto-apprenant qui permettrait, entre autres, de redéfinir la classification des maladies, de générer de nouvelles connaissances médicales, ou de prédire les trajectoires de santé des individus en vue d’une meilleure prévention. Différentes applications en santé de la recherche en IA sont envisagées, allant de l’aide à la décision médicale par des systèmes experts à la médecine de précision (ex. ciblage pharmacologique), en passant par la prévention individualisée grâce à des trajectoires de santé élaborées sur la base de marqueurs biologiques.
Des préoccupations éthiques pressantes relatives à l’impact de l’IA sur nos sociétés émergent avec le recours grandissant aux algorithmes pour analyser un nombre croissant de données relatives à la santé (souvent personnelles, sinon sensibles) ainsi que la réduction de la supervision humaine de nombreux processus automatisés. Les limites de l’analyse des données massives, la nécessité de partage et l’opacité des décisions algorithmiques sont à la source de différentes préoccupations éthiques relatives à la protection de la vie privée et de l’intimité, au consentement libre et éclairé, à la justice sociale, à la déshumanisation des soins et du patient, ou encore à la sécurité. Pour répondre à ces enjeux, de nombreuses initiatives se sont penchées sur la définition et l’application de principes directeurs en vue d’une gouvernance éthique de l’IA. L’opérationnalisation de ces principes s’accompagne cependant de différentes difficultés de l’éthique appliquée, tant relatives à la portée (universelle ou plurielle) desdits principes qu’à la façon de les mettre en pratique (des méthodes inductives ou déductives).
S’il semble que ces difficultés trouvent des réponses dans la démarche éthique (soit une approche sensible aux contextes d’application), cette manière de faire se heurte à différents défis. L’analyse des craintes et des attentes citoyennes qui émanent des discussions ayant eu lieu lors de la coconstruction de la Déclaration de Montréal relativement au développement responsable de l’IA permet d’en dessiner les contours. Cette analyse a permis de mettre en évidence trois principaux défis relatifs à l’exercice de la responsabilité qui pourrait nuire à la mise en place d’une gouvernance éthique de l’IA en santé : l’incapacitation des professionnels de santé et des patients, le problème des mains multiples et l’agentivité artificielle. Ces défis demandent de se pencher sur la création de systèmes d’IA capacitants et de préserver l’agentivité humaine afin de favoriser le développement d’une responsabilité (pragmatique) partagée entre les différentes parties prenantes du développement des systèmes d’IA en santé. Répondre à ces différents défis est essentiel afin d’adapter les mécanismes de gouvernance existants et de permettre le développement d’une innovation numérique en santé responsable, qui doit garder l’humain au centre de ses développements. / The use of artificial intelligence (AI) systems in health is part of the advent of a new "high definition" medicine that is predictive, preventive and personalized, benefiting from the unprecedented amount of data that is today available. At the heart of digital health innovation, the development of AI systems promises to lead to an interconnected and self-learning healthcare system. AI systems could thus help to redefine the classification of diseases, generate new medical knowledge, or predict the health trajectories of individuals for prevention purposes. Today, various applications in healthcare are being considered, ranging from assistance to medical decision-making through expert systems to precision medicine (e.g. pharmacological targeting), as well as individualized prevention through health trajectories developed on the basis of biological markers.
However, urgent ethical concerns emerge with the increasing use of algorithms to analyze a growing number of data related to health (often personal and sensitive) as well as the reduction of human intervention in many automated processes. From the limitations of big data analysis, the need for data sharing and the algorithmic decision ‘opacity’ stems various ethical concerns relating to the protection of privacy and intimacy, free and informed consent, social justice, dehumanization of care and patients, and/or security. To address these challenges, many initiatives have focused on defining and applying principles for an ethical governance of AI. However, the operationalization of these principles faces various difficulties inherent to applied ethics, which originate either from the scope (universal or plural) of these principles or the way these principles are put into practice (inductive or deductive methods).
These issues can be addressed with context-specific or bottom-up approaches of applied ethics. However, people who embrace these approaches still face several challenges. From an analysis of citizens' fears and expectations emerging from the discussions that took place during the coconstruction of the Montreal Declaration for a Responsible Development of AI, it is possible to get a sense of what these difficulties look like. From this analysis, three main challenges emerge: the incapacitation of health professionals and patients, the many hands problem, and artificial agency. These challenges call for AI systems that empower people and that allow to maintain human agency, in order to foster the development of (pragmatic) shared responsibility among the various stakeholders involved in the development of healthcare AI systems. Meeting these challenges is essential in order to adapt existing governance mechanisms and enable the development of a responsible digital innovation in healthcare and research that allows human beings to remain at the center of its development.
|
286 |
Problèmes numériques en mathématiques financières et en stratégies de trading / Numerical problems in financial mathematics and trading strategiesBaptiste, Julien 21 June 2018 (has links)
Le but de cette thèse CIFRE est de construire un portefeuille de stratégies de trading algorithmique intraday. Au lieu de considérer les prix comme une fonction du temps et d'un aléa généralement modélisé par un mouvement brownien, notre approche consiste à identifier les principaux signaux auxquels sont sensibles les donneurs d'ordres dans leurs prises de décision puis alors de proposer un modèle de prix afin de construire des stratégies dynamiques d'allocation de portefeuille. Dans une seconde partie plus académique, nous présentons des travaux de pricing d'options européennes et asiatiques. / The aim of this CIFRE thesis is to build a portfolio of intraday algorithmic trading strategies. Instead of considering stock prices as a function of time and a brownian motion, our approach is to identify the main signals affecting market participants when they operate on the market so we can set up a prices model and then build dynamical strategies for portfolio allocation. In a second part, we introduce several works dealing with asian and european option pricing.
|
287 |
Poésie de l'ADN : portraits audiovisuels poétiques de l'identité biologique et ésotérique de l’être humainFinck-Beccafico, Barbara 08 1900 (has links)
Le projet artistique Poésie de l’ADN prend source dans une démarche interdisciplinaire, en associant la programmation, la biotechnologie, la création sonore et visuelle, l’ésotérisme ainsi que l’art participatif et performatif. Ce mémoire passe en revue les différentes étapes de réflexion et création autour de ce projet, tout d’abord en le replaçant dans son contexte historique et artistique, à la fois au niveau du courant bioart, puis plus précisément dans l’utilisation de l’acide désoxyribonucléique1 (ADN) en arts. Nous verrons comment s’inscrit Poésie de l’ADN aux côtés des oeuvres d’art génétiques visuelles et sonores, ainsi que de portraiture, tout en présentant les influences artistiques et esthétiques qui inspirent mon travail. Ensuite, ce mémoire aborde trois questionnements qui sont au coeur du développement conceptuel de ce projet : 1) les tensions entre l’aléatoire et la subjectivité, c’est-à-dire la constante négociation entre le contrôle de l’artiste et l’autonomie de la machine; 2) l’interprétation des données afin d’établir la signification que l’on reçoit et apporte à la matière; 3) ainsi que les considérations bioéthiques que soulève ce projet. Puis, le mémoire détaille le processus technique et les outils utilisés, ainsi que le processus créatif au sein duquel l’approche ésotérique est fondamentale. Enfin, nous verrons l’impact des critères ADN sur les oeuvres, ainsi que les portraits qui en découlent. Poésie de l’ADN est un projet artistique qui réunit à la fois le développement d’une application dont l’algorithme et les paramétrages permettent de générer des matières audio-visuelles à partir de données ADN, ainsi que la composition de portraits, à travers l’interprétation artistique, ésotérique et humaine de cette matière, pour créer des vidéomusiques individuelles. / DNA Poetry is an artistic project rooted in an interdisciplinary approach, combining programming, biotechnology, sound and visual creation, esotericism as well as participatory and performative art. This thesis reviews the different stages of reflection and creation around this project, first of all by placing it in its historical and artistic context, first off within the bioart artistic movement, then more precisely within the use of deoxyribonucleic acid (DNA) in the arts. We'll see how DNA Poetry fits alongside visual and audio genetic artworks, as well as portraiture, while showcasing the artistic and aesthetic influences that inspire my work. Then, this thesis addresses three questions which are at the heart of the conceptual development of this project: 1) the tensions between algorithm and subjectivity, that is to say the constant negotiation between the artist's control and autonomy of the machine; 2) data interpretation, in order to establish meaning in what is received and brought to the material; 3) and finally the bioethical considerations raised by this project. Then, the thesis details the technical process and the tools used, as well as the creative process in which the esoteric approach is fundamental. Finally, we will see the impact of DNA data on the audio and visual outcome, as well as the portraits that result from them. DNA Poetry is an artistic project that brings together both the development of an application whose algorithm and mappings make it possible to generate audiovisual material from DNA data, as well as the composition of portraits, through the human, esoteric and artistic interpretation of this material, in order to create individual videomusic art pieces.
|
288 |
The narrative manipulation of human subjectivity : a machinic exploration of psyche as artificial ready-madeDesrochers Ayotte, Alexandre 03 1900 (has links)
Avec l’accélération de la production narrative au vingt-et-unième siècle, ainsi que les tentatives d’appropriation des moyens de production et des mythes collectifs par le marché, il y a lieu de questionner l’effet des nouveaux mythes sur la psyché humaine. L’ingestion persistante et soutenue de récits infusés de symboles capitalistes produit une mutation de la subjectivité humaine, dans un mouvement vers une certaine homogénéité. Par une relecture de la Poétique d’Aristote, la première section de cette thèse propose une vision politique de la catharsis, qui théorise le récepteur de toute narration comme programmable et pouvant être guidé vers des attitudes et des postures. Cette conception mène directement à une définition machinique du récit et la notion d’asservissement machinique, qui conçoit la subjectivité humaine comme engagée dans des processus de connectivité où elle perd certains fragments de son unicité. La troisième foulée de cette thèse théorise la société de contrôle de Deleuze et ses héritiers conceptuels, le capitalisme de surveillance et l’ectosubjectivité. Ces deux notions tentent de percevoir le régime de pouvoir du vingt-et-unième siècle, fondé sur les données personnelles et la standardisation de la psyché humaine. Finalement, le quatrième et dernier chapitre de cette recherche se penche sur la notion de vérité telle que décrite par Michel Foucault dans Le Courage de la Vérité. Dans la notion Grecque, et particulièrement son développement platonicien, de parrhēsia, Foucault identifie l’homogénéité d’une vérité basée sur une hiérarchie éthique, et son renversement par les Cyniques en animalité assumée qui ouvre de nouveaux territoires d’existence et de vérité. En somme, ce renversement nous permet de concevoir ce que serait une existence libre, hors d’un régime de vérité qui désubjective et rend homogène. / With the acceleration of narrative production in the twenty-first century, as well as the attempted appropriation of means of production and collective myths by market economy, there is an increasing need to question the effect of these new myths on the human psyche. The persistent and sustained ingestion of narratives infused with capitalist symbols produces a transformation of subjectivity, which mutates from unicity to increased standardization. Through a rereading of Aristotle’s Poetics, the first section of this thesis offers a political conception of catharsis that theorizes the receiver of narratives as programmable and guidable towards attitudes and postures. This conception leads directly to a machinic definition of the narrative and the concept of machinic enslavement. These concepts conceive of human subjectivity as engaged in processes of networking where it loses fragments of its unicity. The third chapter of this thesis theorizes Deleuze's society of control and its conceptual successors, surveillance capitalism and ectosubjectivity. Both these concepts attempt to theorize the reigning regime of power of the twenty-first century, based on personal data and the standardization of the human psyche. Finally, the fourth and final chapter of this research analyzes the notion of truth as described by Michel Foucault in The Courage of Truth. In the Greek notion of parrhēsia, and especially in its platonic development, Foucault identifies the homogeneity of a truth system based on a hierarchization of ethics. The reversal of this system by the Cynics into an assumed bestiality is crucial to this thesis as it opens new territories of existence and truth. In sum, the Cynic reversal permits us to conceive of a free existence, outside of a regime of truth that desubjectivates and homogenizes.
|
289 |
Game theoretical characterization of the multi-agent network expansion gameCaye, Flore 04 1900 (has links)
Dans les chaînes d’approvisionnement, les producteurs font souvent appel à des entreprises de transport pour livrer leurs marchandises. Cela peut entraîner une concurrence entre les transporteurs qui cherchent à maximiser leurs revenus individuels en desservant un produc- teur. Dans ce travail, nous considérons de telles situations où aucun transporteur ne peut garantir la livraison de la source à la destination en raison de son activité dans une région restreinte (par exemple, une province) ou de la flotte de transport disponible (par exemple, uniquement le transport aérien), pour ne citer que quelques exemples. La concurrence est donc liée à l’expansion de la capacité de transport des transporteurs.
Le problème décrit ci-dessus motive l’étude du jeu d’expansion de réseau multi-agent joué sur un réseau appartenant à de multiples transporteurs qui choisissent la capacité de leurs arcs. Simultanément, un client cherche à maximiser le flux qui passe par le réseau en décidant de la politique de partage qui récompense chacun des transporteurs. Le but est de déterminer un équilibre de Nash pour le jeu, en d’autres termes, la strategie d’extension de capacité et de partage la plus rationnelle pour les transporteurs et le client, respectivement. Nous rappelons la formulation basée sur les arcs proposée dans la littérature, dont la solution est l’équilibre de Nash avec le plus grand flux, et nous identifions ses limites. Ensuite, nous formalisons le concept de chemin profitable croissant et nous montrons son utilisation pour établir les conditions nécessaires et suffisantes pour qu’un vecteur de stratégies soit un équilibre de Nash. Ceci nous conduit à la nouvelle formulation basée sur le chemin. Enfin, nous proposons un renforcement du modèle basé sur les arcs et une formulation hybride arc- chemin. Nos résultats expérimentaux soutiennent la valeur des nouvelles inégalités valides obtenues à partir de notre caractérisation des équilibres de Nash avec des chemins croissants rentables. Nous concluons ce travail avec les futures directions de recherche pavées par les contributions de cette thèse. / In supply chains, manufacturers often use transportation companies to deliver their goods. This can lead to competition among carriers seeking to maximize their individual revenues by serving a manufacturer. In this work, we consider such situations where no single carrier can guarantee delivery from source to destination due to its operation in a restricted region (e.g., a province) or the available transportation fleet (e.g., only air transportation), to name a few examples. Therefore, competition is linked to the expansion of transportation capacity by carriers.
The problem described above motivates the study of the multi-agent network expansion game played over a network owned by multiple transporters who choose their arcs’ capacity. Simultaneously, a customer seeks to maximize the flow that goes through the network by deciding the sharing policy rewarding each of the transporters. The goal is to determine a Nash equilibrium for the game, in simple words, the most rational capacity expansion and sharing policy for the transporters and the customer, respectively. We recap the arc-based formulation proposed in literature, whose solution is the Nash equilibirum with the largest flow, and we identify its limitations. Then, we formalize the concept of profitable increasing path and we show its use to establish necessary and sufficient conditions for a vector of strategies to be a Nash equilibrium. This lead us to the first path-based formulation. Finally, we propose a strengthening for the arc-based model and a hybrid arc-path formulation. Our experimental results support the value of the new valid inequalities obtained from our characterization of Nash equilibria with profitable increasing paths. We conclude this work with the future research directions paved by the contributions of this thesis.
|
290 |
Modélisation de scènes urbaines à partir de données aeriennesVerdie, Yannick 15 October 2013 (has links) (PDF)
L'analyse et la reconstruction automatique de scène urbaine 3D est un problème fondamental dans le domaine de la vision par ordinateur et du traitement numérique de la géométrie. Cette thèse présente des méthodologies pour résoudre le problème complexe de la reconstruction d'éléments urbains en 3D à partir de données aériennes Lidar ou bien de maillages générés par imagerie Multi-View Stereo (MVS). Nos approches génèrent une représentation précise et compacte sous la forme d'un maillage 3D comportant une sémantique de l'espace urbain. Deux étapes sont nécessaires; une identification des différents éléments de la scène urbaine, et une modélisation des éléments sous la forme d'un maillage 3D. Le Chapitre 2 présente deux méthodes de classifications des éléments urbains en classes d'intérêts permettant d'obtenir une compréhension approfondie de la scène urbaine, et d'élaborer différentes stratégies de reconstruction suivant le type d'éléments urbains. Cette idée, consistant à insérer à la fois une information sémantique et géométrique dans les scènes urbaines, est présentée en détails et validée à travers des expériences. Le Chapitre 3 présente une approche pour détecter la 'Végétation' incluses dans des données Lidar reposant sur les processus ponctuels marqués, combinée avec une nouvelle méthode d'optimisation. Le Chapitre 4 décrit à la fois une approche de maillage 3D pour les 'Bâtiments' à partir de données Lidar et de données MVS. Des expériences sur des structures urbaines larges et complexes montrent les bonnes performances de nos systèmes.
|
Page generated in 0.0666 seconds