• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 407
  • 304
  • 124
  • 4
  • 3
  • Tagged with
  • 895
  • 895
  • 551
  • 334
  • 331
  • 297
  • 282
  • 263
  • 243
  • 217
  • 209
  • 206
  • 202
  • 202
  • 200
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Content-based automatic fact checking

Orthlieb, Teo 12 1900 (has links)
La diffusion des Fake News sur les réseaux sociaux est devenue un problème central ces dernières années. Notamment, hoaxy rapporte que les efforts de fact checking prennent généralement 10 à 20 heures pour répondre à une fake news, et qu'il y a un ordre de magnitude en plus de fake news que de fact checking. Le fact checking automatique pourrait aider en accélérant le travail humain et en surveillant les tendances dans les fake news. Dans un effort contre la désinformation, nous résumons le domaine de Fact Checking Automatique basé sur le contenu en 3 approches: les modèles avec aucune connaissances externes, les modèles avec un Graphe de Connaissance et les modèles avec une Base de Connaissance. Afin de rendre le Fact Checking Automatique plus accessible, nous présentons pour chaque approche une architecture efficace avec le poids en mémoire comme préoccupation, nous discutons aussi de comment chaque approche peut être appliquée pour faire usage au mieux de leur charactéristiques. Nous nous appuyons notamment sur la version distillée du modèle de langue BERT tinyBert, combiné avec un partage fort des poids sur 2 approches pour baisser l'usage mémoire en préservant la précision. / The spreading of fake news on social media has become a concern in recent years. Notably, hoaxy found that fact checking generally takes 10 to 20 hours to respond to a fake news, and that there is one order of magnitude more fake news than fact checking. Automatic fact checking could help by accelerating human work and monitoring trends in fake news. In the effort against disinformation, we summarize content-based automatic fact-checking into 3 approaches: models with no external knowledge, models with a Knowledge Graph and models with a Knowledge Base. In order to make Automatic Fact Checking more accessible, we present for each approach an effective architecture with memory footprint in mind and also discuss how they can be applied to make use of their different characteristics. We notably rely on distilled version of the BERT language model tinyBert, combined with hard parameter sharing on two approaches to lower memory usage while preserving the accuracy.
352

On impact of mixing times in continual reinforcement learning

Raparthy, Sharath Chandra 02 1900 (has links)
Le temps de mélange de la chaîne de Markov induite par une politique limite ses performances dans les scénarios réels d'apprentissage continu. Pourtant, l'effet des temps de mélange sur l'apprentissage dans l'apprentissage par renforcement (RL) continu reste peu exploré. Dans cet article, nous caractérisons des problèmes qui sont d'un intérêt à long terme pour le développement de l'apprentissage continu, que nous appelons processus de décision markoviens (MDP) « extensibles » (scalable), à travers le prisme des temps de mélange. En particulier, nous établissons théoriquement que les MDP extensibles ont des temps de mélange qui varient de façon polynomiale avec la taille du problème. Nous démontrons ensuite que les temps de mélange polynomiaux présentent des difficultés importantes pour les approches existantes, qui souffrent d'un biais myope et d'estimations à base de ré-échantillonnage avec remise ensembliste (bootstrapping) périmées. Pour valider notre théorie, nous étudions la complexité des temps de mélange en fonction du nombre de tâches et de la durée des tâches pour des politiques très performantes déployées sur plusieurs jeux Atari. Notre analyse démontre à la fois que des temps de mélange polynomiaux apparaissent en pratique et que leur existence peut conduire à un comportement d'apprentissage instable, comme l'oubli catastrophique dans des contextes d'apprentissage continu. / The mixing time of the Markov chain induced by a policy limits performance in real-world continual learning scenarios. Yet, the effect of mixing times on learning in continual reinforcement learning (RL) remains underexplored. In this paper, we characterize problems that are of long-term interest to the development of continual RL, which we call scalable MDPs, through the lens of mixing times. In particular, we theoretically establish that scalable MDPs have mixing times that scale polynomially with the size of the problem. We go on to demonstrate that polynomial mixing times present significant difficulties for existing approaches, which suffer from myopic bias and stale bootstrapped estimates. To validate our theory, we study the empirical scaling behavior of mixing times with respect to the number of tasks and task duration for high performing policies deployed across multiple Atari games. Our analysis demonstrates both that polynomial mixing times do emerge in practice and how their existence may lead to unstable learning behavior like catastrophic forgetting in continual learning settings.
353

Vers la sécurité des conteneurs : les comprendre et les sécuriser

Lapointe, Hugo B. 06 1900 (has links)
To facilitate shorter modern development cycles, as well as the ephemeral nature of cloud computing, many organizations are now running their applications in containers, a form of operating system virtualization. These new environments are often referred to as containerized environments. However, these environments are not without risk. Recent studies have shown that containerized applications are, like all types of applications, prone to various attacks. Another problem for those working in IT security is that containerized applications are often very dynamic and short-lived, which compounds the problem because it is more difficult to audit their activities or even make an investigation. In case of intrusion. In this thesis, we propose an intrusion detection system based on machine learning for containerized environments. Containers provide isolation between the host system and the containerized environment by efficiently grouping applications and their dependencies. In this way, containers become a portable software environment. However, unlike virtual machines, containers share the same kernel as the host operating system. In order to be able to do anomaly detection, our system uses this feature to monitor system calls sent from a container to a host system. Thus, the monitored container does not have to be modified and our system is not required to know the nature of the container to monitor it. The results of our experiments show that it is indeed possible to use system calls to detect abnormal behaviour made by a containerized application without having to modify the container. / Afin de faciliter les cycles de développement moderne plus courts, ainsi que la nature éphémère de l’infonuagique, de nombreuses organisations exécutent désormais leurs applications dans des conteneurs, une forme de virtualisation du système d'exploitation. Ces nouveaux environnements sont souvent appelés environnements conteneurisés. Cependant, ces environnements ne sont pas sans risque. Des études récentes ont montré que les applications conteneurisées sont, comme tous les types d’applications, sujettes à diverses attaques. Un autre problème pour ceux qui travaillent dans le domaine de la sécurité informatique est que les applications conteneurisées sont souvent très dynamiques et de courte durée, ce qui aggrave le problème, car il est plus difficile d’auditer leurs activités ou encore de faire une enquête en cas d’intrusion. Dans ce mémoire, nous proposons un système de détection d’intrusion basé sur l’apprentissage machine pour les environnements conteneurisés. Les conteneurs assurent l'isolation entre le système hôte et l'environnement conteneurisé en regroupant efficacement, les applications ainsi que leurs dépendances. De cette façon, les conteneurs deviennent un environnement logiciel portable. Cependant, contrairement aux machines virtuelles, les conteneurs partagent le même noyau que le système d'exploitation hôte. Afin de pouvoir faire la détection d'anomalies, notre système utilise cette caractéristique pour surveiller les appels système envoyés d’un conteneur vers un système hôte. Ainsi, le conteneur surveillé n’a pas à être modifié et notre système n'est pas tenu de connaitre la nature du conteneur pour le surveiller. Les résultats de nos expériences montrent qu’il est en effet possible d’utiliser les appels système afin de détecter des comportements anormaux faits par une application conteneurisée et ce sans à avoir à modifier le conteneur.
354

Small batch deep reinforcement learning

Obando-Ceron, Johan Samir 11 1900 (has links)
Dans l'apprentissage par renforcement profond basé sur la valeur avec des mémoires de relecture, le paramètre de taille de lot joue un rôle crucial en déterminant le nombre de transitions échantillonnées pour chaque mise à jour de gradient. Étonnamment, malgré son importance, ce paramètre n'est généralement pas ajusté lors de la proposition de nouveaux algorithmes. Dans ce travail, nous menons une vaste étude empirique qui suggère que la réduction de la taille des lots peut entraîner un certain nombre de gains de performances significatifs ; ceci est surprenant et contraire à la pratique courante consistant à utiliser de plus grandes tailles de lots pour améliorer la formation du réseau neuronal. Ce résultat inattendu défie la sagesse conventionnelle et appelle à une compréhension plus approfondie des gains de performances observés associés à des tailles de lots plus petites. Pour faire la lumière sur les facteurs sous-jacents, nous complétons nos résultats expérimentaux par une série d'analyses empiriques. Ces analyses approfondissent divers aspects du processus d'apprentissage, tels que l'analyse de la dynamique d'optimisation du réseau, la vitesse de convergence, la stabilité et les capacités d'exploration. Le chapitre 1 présente les concepts nécessaires pour comprendre le travail présenté, notamment des aperçus de l'Apprentissage Profond (Deep Learning) et de l'Apprentissage par Renforcement (Reinforcement Learning). Le chapitre 2 contient une description détaillée de nos contributions visant à comprendre les gains de performance observés associés à des tailles de lots plus petites lors de l'utilisation d'algorithmes d'apprentissage par renforcement profond basés sur la valeur. À la fin, des conclusions tirées de ce travail sont fournies, incluant des suggestions pour des travaux futurs. Le chapitre 3 aborde ce travail dans le contexte plus large de la recherche en apprentissage par renforcement. / In value-based deep reinforcement learning with replay memories, the batch size parameter plays a crucial role by determining the number of transitions sampled for each gradient update. Surprisingly, despite its importance, this parameter is typically not adjusted when proposing new algorithms. In this work, we conduct a broad empirical study that suggests {\em reducing} the batch size can result in a number of significant performance gains; this is surprising and contrary to the prevailing practice of using larger batch sizes to enhance neural network training. This unexpected result challenges the conventional wisdom and calls for a deeper understanding of the observed performance gains associated with smaller batch sizes. To shed light on the underlying factors, we complement our experimental findings with a series of empirical analyses such as analysis of network optimization dynamics, convergence speed, stability, and exploration capabilities. Chapter 1 introduces concepts necessary to understand the work presented, including overviews of Deep Learning and Reinforcement Learning. Chapter 2 contains a detailed description of our contributions towards understanding the observed performance gains associated with smaller batch sizes when using value based deep reinforcement learning algorithms. At the end, some conclusions drawn from this work are provided, including some exciting suggestion as future work. Chapter 3 talks about this work in the broader context of reinforcement learning research.
355

Amélioration d'un "Evolving Fuzzy Neural Network" dans le cadre d'applications militaires et astrophysiques

Nadeau, Louis 11 April 2018 (has links)
Les buts de la recherche présentée dans ce mémoire sont : (1) de choisir et d'implémenter un algorithme d'apprentissage pour un système d'information militaire et (2) d'appliquer cet algorithme dans un cadre astrophysique. L'algorithme choisi est le «Evolving Fuzzy Neural Network (EFuNN)». Trois lacunes de l'EFuNN ont été identifiées et corrigées : (1) la métrique n'accepte pas de données manquantes, (2) la méthode de suppression des règles n'est pas adaptée au monde réel et (3) l'EFuNN ne peut pas exploiter ses connaissances statistiques. Pour l'application militaire, trois variations d'une expérience ont été faites : prédire la qualité de sources d'informations distribuées sur une carte. L'EFuNN a eu une précision supérieure aux besoins. Pour l'application astrophysique, l'EFuNN a eu une performance comparable à d'autres réseaux de neurones, ainsi, il pourrait être utile dans un système comprenant plusieurs réseaux de neurones qui votent. / The research presented in this master's thesis has two goals : (1) choose and implement a learning algorithm for a military information System and (2) apply this algorithm to an astrophysic problem of classification. The choosen algorithm is the Evoling Fuzzy Neural Network (EFuNN). Three problems of the EFuNN were found and corrected : (1) The metric was not able to mariage missing data, (2) the pruning method was not adapted to real world learning and (3) the EFuNN was not able to used its statistical knowledge. For the first goal, three variations of the same experiment were made : predict the quality of informations sources that are distributed on a map. The modified EFuNN performed better that needed on those tests. For the second goal, the EFuNN had a similar performance in comparison with other algorithms and it could be useful to include it in a program which uses many algorithms to better its overall performance.
356

La protection des créations générées par intelligence artificielle par le droit d'auteur canadien

Caron, Sandy 18 April 2019 (has links)
L'émergence des programmes d'intelligence artificielle capable de générer des œuvres artistiques, musicales et littéraires soulève plusieurs enjeux notamment au niveau du droit d'auteur puisqu'il devient de plus en plus difficile de faire la distinction entre les créations réalisées par un humain et celles réalisées par une intelligence artificielle. Si ces créations peuvent désormais être confondues, il est alors pertinent de s'interroger sur le régime juridique qui leur est applicable. Il n'y a de cela pas si longtemps, les questions entourant les droits sur les œuvres créées par un programme informatique ne provoquaient pas de débat puisque ce programme n'était considéré que comme un simple outil mis à la disposition de l'auteur. Toutefois, les développements récents des programmes d'intelligence artificielle démontrent que leur implication dans le processus créatif va bien au-delà de la simple assistance. Par conséquent, il devient nécessaire de se questionner sur l'identité de l'auteur de ces créations, le titulaire des droits d'auteur et l'opportunité de reconnaitre une personnalité juridique à l'intelligence artificielle. / The emergence of artificial intelligence programs capable of generating artistic works, musical works and literary works raises many stakes, especially in copyright since it becomes harder to notice the difference between creations made by a human and creations made by artificial intelligence. If these creations can nowadays be mistaken, then it is relevant to question ourselves about the legal system that is applicable to them. Not long ago, questions about copyright on work created by computer programs didn’t create debates since programs were only considered as a tool for the author’s use. However, the recent progress of artificial intelligence programs shows that their implication in the process of creation goes beyond simple assistance. Therefore, it becomes necessary to question ourselves on the identity of the work’s author, the copyright ownership and the opportunity of recognizing a juridical personality to the artificial intelligence.
357

Apprentissage par renforcement Bayésien de processus décisionnels de Markov partiellement observables : une approche basée sur les processus Gaussiens

Dallaire, Patrick 17 April 2018 (has links)
L'apprentissage par renforcement est une approche d'apprentissage automatique permettant de développer des systèmes s'améliorant à partir d'interactions avec un environnement. Les processus décisionnels de Markov partiellement observables (PDMPO) font partie des modèles mathématiques fréquemment utiliser pour résoudre ce type de problème d'apprentissage. Cependant, la majorité des méthodes de résolution utilisées dans les processus décisionnels de Markov partiellement observables nécessitent la connaissance du modèle. De plus, les recherches actuelles sur le PDMPO se restreignent principalement aux espaces d'états discrets, ce qui complique son application à certains problèmes naturellement modélisés par un espace d'état continu. Ce mémoire présente une vision des PDMPO basée sur les processus Gaussiens, une méthode d'apprentissage supervisée ayant comme propriété particulière d'être une distribution de probabilité dans l'espace des fonctions. Cette propriété est notamment très intéressante du fait qu'elle ouvre la porte à un traitement Bayésien de l'incertitude sur les fonctions inconnues d'un PDMPO continu. Les résultats obtenus avec l'approche d'apprentissage par processus Gaussien montrent qu'il est possible d'opérer dans un environnement tout en identifiant le modèle de ce celui-ci. À partir des conclusions tirées à la suite de nos travaux sur le PDMPO, nous avons observé un certain manque pour ce qui est de l'identification du modèle sous l'incertain. Ainsi, ce mémoire expose aussi un premier pas vers une extension de l'apprentissage de PDMPO continu utilisant des séquences d'états de croyances lors de l'identification du modèle. Plus précisément, nous proposons une méthode de régression par processus Gaussiens utilisant des ensembles d'entraînement incertain pour réaliser l'inférence dans l'espace des fonctions. La méthode proposée est particulièrement intéressante, du fait qu'elle s'applique exactement comme pour le cas des processus Gaussiens classiques et qu'elle n'augmente p±as la complexité de l'apprentissage.
358

Apprentissage faiblement supervisé appliqué à la segmentation d'images de protéines neuronales

Bilodeau, Anthony 26 March 2024 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2020-2021 / En biologie cellulaire, la microscopie optique est couramment utilisée pour visualiser et caractériser la présence et la morphologie des structures biologiques. Suite à l’acquisition, un expert devra effectuer l’annotation des structures pour quantification. Cette tâche est ardue, requiert de nombreuses heures de travail, parfois répétitif, qui peut résulter en erreurs d’annotations causées par la fatigue d’étiquetage. L’apprentissage machine promet l’automatisation de tâches complexes à partir d’un grand lot de données exemples annotés. Mon projet de maîtrise propose d’utiliser des techniques faiblement supervisées, où les annotations requises pour l’entraînement sont réduites et/ou moins précises, pour la segmentation de structures neuronales. J’ai d’abord testé l’utilisation de polygones délimitant la structure d’intérêt pour la tâche complexe de segmentation de la protéine neuronale F-actine dans des images de microscopie à super-résolution. La complexité de la tâche est supportée par la morphologie hétérogène des neurones, le nombre élevé d’instances à segmenter dans une image et la présence de nombreux distracteurs. Malgré ces difficultés, l’utilisation d’annotations faibles a permis de quantifier un changement novateur de la conformation de la protéine F-actine en fonction de l’activité neuronale. J’ai simplifié davantage la tâche d’annotation en requérant seulement des étiquettes binaires renseignant sur la présence des structures dans l’image réduisant d’un facteur 30 le temps d’annotation. De cette façon, l’algorithme est entraîné à prédire le contenu d’une image et extrait ensuite les caractéristiques sémantiques importantes pour la reconnaissance de la structure d’intérêt à l’aide de mécanismes d’attention. La précision de segmentation obtenue sur les images de F-actine est supérieure à celle des annotations polygonales et équivalente à celle des annotations précises d’un expert. Cette nouvelle approche devrait faciliter la quantification des changements dynamiques qui se produisent sous le microscope dans des cellules vivantes et réduire les erreurs causées par l’inattention ou le biais de sélection des régions d’intérêt dans les images de microscopie. / In cell biology, optical microscopy is commonly used to visualize and characterize the presenceand morphology of biological structures. Following the acquisition, an expert will have toannotate the structures for quantification. This is a difficult task, requiring many hours ofwork, sometimes repetitive, which can result in annotation errors caused by labelling fatigue.Machine learning promises to automate complex tasks from a large set of annotated sampledata. My master’s project consists of using weakly supervised techniques, where the anno-tations required for training are reduced and/or less precise, for the segmentation of neuralstructures.I first tested the use of polygons delimiting the structure of interest for the complex taskof segmentation of the neuronal protein F-actin in super-resolution microscopy images. Thecomplexity of the task is supported by the heterogeneous morphology of neurons, the highnumber of instances to segment in an image and the presence of many distractors. Despitethese difficulties, the use of weak annotations has made it possible to quantify an innovativechange in the conformation of the F-actin protein as a function of neuronal activity. I furthersimplified the annotation task by requiring only binary labels that indicate the presence ofstructures in the image, reducing annotation time by a factor of 30. In this way, the algorithmis trained to predict the content of an image and then extract the semantic characteristicsimportant for recognizing the structure of interest using attention mechanisms. The segmen-tation accuracy obtained on F-actin images is higher than that of polygonal annotations andequivalent to that of an expert’s precise annotations. This new approach should facilitate thequantification of dynamic changes that occur under the microscope in living cells and reduceerrors caused by inattention or bias in the selection of regions of interest in microscopy images.
359

Optimisation de la gestion d'irrigation en production d'amandes

Lessard, Louis-Étienne 08 February 2024 (has links)
Titre de l'écran-titre (visionné le 5 février 2024) / La culture d'amande en Californie nécessite un apport en eau d'irrigation de plus 1000 mm annuellement. Avec les changements climatiques amplifiant cette dépendance à l'irrigation, il est essentiel d'optimiser la gestion de l'irrigation pour cette culture. Le premier objectif de ce projet était donc de déterminer la conduite d'irrigation optimale pour maximiser les rendements et l'utilisation de l'eau. Le second objectif visait à établir quelles variables complémentaires à la mesure de tension hydrique du sol peuvent être utilisées pour détecter l'apparition et la résorption d'un stress hydrique chez l'amandier. Enfin, le troisième objectif consistait à déterminer quelle stratégie d'irrigation est la plus rentable pour les producteurs. Pour ce faire, un plan en blocs complets aléatoires de 1 hectare (sept traitements répétés dans 4 blocs) a été mis en place chez un producteur. Les traitements étaient composés de techniques traditionnelles de gestion (seuil de tension fixe, évapotranspiration de la culture (ETc) et gestion humaine) et de méthodes utilisant l'intelligence artificielle pour le démarrage de l'irrigation, et furent divisés en trois grandes catégories : (i) sans stress hydrique, (ii) stress hydrique constant durant la saison de croissance et (iii) stress hydrique pendant certains stades de croissance spécifiques. Des mesures de potentiel hydrique du xylème, température foliaire et vitesse du flux de sève ont été effectuées à l'aide de différents capteurs placés dans les unités expérimentales afin de valider leur capacité à complémenter la mesure de tension hydrique du sol dans la gestion de l'irrigation. Les résultats n'ont montré aucune différence de rendement entre les traitements imposant un stress hydrique en comparaison avec le traitement sans stress hydrique, mais une diminution significative de la quantité d'eau appliquée fut observée. Tous les capteurs mis à l'essai ont montré une bonne corrélation entre eux lors d'un évènement prolongé sans irrigation avant la récolte. De plus, l'indice de stress hydrique (CWSI) calculé à partir des capteurs infrarouges a montré une bonne corrélation avec les mesures de rendement. En termes de profitabilité, le traitement combinant l'expertise d'un conseiller d'irrigation et de mesures précises de tensions hydriques du sol a obtenu la meilleure performance. / To achieve high yields in almond orchards, growers must irrigate to compensate a water deficit of over 1000 mm each year. This amount of water must, however, be reduced due to climate change decreasing winter precipitation, which results in less available water for irrigation during the growing season. Thus, the first objective of the project was to establish the best irrigation strategy to maximize yield and water usage. The second objective was to determine the best complementary variable to the soil tension to detect the onset of tree water stress and subsequent recovery upon irrigation . The third objective was to establish the best irrigation strategy to maximize profitability. Seven completely automated irrigation treatments were compared (four blocks, 28 plots of five trees each). Among the treatments, there were traditional irrigation management techniques (constant soil tension values, crop evapotranspiration (ETc), and human management) as well as artificial intelligence treatments (AI). Those treatments encompassed three irrigation strategies: no stress (control), regulated deficit irrigation (RDI) and sustainable deficit irrigation (SDI). Stem water potential, sap flow velocity and infrared sensors were installed in several experimental units to validate their capacity to complement soil tension to manage irrigation. Results indicate no significant differences in yield between deficit irrigation treatment and the control, but significantly less water was applied in those treatments. Water stress variables during the preharvest period were well correlated with each other which is promising to find a complementary variable. Furthermore, crop water stress index (CWSI) calculated using infrared sensors showed a good correlation with almond yield. In terms of profitability, the treatment using an irrigation advisor with in situ soil tension data performed the best.
360

Trois récits sur la colonisation du champ comptable par la technique

Lajoie, Pier-Luc 08 October 2024 (has links)
Tableau d'honneur de la FÉSP / Dans le cadre de cette thèse, je mène une exploration de la colonisation du champ comptable par la technique que je décline en trois récits hétéroclites. Mes investigations visent plus particulièrement à examiner la propagation des idéologies techniciennes qui alimentent des quêtes d'objectivité idéalisées au sein du champ comptable. Le premier récit raconte l'épopée de la perspective informationnelle en recherche comptable qui, propulsée par le développement technique et un climat d'ambiguïté épistémique propice à sa prolifération, en est venue à prendre le pas sur la recherche dite normative. Le deuxième est un récit romantico-managérial sur l'intelligence artificielle, narré par un grand cabinet de services professionnels comptables, qui participe à la propagation de l'idée selon laquelle les organisations peuvent tirer profit des promesses mirobolantes de l'intelligence artificielle, sans en subir les inconvénients, puisqu'il est possible de la maîtriser et ainsi prévenir ses dérives potentielles. Le troisième récit fait état des témoignages d'auditeurs férus de technologie qui adhèrent, incarnent et disséminent à leur tour une vision romancée de l'idéologie technicienne de la complémentarité technologique selon laquelle l'accroissement du recours à la technique dite objective par l'auditeur permet de valoriser son travail plutôt que de le substituer, le miner ou l'asservir. Ces trois récits révèlent, chacun à leur façon, l'engagement passionnel de maints acteurs du champ comptable à l'égard de la rationalité technique. Ainsi, cette thèse vise à déconstruire et problématiser les quêtes d'objectivité par la révélation de leur subjectivité inhérente et la mise en lumière des dérives de la société technicienne. Enfin, je clos cette thèse par une réflexion qui invite à concevoir la thèse par articles comme une exploration intellectuelle singulière plutôt que sous l'égide des conventions de la thèse monographique.

Page generated in 0.0889 seconds