Spelling suggestions: "subject:"artificielle"" "subject:"artificielles""
161 |
A General Machine Reading Comprehension pipelineDebruyker, Roxane 13 December 2023 (has links)
Savoir lire est une compétence qui va de la capacité à décoder des caractères à la compréhension profonde du sens de textes. Avec l'émergence de l'intelligence artificielle, deux questions se posent : Comment peut-on apprendre à une intelligence artificielle à lire? Qu'est-ce que cela implique? En essayant de répondre à ces questions, une première évidence nous est rappelée : savoir lire ne peut pas se réduire à savoir répondre à des questions sur des textes. Étant donné que les modèles d'apprentissage machine apprennent avec des exemples d'essai erreur, ils vont apprendre à lire en apprenant à répondre correctement à des questions sur des textes. Cependant, il ne faut pas perdre de vue que savoir lire, c'est comprendre différents types de textes et c'est cette compréhension qui permet de répondre à des questions sur un texte. En d'autres termes, répondre à des questions sur des textes est un des moyens d'évaluation de la compétence de lecture plus qu'une fin en soi. Aujourd'hui, il existe différents types de jeux de données qui sont utilisées pour apprendre à des intelligences artificielles à apprendre à lire. Celles ci proposent des textes avec des questions associées qui requièrent différents types de raisonnement : associations lexicales, déductions à partir d'indices disséminés dans le texte, paraphrase, etc. Le problème est que lorsqu'une intelligence artificielle apprend à partir d'un seul de ces jeux de données, elle n'apprend pas à lire mais est plutôt formée à répondre à un type de question, sur un certain type de texte et avec un certain style d'écriture. Outre la problématique de la généralisation des compétences de lecture, les modèles d'intelligence artificielle qui apprennent à lire en apprenant à répondre à des questions retournent des réponses sans systématiquement indiquer sur quelles phrases du texte sources ils se basent. Cela pose un problème d'explicabilité et peut entrainer une mécompréhension des capacités de ces modèles. Dans ce mémoire, nous proposons de résoudre le problème de généralisation de l'apprentissage en proposant une méthodologie générale adaptée à n'importe quel jeu de données. Ainsi, en ayant une méthodologie commune à tous les types de jeux de données pour apprendre à répondre à tout type de question, sur tout type de texte, nous pourrions apprendre aux modèles d'intelligence artificielle à se concentrer sur les compétences générales de lecture plutôt que sur la capacité spécifique à répondre aux questions. Afin de résoudre également le problème de l'explicabilité, la méthodologie que nous proposons impose à tout modèle de compréhension de lecture automatique de renvoyer les extraits du texte source sur lequel ces réponses sont basées. / Reading is a skill that ranges from the ability to decode characters to a deep understanding of the meaning of a text. With the emergence of artificial intelligence, two questions arise: How can an artificial intelligence be taught to read? What does this imply? In trying to answer these questions, we are reminded of the obvious: knowing how to read cannot be reduced to knowing how to answer questions about texts. Since machine learning models learn with trial-and-error examples, they will learn to read by learning to answer correctly questions about the text they read. However, one should not forget the fact that knowing how to read means understanding different types of texts sufficiently well, and it is this that enables answering questions about a text. In other words, answering questions about texts is one of the means of assessing reading skills rather than an end in itself. Today, there are different types of datasets that are used to teach artificial intelligences to learn to read. These provide texts with associated questions that require different types of reasoning: lexical associations, deductions from discrete clues in the text, paraphrasing, etc. The problem is that when an artificial intelligence learns from only one of these datasets, it does not learn to read but is instead trained to answer a certain type of question, on a certain type of text and with a certain writing style. In addition to the problem of generalizing reading skills, artificial intelligence models that learn to read by learning to answer questions return answers without systematically indicating which sentences in the source text they are based on. This poses a problem of explicability and can lead to a misunderstanding of the capabilities of these models. In this thesis, we propose to solve the generalization issue of learning from one dataset by proposing a general methodology suiting to any machine reading comprehension dataset. Thus, by having a methodology common to all types of datasets to learn how to answer any type of question, on any type of text, we could teach artificial intelligence models to focus on general reading skills rather than on the specific ability to answer questions. In order to also solve the issue of explanability, the methodology we propose impose any machine reading comprehension model to return the span of the source text its answers are based on.
|
162 |
Mise au point par génie tissulaire d'un modèle de peau contenant des cellules immunitaires d'origine dermique : application à la cicatrisation cutanéeChaib, Yanis 27 January 2024 (has links)
Les modèles de peau in vitro en trois dimensions sont des outils pour étudier des processus biologiques ou pathologiques. La majorité des modèles in vitro actuellement disponibles ne comporte pas de système immunitaire et de réseau vasculaire, tous deux présents dans la peau humaine. Nous avons développé un modèle de peau entièrement composé de cellules d'un même donneur (autologue) et contenant des cellules immunitaires et endothéliales. En nous basant sur le modèle d'auto-assemblage du LOEX, nous avons mis en culture durant quatre semaines des fibroblastes dermiques dans un milieu favorisant le dépôt de matrice extracellulaire. La résultante est un feuillet manipulable composé de cellules entourées de matrice. Un isolat dermique préalablement extrait du derme humain est ensemencé sur un premier feuillet de fibroblastes et les kératinocytes sur un second. L'isolat dermique contient l'ensemble des cellules présentes dans le derme du donneur. Les deux feuillets sont ensuite superposés et mis en culture pendant deux semaines à l'interface air-liquide pour stimuler la différenciation de l'épithélium. Une analyse histologique a mis en évidence un épithélium stratifié sur un derme composé de matrice et de cellules. Des immunomarquages ont également montré la présence de cellules immunitaires CD45+ viables et d'un réseau vasculaire CD31+ au niveau du derme. Une plaie a ensuite été créée au centre de ce modèle de peau et une analyse histologique a montré une migration des cellules épidermiques et dermiques dans la plaie. La création de ce modèle permettra d'avoir une meilleure compréhension de l'homéostasie de la peau et du phénomène de cicatrisation cutanée. / In vitro three-dimensional human skin models provide a tool to investigate biological or pathological processes and to test drug effect or toxicity. In vitro models usually lack an immune system and vasculature, both characteristics of the human skin. We developed a skin model composed of cells from the same donor (autologous) and containing immune cells and endothelial cells. Based on the self-assembly method developed at the LOEX, dermal fibroblasts were first cultured during four weeks in a medium stimulating the production of an extracellular matrix. The result of this culture is a fibroblast sheet used for the development of our model. A dermal fraction enzymatically extracted from a human dermis was seeded onto a first sheet while the keratinocytes were seeded on a second one. The dermal fraction contained all the dermal cells from a donor. The two sheets were then superimposed and raised at the air-liquid interface during two weeks to stimulate epidermis differentiation. Histological studies of the 3D skin model highlighted a stratified epidermis on a dermis composed of matrix and cells. Immunofluorescence staining showed viable CD45+ immune cells and a CD31+ capillary network in the dermis. A wound was then produced at the center of the model and histological studies highlighted the migration of the epidermal and dermal cells into the wound. The creation of this first autologous 3D model containing immune cells paves the way to increase knowledge about skin homeostasis and the role of immune cells in the wound healing process.
|
163 |
Évaluation de l'impact de nouveaux pansements biologiques sur la guérison de plaies cutanées in vitroM.-Labbé, Benoît 23 April 2018 (has links)
Le traitement des ulcères cutanés constitue un défi majeur et les options thérapeutiques efficaces demeurent limitées. Le but du présent projet était de concevoir et d’évaluer le potentiel de pansements biologiques fabriqués à partir de cellules souches extraites du tissu adipeux (CSTA) à favoriser la guérison de plaies cutanées. Des pansements faits de CSTA ou de CSTA différenciées en adipocytes ont été mis au point en utilisant la technique d’auto-assemblage développée au LOEX et évalués sur un modèle d’étude in vitro adapté pour l’étude de pansements. L’effet de ces pansements a été évalué en mesurant la progression de la réépithélialisation des plaies in vitro, en caractérisant leur sécrétome et en réalisant des analyses histologiques et immunohistochimiques. Cette recherche suggère que les CSTA différenciées en adipocytes pourraient être utilisées en complément ou alternativement aux fibroblastes dermiques pour la production de recouvrements autologues utiles dans le traitement des plaies cutanées. / Treatment of chronic wounds remains a major challenge in clinic and efficient treatment options are still limited. The goal of this project was to create and evaluate the potential of bioengineered cellular wound dressings made of adipose-derived stem/stromal cells (ASCs) for cutaneous wound healing. Dressings made of ASCs differentiated or not towards the adipogenic lineage were produced using the self-assembly approach and were evaluated using an adapted in vitro wound healing model. The effect of these dressings was assessed by measuring the progression of reepithelialisation on in vitro wounds, by characterizing dressing’s secreted products and by histological and immunohistochemical analyses. This research suggests that ASCs could be used as an alternative or a complement to dermal fibroblasts for the production of autologous dressings useful for healing of chronic wounds.
|
164 |
Réseaux convolutifs à politiquesPothier, Dominique 27 January 2024 (has links)
Malgré leurs excellentes performances, les exigences élevées des réseaux de neurones artificiels en terme de volume de données et de puissance de calcul limitent leur adoption dans plusieurs domaines. C'est pourquoi il reste important de développer de nouvelles architectures moins voraces. Ce mémoire cherche à produire une architecture plus flexible et moins vorace en s'appuyant sur la théorie de l'apprentissage par renforcement. En considérant le réseau comme un agent suivant une politique, on réalise que cette politique est beaucoup plus rigide que celle suivie habituellement par les agents d'apprentissage par renforcement. Nous posons l'hypothèse qu'une architecture capable de formuler une politique plus flexible pourrait atteindre des performances similaires tout en limitant son utilisation de ressources. L'architecture que nous proposons s'inspire de la recherche faite en prédiction de paramètres, particulièrement de l'architecture hypernetwork, que nous utilisons comme base de référence. Nos résultats montrent que l'apprentissage d'une politique dynamique aussi performante que les politiques statiques suivies par les réseaux conventionnels n'est pas une tâche triviale. Nos meilleurs résultats indiquent une diminution du nombre de paramètres de 33%, une diminution des calculs de 12% au prix d'une baisse de l'exactitude des prédictions de 2%. Malgré ces résultats, nous croyons que notre architecture est un point de départ pouvant être amélioré de plusieurs manières que nous explorons rapidement en conclusion. / Despite their excellent performances, artificial neural networks high demand of both data and computational power limit their adoption in many domains. Developing less demanding architecture thus remain an important endeavor. This thesis seeks to produce a more flexible and less resource-intensive architecture by using reinforcement learning theory. When considering a network as an agent instead of a function approximator, one realize that the implicit policy followed by popular feed forward networks is extremely simple. We hypothesize that an architecture able to learn a more flexible policy could reach similar performances while reducing its resource footprint. The architecture we propose is inspired by research done in weight prediction, particularly by the hypernetwork architecture, which we use as a baseline model.Our results show that learning a dynamic policy achieving similar results to the static policies of conventional networks is not a trivial task. Our proposed architecture succeeds in limiting its parameter space by 20%, but does so at the cost of a 24% computation increase and loss of5% accuracy. Despite those results, we believe that this architecture provides a baseline that can be improved in multiple ways that we describe in the conclusion.
|
165 |
Le niveau de maturité des organisations québécoises à l'égard de l'intelligence artificielle : les déterminants de l'adoption de l'IA au Québec : le cas des communicateurs québécoisDéry, Geneviève 10 February 2024 (has links)
Ce projet de recherche s'intéresse aux perceptions des communicateurs québécois quant à l'adoption de l'intelligence artificielle (IA) dans leur organisation et à son intégration dans leurs pratiques professionnelles. Il s'inscrit dans la foulée de quelques études menées sur les perceptions de l'IA au Québec (Centre interuniversitaire de recherche en analyse des organisations [CIRANO], 2018) et à travers le monde (Brock et Wangenheim, 2019 ; Ransbotham et al., 2017 ; Sun et Medaglia, 2018). L'étude s'appuie sur une approche quantitative qui procède d'une méthode par sondage en ligne dont les questions ont été conçues à partir d'une cartographie des déterminants de l'adoption de l'IA. Elle interprète les résultats en se basant sur la théorie de la conduite du changement en trois étapes de Lewin (1947), laquelle permet de situer et d'expliquer la position des acteurs relativement à un changement technologique en fonction d'une échelle de maturité organisationnelle. Il ressort des résultats obtenus que les organisations québécoises se situent au milieu de l'échelle du changement, satisfaisant à 16 des 32 indicateurs requis. Globalement, les acteurs de l'industrie des communications admettent l'importance de l'adoption de l'IA dans leur domaine, en connaissent bien les enjeux et les déterminants, mais peinent à voir comment l'intégrer à leurs pratiques. Autrement dit, ils savent " quoi faire ", mais ils ne savent pas " comment le faire ". En réponse à ce problème, cette recherche propose une méthode d'adoption séquentielle de l'IA en communication qui permet à une organisation de se situer sur l'échelle de maturité du changement et d'identifier les actions à poser pour passer à l'échelon suivant. / This research project explores the perceptions of Quebec communicators regarding the adoption of artificial intelligence (AI) in their organization and its integration into their professional practices. It is part of the wake of some studies carried out on perceptions of AI in Quebec (Centre interuniversitaire de recherche en analyse des organisations [CIRANO], 2018) and around the world (Brock and Wangenheim, 2019; Ransbotham and al., 2017; Sun and Medaglia, 2018). The study relies on a quantitative approach that proceeds from an online survey method whose questions were designed from a mapping of determining factors of adoption of AI. Results are interpreted based on Lewin's three-stage change management theory (1947), which allows to situate and explain the position of the actors in relation to a technological change according to a maturity scale. The results obtained show that Quebec organizations are in the middle of the scale of change, meeting 16 of the 32 required indicators. Overall, the players in the communications industry admit the importance of adopting AI in their field, are well aware of the issues and determining factors, but are struggling to see how to integrate it into their practices. In other words, they know "what to do" but they don't know "how to do it". In response to this problem, this research proposes a method of sequential adoption of AI in communication that allows an organization to situate itself on the change maturity scale and to identify the actions to be taken to move to the next level.
|
166 |
Les textes générés par intelligence artificielleLebrun, Tom 24 January 2024 (has links)
Titre de l'écran-titre (visionné le 10 janvier 2023) / Cette thèse examine le statut littéraire et, dans une moindre mesure, juridique, des textes générés par intelligence artificielle (IA). Elle s'intéresse particulièrement aux textes créés par des méthodes de génération dites « par apprentissage », soit tout ce qui relève de l'apprentissage automatique, également appelé apprentissage machine ou apprentissage statistique. Elle pose l'hypothèse d'un nouveau type de littérature générative, qualifiée de génération par apprentissage, qui propose un rapport intertextuel inédit entre l'œuvre générée et ses sources et fait la preuve d'une autonomie nouvelle de l'œuvre par rapport à son auteur traditionnel autonomie qui se négocie au prix d'une dépendance accrue au corpus de sources utilisés pour l'entraînement du modèle d'IA utilisé. Cette autonomie est pour l'heure inédite dans l'histoire littéraire et n'avait, jusqu'ici, pas encore fait l'objet d'un examen scientifique systématique ; l'objet de cette thèse est de combler cette lacune doctrinale. La thèse examine donc ce que ce nouveau type de littérature en partie autonome par rapport à ses auteurs (mais dépendante envers les sources d'entraînement) fait à la littérature au travers de quatre chapitres distincts. Le chapitre 1 retrace l'histoire de la question de l'autonomie en littérature vue sous l'angle de la contrainte. Après un rappel de l'histoire littéraire en matière de génération informatique (de l'OuLiPo à l'Alamo), elle examine les différents types de génération de textes par informatique, distinguant la génération combinatoire, la génération automatique et la nouvelle génération dite « par apprentissage ». Dans le cas de chacun de ces types, le rôle du modèle informatique, des sources et de l'auteur sont examinés successivement, illustrant une autonomisation croissante du texte par rapport à son auteur. Le chapitre 2 examine le rapport d'appropriation des sources qu'impose tout modèle de génération par apprentissage et ses conséquences d'un point de vue littéraire, notamment par le biais des notions de transtextualité et de transfictionnalité. Trois grands types de textes générés par apprentissage sont distingués et décrits, chacun avec leurs propres spécificités qui permettent d'éclaircir la diversité des pratiques de ce nouveau type de littérature (le texte œuvre d'art, le texte édité, le texte appropriant). Le chapitre 3 est consacré à la question de l'autorité des textes générés par apprentissage, laquelle est remise en question par l'autonomie des créations vis-à-vis de leurs auteurs. Ce chapitre est l'occasion de recentrer le débat sur la posture d'auteurs qui doivent composer avec l'autonomie des systèmes qu'ils utilisent et la dépendance formelle des textes qu'ils produisent envers les sources. Ces auteurs usent de stratégies variées en fonction de leurs intentions, marquant par des discours spécifiques leur position face aux textes. Le chapitre 4 se focalise, quant à lui, sur la question de la lecture et de la réception des textes générés par apprentissage. La diversité de ces pratiques achève sans doute de prouver l'existence d'une grande variété de textes générés par apprentissage autant que leur caractère singulier appelant un renouveau théorique conséquent. Ce renouveau force en partie un retour vers les théories communicationnelles de la littérature, aussi critiquées qu'elles aient pu l'être ces dernières années. La thèse conclut conséquemment non seulement sur l'existence d'un nouveau type de texte littéraire, mais aussi sur la redéfinition profonde de la littérature qui en découle. / This thesis examines the literary and, to a lesser extent, legal status of texts generated by artificial intelligence (AI). It is particularly interested in texts created by so-called "machine learning" methods. It poses the hypothesis of a new type of generative literature, qualified as machine learning generated, which proposes a new intertextual relationship between the generated work and its sources and demonstrates a new autonomy of the work in relation to its traditional author an autonomy which is negotiated at the price of an increased dependence on the corpus of sources used to train the AI model used. This autonomy is, for the time being, unprecedented in literary history and has not, until now, been the subject of a systematic scientific examination; the purpose of this thesis is to fill this doctrinal gap. The thesis therefore examines what this new type of literature, partly autonomous from its authors (but dependent on training sources), does to literature through four distinct chapters. Chapter 1 traces the history of the question of autonomy in literature as seen through the lens of constraint. After a reminder of the literary history of computational generation (from OuLiPo to the Alamo), it examines the different types of computational generation of texts, distinguishing between combinatorial generation, automatic generation and the new so-called "learning" generation. In the case of each of these types, the role of the computer model, of the sources and of the author are examined successively, illustrating an increasing autonomy of the text with respect to its author. Chapter 2 examines the relationship of appropriation of the sources imposed by any model of generation by learning and its consequences from a literary point of view, notably through the notions of transtextuality and transfictionality. Three main types of texts generated by learning are distinguished and described, each with their own specificities that allow to clarify the diversity of the practices of this new type of literature (the work of art text, the edited text, the appropriating text). Chapter 3 is devoted to the question of the authority of texts generated by learning, which is called into question by the autonomy of creations vis-à-vis their authors. This chapter is an opportunity to refocus the debate on the posture of authors who have to deal with the autonomy of the systems they use and the formal dependence of the texts they produce on the sources. These authors use various strategies according to their intentions, marking by specific discourses their position in front of the texts. Chapter 4 focuses on the question of reading and receiving texts generated by learning. The diversity of these practices undoubtedly proves the existence of a vast diversity of texts generated by learning as much as their singular character calling for a consequent theoretical renewal. This renewal in part forces a return to communicative theories of literature, as criticized as they have been in recent years. The thesis therefore concludes not only on the existence of a new type of literary texts, but also on the profound redefinition of literature that follows from it.
|
167 |
Leveraging repeated games for solving complex multiagent decision problemsBurkov, Andriy 17 April 2018 (has links)
Prendre de bonnes décisions dans des environnements multiagents est une tâche difficile dans la mesure où la présence de plusieurs décideurs implique des conflits d'intérêts, un manque de coordination, et une multiplicité de décisions possibles. Si de plus, les décideurs interagissent successivement à travers le temps, ils doivent non seulement décider ce qu'il faut faire actuellement, mais aussi comment leurs décisions actuelles peuvent affecter le comportement des autres dans le futur. La théorie des jeux est un outil mathématique qui vise à modéliser ce type d'interactions via des jeux stratégiques à plusieurs joueurs. Des lors, les problèmes de décision multiagent sont souvent étudiés en utilisant la théorie des jeux. Dans ce contexte, et si on se restreint aux jeux dynamiques, les problèmes de décision multiagent complexes peuvent être approchés de façon algorithmique. La contribution de cette thèse est triple. Premièrement, elle contribue à un cadre algorithmique pour la planification distribuée dans les jeux dynamiques non-coopératifs. La multiplicité des plans possibles est à l'origine de graves complications pour toute approche de planification. Nous proposons une nouvelle approche basée sur la notion d'apprentissage dans les jeux répétés. Une telle approche permet de surmonter lesdites complications par le biais de la communication entre les joueurs. Nous proposons ensuite un algorithme d'apprentissage pour les jeux répétés en ``self-play''. Notre algorithme permet aux joueurs de converger, dans les jeux répétés initialement inconnus, vers un comportement conjoint optimal dans un certain sens bien défini, et ce, sans aucune communication entre les joueurs. Finalement, nous proposons une famille d'algorithmes de résolution approximative des jeux dynamiques et d'extraction des stratégies des joueurs. Dans ce contexte, nous proposons tout d'abord une méthode pour calculer un sous-ensemble non vide des équilibres approximatifs parfaits en sous-jeu dans les jeux répétés. Nous montrons ensuite comment nous pouvons étendre cette méthode pour approximer tous les équilibres parfaits en sous-jeu dans les jeux répétés, et aussi résoudre des jeux dynamiques plus complexes. / Making good decisions in multiagent environments is a hard problem in the sense that the presence of several decision makers implies conflicts of interests, a lack of coordination, and a multiplicity of possible decisions. If, then, the same decision makers interact continuously through time, they have to decide not only what to do in the present, but also how their present decisions may affect the behavior of the others in the future. Game theory is a mathematical tool that aims to model such interactions as strategic games of multiple players. Therefore, multiagent decision problems are often studied using game theory. In this context, and being restricted to dynamic games, complex multiagent decision problems can be algorithmically approached. The contribution of this thesis is three-fold. First, this thesis contributes an algorithmic framework for distributed planning in non-cooperative dynamic games. The multiplicity of possible plans is a matter of serious complications for any planning approach. We propose a novel approach based on the concept of learning in repeated games. Our approach permits overcoming the aforementioned complications by means of communication between players. We then propose a learning algorithm for repeated game self-play. Our algorithm allows players to converge, in an initially unknown repeated game, to a joint behavior optimal in a certain, well-defined sense, without communication between players. Finally, we propose a family of algorithms for approximately solving dynamic games, and for extracting equilibrium strategy profiles. In this context, we first propose a method to compute a nonempty subset of approximate subgame-perfect equilibria in repeated games. We then demonstrate how to extend this method for approximating all subgame-perfect equilibria in repeated games, and also for solving more complex dynamic games.
|
168 |
Développement d'un modèle de peau reconstruite par génie tissulaire à partir de cellules diabétiques pour l'étude des plaies chroniques cutanéesDe Serres-Bérard, Thiéry 27 May 2019 (has links)
Tableau d'honneur de la FÉSP / Chez les patients diabétiques, plusieurs mécanismes intervenant dans la guérison de plaies sont affectés par l’hyperglycémie. Ainsi, ils sont plus à risque de développer des ulcères chroniques présentant un haut risque d’infection et pouvant même mener à une amputation des membres inférieurs. Les recherches menées sur les fibroblastes et les kératinocytes provenant de patients diabétiques humains sont principalement effectuées avec des cultures cellulaires monocouches peu représentatives de l’environnement in vivo, ce qui empêche la découverte de traitements efficaces. Notre hypothèse propose que l’intégration de cellules diabétiques dans un modèle de peau reconstruite tridimensionnelle pourrait permettre de mieux comprendre la pathogenèse des plaies chroniques. L’objectif du projet consiste à comparer les caractéristiques de peaux reconstruites diabétiques à des peaux reconstruites saines dans deux processus importants pour la guérison de plaies, soit l’angiogenèse et la reépithélialisation. Nous avons extrait des fibroblastes, des kératinocytes et des cellules endothéliales microvasculaires à partir de biopsies de peau prélevées sur le membre amputé de patients diabétiques. Nous les avons ensuite ensemencés dans un biomatériau en chitosane et en collagène dans lequelles cellules endothéliales forment un réseau microvasculaire alors que les kératinocytes forment un épiderme stratifié. Grâce à ce modèle, nous avons observé que des cellules endothéliales saines cultivées avec des fibroblastes diabétiques formaient des réseaux microvasculaires moins développés qu’avec des fibroblastes sains. De plus, les kératinocytes diabétiques présentaient une très faible capacité de reépithélialisation suivant l’induction d’une plaie comparativement aux contrôles sains. Nous avons mis au point le premier modèle de peau reconstruite endothélialisée diabétique et démontré qu’il reproduit in vitro des caractéristiques importantes associées aux ulcères de pieds diabétiques. Ainsi, ce modèle pourra permettre de mieux comprendre les mécanismes moléculaires et cellulaires altérés par le diabète dans la guérison cutanée et servir à cribler des molécules thérapeutiques pour le traitement des plaies chroniques. / Skin wound healing is severely compromised in patients with diabetes and can lead to ulcer formation requiring lower limb amputation. Previous studies using cells derived from diabetic patients have been mostly conducted in two-dimensional monolayer cultures, which do not reproduce at all the physiology or the structure of the skin and thus limit the discovery of effective treatments. We propose that a three-dimensional reconstructed skin model made with diabetic cells could be useful to better understand the mechanisms underlying diabetic foot ulcer. Our aim was to asses the efficiency of diabetic reconstructed skin in angiogenesis and reepithelialization, which are two crucial processes of wound healing that are impaired by diabetes. We have extracted and cultured fibroblasts, keratinocytes and microvascular endothelial cells from skin biopsies taken on the amputated limb of diabetic patients. The cells were seeded on a biomaterial made of chitosan and collagen, which allowed the endothelial cells to form a capillary network and the keratinocytes to form a stratified epidermis. We have shown that coculture of healthy endothelial cells with diabetic fibroblasts in the model led to the formation of a less extensive vascular network compared to culture with healthy fibroblasts. Additionally, in diabetic reconstructed skins, keratinocytes formed a thinner epidermis with an altered histological aspect compared to healthy reconstructed skins. Following the induction of a wound in our model, diabetic keratinocytes were inefficient in achieving reepithelialization. We have developed the first endothelialized diabetic reconstructed skin, which features important characteristics found in diabetic wounds like a deficiency in the angiogenesis and reepithelialisation process. Therefore, this model could be a powerful tool to investigate the cellular and molecular mechanisms leading to chronic wounds and act as a platform to screen therapies to enhance wound healing.
|
169 |
Infrared thermographic data processing with deep learning and explainable AIWei, Ziang 05 November 2024 (has links)
La thermographie pulsée (PT), importante méthode de contrôle non destructif, a suscité un intérêt croissant ces dernières années, en raison de sa rapidité de mesure, de son excellente mobilité et de sa haute résolution. Son champ d'application s'étend à divers matériaux, tels que les métaux et les matériaux composites. Les données thermographiques consistent en des séquences infrarouges bidimensionnelles représentant l'évolution de la température de surface de l'échantillon testé. Même pour les professionnels qualifiés, il est difficile d'identifier avec précision tous les types de défauts. En outre, la caractérisation des défauts peut être encore plus difficile à décider. Bien que l'apprentissage profond soit devenu une approche populaire du traitement automatisé des données ces dernières années, il existe quelques problèmes communs lorsqu'ils sont appliqués à l'analyse de séquences d'images thermographiques. Tout d'abord, les approches d'apprentissage profond sont généralement gourmandes en données, alors que les données thermographiques sont rares, la préparation des essais étant généralement fastidieuse. Deuxièmement, le ressuage étant axé sur la détection des défauts sous la surface, il est souvent très difficile d'obtenir l'emplacement exact des défauts. Cependant, la caractérisation précise des défauts est cruciale pour l'entraînement des réseaux neuronaux profonds. Troisièmement, contrairement au domaine de la vision par ordinateur, où il existe de nombreux ensembles de données bien préparés pour l'évaluation comparative de différents algorithmes, il n'existe que quelques ensembles de données de ressuage accessibles au public. Cependant, ces ensembles de données sont essentiels pour faire progresser les algorithmes de traitement des données thermographiques. Quatrièmement, les modèles d'apprentissage profond, malgré leurs bonnes performances, sont souvent considérés comme des « boîtes noires ». Cela constitue un obstacle à leur déploiement dans l'industrie pour l'assurance qualité, car il est très difficile de gagner la confiance de l'utilisateur final, qui est responsable de la qualité du produit. La présente étude se penche sur les questions susmentionnées. Pour remédier à la pénurie de données et au nombre limité d'ensembles de données de référence, deux ensembles de données de PT ont été préparés et mis à la disposition du public, l'un pour la segmentation des défauts et l'autre pour l'estimation et la localisation de la profondeur des défauts. Ce dernier ensemble de données est étiqueté à l'aide des images CAO correspondantes. Cela permet d'améliorer la précision des informations d'étiquetage. En outre, pour améliorer l'explicabilité des modèles profonds utilisés pour le traitement des données infrarouges, trois méthodes d'IA explicables sont étudiées, notamment la méthode de visualisation de la carte d'activation, la méthode d'attribution des caractéristiques et la méthode d'occlusion des caractéristiques. La méthode de visualisation de la carte d'activation montre le processus de prise de décision du modèle profond, qui est similaire à la perception humaine. La méthode d'attribution des caractéristiques et la méthode d'occlusion des caractéristiques ont généré des cartes thermiques similaires, démontrant que les modèles utilisent les caractéristiques correctes pour prendre les décisions finales. La crise de confiance du modèle profond peut donc être atténuée. / Pulsed thermography (PT), as an important nondestructive testing method, has attracted increasing attention in recent years, due to its rapid measurement speed, excellent mobility, and high resolution. Its applicability spans across various materials, such as metal and composite materials. The thermographic data consist of two-dimensional infrared sequences representing the evolution of the surface temperature of the test specimen. Even for skilled professionals, it is challenging to accurately identify all kinds of defects. Furthermore, the characterization for the defects can be even more difficult to decide. Although deep learning has become a popular automated data processing approach in recent years, there are some common issues when they are applied to the analysis of thermographic image sequences. First, deep learning approaches are typically data-hungry, whereas thermographic data are scarce as the preparation for testing is usually tedious. Second, as PT focuses on the detection of subsurface defects, it is often quite challenging to obtain the exact location of the defects. However, the accurate characterization of the defects is crucial for the training of deep neural networks. Third, unlike the computer vision field, where there are numerous well-prepared datasets for benchmarking different algorithms, there are only a few such publicly accessible PT datasets. However, these datasets are fundamental for advancing algorithms in thermographic data processing. Fourth, the deep learning models, despite their good performance, are often considered "black boxes". This presents an obstacle to their deployment in the industry for quality assurance due to the significant challenge of earning the trust of the end user who bears the responsibility for the product's quality. This study investigates the aforementioned issues. To address the scarcity of data and the limited benchmark datasets, two PT datasets are prepared and made publicly available, one is for defect segmentation and the other is for defect depth estimation and localization. The latter dataset is labeled using the corresponding CAD images. This enhances the accuracy of the labeling information. Furthermore, to enhance the explainability of the deep models used for infrared data processing, three explainable AI methods are investigated, including the activation map visualization method, feature attribution method, and feature occlusion method. The activation map visualization method shows the decision-making process of the deep model, which is similar to human perception. The feature attribution method and feature occlusion method generated similar heat maps, demonstrating that the models use the correct features to make final decisions. The trust crisis of the deep model can therefore be mitigated.
|
170 |
Détermination de la capacité des substituts cutanés à métaboliser le tazarotène, une molécule antipsoriasiquesMorin, Alexandre 23 April 2018 (has links)
La méthode d’auto-assemblage développée au Laboratoire d’Organigénèse Expérimentale (LOEX) est très efficace afin de produire des substituts cutanés autologues absents d’agents exogènes. Une adaptation possible de cette méthode permet d’obtenir un substitut cutané présentant un phénotype psoriasique. L’objectif de ce travail a été de poursuivre la validation du modèle de substitut cutané produit par la méthode d’auto-assemblage en évaluant la capacité métabolique des substituts via l’emploi de molécules antipsoriasiques comme le tazarotène. Pour ce faire, des tests de perméabilité cutanée combinés à une détection par chromatographie ultra performante ont été envisagés afin d’évaluer d’une part les structures adéquates des peaux reconstruites et d’autre part d’établir des liens avec ces résultats et les capacités de métabolisation du modèle. Les résultats obtenus démontrent une capacité métabolique chez les substituts cutanés. De plus, des différences au niveau de la perméabilité sont observées entre les différents types de peau utilisés, confirmant que le modèle est de plus en plus représentatif. / The self-assembly method developed at the LOEX is very effective to produce autologous skin substitutes free of exogenous agents. A possible adaptation of this method allows the reconstruction of a skin substitute having many features of a psoriatic phenotype. The objective of this work was to follow the validation of the skin substitutes produced by the self-assembly method by the evaluation of the skin substitutes metabolism using antipsoriatic molecules like tazarotene. Percutaneous absorption combined with an ultra performance liquid chromatography has been selected in order to evaluate on one hand the appropriate structures of the reconstructed skins and on the other hand, to establish some links with these results and their capacity of metabolism. Results obtained from shown that metabolization has been detected in skin substitutes. Moreover, permeability differences have been observed of each kind of skin used on this study. This confirms that our skin model is more and more representative.
|
Page generated in 0.0494 seconds