• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 3
  • 2
  • Tagged with
  • 14
  • 14
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation de la cognition dans le domaine des arts visuels

Leclerc, Jude January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
2

Contribution d'un modèle computationnel de sélection de stratégies de navigation aux hypothèses relatives à l'apprentissage spatial

Dollé, Laurent 29 October 2010 (has links) (PDF)
De nombreuses expériences montrent la capacité des mammifères, particulièrement étudiée chez le rat, à pouvoir utiliser plusieurs types de navigation pour rejoindre un but. Ces stratégies seraient utilisées en fonction de la disponibilité de différents types d'amers présents dans l'environnement, situés à la proximité ou loin du but (resp. amers proximaux et distaux), ainsi que d'autres facteurs, comme la motivation, l'expérience ou le stress. Les études ont notamment porté ces dernières décennies sur les systèmes de mémoires engagés dans l'utilisation de ces stratégies, l'hypothèse dominante étant que des modules apprennent en parallèle des types distincts de stratégies, reposant ou non sur la construction d'une représentation interne de l'environnement. Les unes, reposant sur l'utilisation d'amers visibles, seraient apprises de manière relativement inflexible (apprentissage procédural) et impliqueraient notamment le striatum dorso-latéral. D'autres impliqueraient la formation hippocampique et reposeraient sur la construction préalable d'une "carte cognitive" de l'environnement (apprentissage déclaratif), en intégrant de manière redondante les amers disponibles. Cette carte, apprise indépendamment de la position du but, confèrerait une flexibilité importante à ce type de stratégies puisqu'elle aurait la capacité de repositionner rapidement le but, si celui-ci venait à être déplacé. L'hypothèse d'une telle représentation spatiale (théorie dite "cognitive") et de systèmes parallèles ayant des capacités différentes d'apprentissage est supportée par des comparaisons entre animaux intacts et animaux ayant des lésions des structures nerveuses concernées, de même que des expériences impliquant des manipulations de l'environnement (e.g., déplacement d'amers). Cette hypothèse est toutefois remise en question par la nature de l'apprentissage impliqué : la construction d'une représentation spatiale et son utilisation est contraire à nombre d'observations tendant à montrer que le comportement spatial est avant tout dirigé par une compétition entre les amers disponibles, résultant du même apprentissage procédural que celui mis en oeuvre dans un conditionnement opérant (théorie dite "associative"). Des expériences démontrent en effet que certains amers peuvent être occultés ou bloqués par d'autres selon qu'ils sont appris parallèlement ou séquentiellement, et remettent ainsi en question la possibilité d'intégrer ces amers de manière redondante. Selon les tenants de cette théorie, la navigation serait donc avant tout apprise et gérée de manière unitaire, empêchant ainsi l'émergence de plusieurs stratégies apprises en parallèle. Nous adoptons ici l'hypothèse, déjà formulée par d'autres neurobiologistes, que ces deux points de vue antagonistes pourraient s'expliquer par une gestion modulaire de la navigation, permettant des apprentissages différenciés et parallèles de plusieurs stratégies, et dont le mécanisme de sélection pourrait favoriser soit les compétitions entre amers, soit la nécessité de leur intégration. Cette thèse vise à concevoir un modèle computationnel de sélection de stratégies de navigation qui concilie les deux théories ou, a minima, y apporte des éléments de débats. La conception du modèle computationnel proposé dans ce travail et sous-tendu par cette hypothèse a nécessité de fait la mise en place d'une règle de sélection ne dépendant pas de la nature de l'apprentissage des stratégies et pouvant privilégier soit certains amers, soit l'utilisation d'une représentation spatiale construite avec plusieurs amers. Ce modèle sélectionne en ligne des stratégies apprises par des algorithmes d'apprentissage procéduraux (apprentissage par renforcement) et déclaratifs (recherche de graphe). Ces acquisitions s'effectuent en parallèle et peuvent favoriser une coopération entre les stratégies, car chacune peut apprendre des comportements de l'autre. Le module de sélection de ces stratégies peut inciter des interactions compétitives, car il effectue ses choix sur la base d'un apprentissage de type associatif. L'existence d'un tel module de sélection, indépendant des systèmes d'apprentissage des stratégies, est corroboré par certains travaux récents démontrant l'implication de structures du cortex préfrontal et des ganglions de la base dans cette fonction. Le dispositif expérimental utilisé est la piscine de Morris, dans laquelle le comportement spatial de rats a été étudié de façon approfondie depuis une trentaine d'années. Nous avons limité nos analyses, d'une part, aux interactions entre stratégies de guidage (utilisant directement des indices visuels) et stratégies de lieu (utilisant une représentation spatiale construite à partir de cellules de lieu simulées par un modèle d'hippocampe intégré au modèle) et, d'autre part, à la recherche d'un seul but, dépendant d'un seul système motivationnel. Après avoir démontré le comportement du modèle dans des situations où seuls certains types d'amers (proximaux ou distaux) sont présents, nous avons reproduit diverses expériences dans lesquelles l'influence de l'interaction de ces types d'amers a donné lieu à des interprétations issues de l'une ou de l'autre des deux théories antagonistes. Nous y apportons un corpus d'explications, conciliant à la fois les données neurobiologiques et comportementales, ainsi que des prédictions comportementales qui permettront aux neurobiologistes d'estimer l'utilité de ce modèle. Nous avançons notamment que l'utilisation d'une stratégie fondée sur une carte cognitive (intégration d'amers) ne peut pas être écartée, car elle se révèle indispensable pour expliquer certains effets de blocage ou d'occultation caractéristiques de la théorie associative. Nous suggérons aussi que l'existence de deux stratégies de guidage, l'une ayant un cadre de référence égocentré (apprenant les trajets conduisant au but en fonction de l'orientation du corps), l'autre un cadre de référence allocentré (apprenant une direction générale conduisant au but en fonction d'un repère absolu) doit nécessairement être prise en compte pour générer certaines interactions compétitives ou coopératives observées entre systèmes de navigation. Nous montrons aussi qu'une intégration d'amers n'est pas forcément utilisée par les animaux car une stratégie de guidage allocentrée, même fondée sur une compétition d'amers, peut être suffisante dans certains contextes pour expliquer leur comportement. En résumé, ce modèle de navigation, associant des systèmes parallèles d'apprentissage procéduraux et déclaratifs et sélectionnés par un mécanisme procédural, est en mesure de proposer une architecture computationnelle qui pourrait concilier les hypothèses issues des théories associative et cognitive du comportement spatial. Ce travail a également une retombée dans le domaine de la robotique, proposant par cette architecture une augmentation de l'autonomie dans la navigation d'un système artificiel, pouvant sélectionner en ligne les stratégies les plus efficaces pour atteindre ses ressources.
3

Apprentissage et contrôle cognitif : une théorie computationnelle de la fonction exécutive préfontale humaine

Collins, Anne 05 January 2010 (has links) (PDF)
Le contrôle cognitif est la capacité à réagir à des stimuli de manière adaptée au contexte présent ou aux indices passés, en tenant compte de nos buts internes. Le contrôle cognitif et l'apprentissage entretiennent des liens profonds et réciproques. D'un côté, le contrôle cognitif requiert que nous ayons appris un répertoire de comportements ainsi que leur valeur dans différentes conditions, afin de les utiliser à bon escient. D'un autre côté, l'apprentissage d'un répertoire de comportements nécessite du contrôle cognitif, notamment pour réguler l'équilibre entre exploration et exploitation, mais également pour généraliser, décider d'un switch, induire une structure dans un problème, etc.. . . Le contrôle cognitif et l'apprentissage sont donc indissociablement liés dans la flexibilité qui carac- térise la fonction exécutive préfrontale humaine. Cependant, ce lien est actuellement mal compris et peu de travaux de psychologie ou neurosciences cognitives intègrent ces deux aspects. De même, les modèles computationnels d'apprentissage ou de décision existants ne rendent pas compte de leur interaction. Dans ce travail de thèse, nous proposons une théorie mathématique reposant sur des mécanismes d'apprentissage par renforcement et d'inférence bayésienne, qui intègre l'apprentissage de répertoires de comportements (task-sets) dans un milieu incertain et le contrôle cognitif (task-switching) en présence ou en l'absence d'information contextuelle. Cette théorie permet de faire des prédictions spécifiques que nous avons testées dans le cadre de deux expériences comportementales. Celles-ci ont permis de valider les prédictions de la théorie et d'invalider d'autres modèles existants. De plus, la théorie proposée permet d'avancer un facteur explicatif des différences qualitatives de stratégies d'exploration observées entre différents individus. La théorie proposée caractérise de façon intrinsèque des notions essentielles telles que le comporte- ment par défaut, le switch et l'exploration. Elle permet de faire émerger naturellement un mécanisme de contrôle du compromis exploitation - exploration, ainsi que son facteur de pondération. Enfin, les résultats empiriques valident les prédictions et confirment les hypothèses du modèle. Celui-ci pourra être utilisé pour comprendre les computations effectuées par le cerveau dans des études d'imagerie fonctionnelle, avec le cortex préfrontal, les ganglions de la base et des neuromodulateurs (dopamine et norépinephrine) comme centres d'intérêt principaux.
4

Expliquer et comprendre dans les sciences empiriques : les modèles scientifiques et le tournant computationnel / Explanation and understanding in the empirical sciences : scientific models and the computational turn

Jebeile, Julie 11 December 2013 (has links)
Comprendre les phénomènes consiste souvent a interroger les modèles mathématiques des systèmes considérés. En particulier. il s'agit d'obtenir par leur intermédiaire des réponses fiables aux questions de type « pourquoi'? ». Nous y réussissons dès lors que les modèles sont acceptables et intelligibles: c'est l'idée directrice de la thèse. Ce double réquisit est ainsi étudié; d'abord dans l'analyse des modèles analytiques puis dans celle des modèles de simulation. Cela a permis dans un premier temps de mettre en lumière le rôle positif des idéalisations dans la compréhension par les modèles analytiques. Puis, dans un second temps, il a été possible d'identifier les conséquences du tournant computationnel. Il demeure en effet un fossé entre le modèle computationnel et ses résultats, il cause, notamment de l'opacité épistémologique des simulations numériques. Or ce fossé semble doublement entraver notre compréhension des phénomènes simulés. En effet, d'une part, certaines difficultés d'ordre épistémologique, qui sont propre à la justification et a l'utilisation des modèles de simulation, contreviennent il leur acceptabilité. D'autre part, puisque la simulation ne peut pas faire l'objet d'une inspection directe, il est difficile pour l'utilisateur de faire la relation entre les résultats de cette simulation et le contenu du modèle : celui-ci devenant par là-même inintelligible. Néanmoins. les représentations visuelles semblent jouer un rôle fondamental en permettant de surmonter le problème de l'opacité des simulations et ainsi d'assurer une fonction explicative. / Understanding phenomena often requires using mathematical models of the target systems. ln particular, this requires obtaining. through them. reliable answers to why-questions. In this context, we achieve understanding once the models are acceptable and intelligible; this is the central assumption in this thesis. This double requirement is thus studied first in the analysis of analytical models. and then in the analysis of simulation models. This study first allowed us to highlight the positive role of idealizations in understanding through analytical models. Next, it allowed for an identification of the consequences of the computational turn. There is in fact a gap between a computational model and its results. partly because of the epistemic opacity of computer simulations. This gap seems to doubly hinder our understanding of simulated phenomena. On the one hand, some epistemological difficulties arise which are specific to the justification and the use of simulation models. These difficulties contravene their acceptability. On the other hand, since simulation is not open to direct inspection. it seems difficult for a user to make the relation between the model content and its results. Nevertheless, visual representations seem to play a fundamental function in allowing us to overcome the opacity issue. and thus to provide us with explanatory elements to our why-questions.
5

Data-driven computational modelling for some of the implications of dopamine in the brain : From subcellular signalling to area networks / Modélisation computationnelle de certaines implications de la dopamine dans le cerveau à partir de données expérimentales : De la signalisation sub-cellulaire aux réseaux

Foncelle, Alexandre 05 April 2018 (has links)
Dans le cerveau, il est difficile de mettre au point des expériences avec un niveau de contrôle approprié à cause du haut niveau de connectivité. Pour traiter ce problème, les modèles mathématiques sont utilisés pour représenter le cerveau d’une façon plus compréhensible. En effet, les modèles mathématiques peuvent être plus pratiques que les expériences pour tester des hypothèses et chercher à extraire l’essence même du principe étudié, en le simplifiant. De plus, la modélisation computationnelle forme une branche spécifique de la modélisation mathématique, permettant de résoudre de gros calculs numériques. Dans cette thèse, j’ai utilisé la modélisation computationnelle à travers différentes approches pour étudier certaines régions cérébrales. Nous avons collaboré avec des neurobiologistes en appliquant nos modèles à des données expérimentales pour contribuer à mieux comprendre l’action de la dopamine, un neuromodulateur. J’ai étudié la diversité de l’action de la dopamine à trois échelles: la région cérébrale, le niveau cellulaire et le niveau moléculaire. La dopamine a un gros impact sur le cerveau et elle est principalement connue pour son implication dans le système de récompense. En effet, c’est une molécule associée à la prédiction de récompense et de punition. Peu de régions produisent de la dopamine et ces régions sont altérées par la maladie de Parkinson ou perturbées par la dépression. Pour la maladie de Parkinson, j’ai conçu un modèle de type taux de décharge pour reproduire l’activité neuronale des ganglions de la base. Ce modèle montre des réponses neuronales significativement différentes, entre la condition témoin et la condition parkinsonienne. Par ailleurs, avec un modèle de type Hodgin-Huxley prenant en compte la dynamique de l’ion potassium, j’ai pu appuyer l’hypothèse que la région cérébrale appelée l’habenula, lorsqu’elle est hyperactive, induirait la dépression. Cette dépression serait due à un déséquilibre de la concentration en potassium à cause d’une dysfonction de l’astrocyte (surexpression des canaux Kir4.1). Enfin, la dopamine est aussi impliquée dans la plasticité synaptique, un phénomène à la base de la mémoire. Je l’ai étudié avec un troisième modèle, prenant en compte plusieurs résultats expérimentaux relatifs à la plasticité en fonction du timing des potentiels d’action et de sa modulation. / In the brain, the high connectivity level makes it difficult to set up experiments with an appropriate level of control. To address that issue, mathematical models are used to represent the brain in a more comprehensive way. Easier than experiments to test hypotheses, mathematical models can extend them closer to reality and aim to extract the studied principle essence, by simplifying it. Computational modelling is a specific branch of mathematical modelling allowing to solve large numerical calculations. In this thesis, I used computational modelling to study brain parts through different approaches, all in collaboration with neurobiologists and applied to experimental data. A common framework is given by the goal of contributing to a picture of the action of the neuromodulator dopamine. I studied the diversity of dopamine's action at three different scales: the brain region, the cellular level and the molecular level. Dopamine has a large impact on the brain and it is mainly known for its rewarding dimension, it is, indeed, the molecule associated with reward prediction and punishment. Few regions in the brain produce dopamine and these regions are impaired in Parkinson's disease or disrupted in major depressive disorders. Concerning Parkinson's disease, I designed a firing-rate model to fit experimental basal ganglia neural activity, which disclosed significant changes of the neural response between control and Parkinsonian condition. Furthermore, with a Hodgkin-Huxley model accounting for the dynamics of the potassium ion, I could support the hypothesis that the brain region called lateral habenula hyper-activates and induces major depressive disorders because of unbalanced potassium concentration due to astrocyte dysfunction (Kir4.1 channels overexpression). Dopamine is also involved in synaptic plasticity, a phenomenon at the basis of memory that I explored with a third model accounting for several experimental results pertaining to spike-timing-dependent plasticity and its modulation.
6

Un modèle computationnel d'intelligence culturelle ouvert et extensible

Wu, Zhao Xin 02 1900 (has links) (PDF)
Avec le phénomène de la globalisation qui prend de l'ampleur, les différences culturelles, dans les communications interculturelles, amènent leur lot de problèmes inévitables. Geet Hofstede a exprimé de manière représentative ce phénomène : "Culture is more often a source of conflict than of synergy. Cultural differences are a nuisance at best and often a disaster." (Geert Hofstede, Emeritus Professor, Maastricht University.) Dans la revue de la littérature, jusqu'à ce jour, les recherches relatives à l'intelligence culturelle (IC) utilisent les méthodes traditionnelles pour mesurer l'IC et trouver des solutions aux problèmes relatifs à l'IC. Ces méthodes dépendent essentiellement de questionnaires évaluant des aspects distincts, de documents (Ng et Earley, 2006) et d'évaluations variées, guidées par les connaissances spécialisées et des qualités psychologiques d'experts de l'IC. Ces façons de faire réduisent le nombre de solutions possibles. À notre connaissance, aucune recherche au sujet de l'IC n'a été empiriquement informatisée jusqu'à maintenant. En conséquence, l'intégration de l'IC dans le domaine de l'intelligence artificielle (IA) reste absente. L'objectif principal de la recherche est donc de créer un modèle computationnel de l'IC et de l'implémenter dans un système expert. Ce système se nomme Système Expert Neuro-Flou d'Intelligence Culturelle (SENFIC). Il intègre l'expertise d'experts de l'IC en intégrant le fruit des études à propos des quatre dimensions de l'IC comme un tout intégré et s'influençant les unes des autres. Il devrait permettre éventuellement d'atteindre un meilleur niveau de performance que celui des experts de l'IC. Comme un système intelligent efficace, il fournit une recommandation globale au problème et une forme de système de règles permettant l'adaptabilité des individus et des organisations à un environnement interculturel. C'est dans ce contexte que le SENFIC a vu le jour. Nous combinons deux techniques intelligentes dans le cadre du système. La technique d'hybride neuro-floue intégrant la logique floue et le réseau de neurones artificiels, et la technique du système expert. La technique de logique floue est une bonne solution pour exprimer des problèmes originalement en langue imprécise et naturelle, comme ceux soulevés dans les recherches relatives à l'IC. La technique du réseau de neurones artificiels aide le système à atteindre un niveau d'autorégulation, d'auto-adaptation et d'autoapprentissage. Le système expert utilise des connaissances et des procédures d'inférence dans le but de résoudre des problèmes difficiles, requérant normalement une expertise humaine dans le domaine d'IC. Ainsi, le SENFIC exprime des connaissances sous une forme facilement comprise par les utilisateurs, et traite les demandes simples en langage naturel plutôt qu'en langage de programmation. En utilisant une nouvelle approche pour la technique de soft-computing en concevant la technique hybride comme le cœur du système, notre SENFIC devient alors capable de raisonner et d'apprendre dans un environnement culturel incertain et imprécis. Ce SENFIC est ouvert et extensible, autant au niveau interne qu'externe. Au niveau interne, le modèle computationnel de l'IC fournit une interface standard pouvant faciliter le développement secondaire et la mise en pratique du système. Au niveau externe, le SENFIC a la capacité de se présenter comme un agent d'extension permettant l'intégration à n'importe quel système intelligent existant, pour que ce système devienne culturellement intelligent. Le SENFIC est « conscient de l'intelligence culturelle ». Cela représente une percée amenant son lot de contributions dans les domaines de l'IC et de l'IA. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : intelligence culturelle, logique floue, réseaux de neurones artificiels, soft-computing, hybride neuro-floue, système expert
7

Intégration de la navigation et de la sélection de l'action dans une architecture de contrôle inspirée des ganglions de la base

Girard, Benoît 12 September 2003 (has links) (PDF)
La conception d'architectures de contrôle de robots adaptatifs autonomes nécessite de résoudre les problèmes de sélection de l'action et de navigation. La sélection de l'action concerne le choix, à chaque instant, du comportement le plus adapté afin d'assurer la survie. Ce choix dépend du contexte environnemental, de l'état interne du robot et de motivations pouvant être contradictoires. La navigation se rapporte à la locomotion, la cartographie, la localisation et la planification de chemin dans l'environnement. La mise en (\oe)uvre conjointe de ces deux capacités --pour, par exemple, exploiter la planification de chemin pour retrouver des ressources vitales-- n'a été que peu abordée par les nombreux systèmes ingénieurs appliqués à la robotique autonome. Les progrès récents en neurosciences permettent de proposer des modèles des structures neurales impliquées dans l'intégration d'information spatiales pour la sélection de l'action. Chez les vertébrés, ces structures correspondent aux ganglions de la base, un ensemble de noyaux subcorticaux. L'objectif de ce travail a été de s'inspirer de ces connaissances neurobiologiques pour élaborer l'architecture de sélection de l'action d'un robot autonome prenant en compte à la fois des informations sensorimotrices, motivationnelles et spatiales. Dans un premier temps, nous avons adapté un modèle biomimétique de sélection de l'action déjà existant pour tester sa capacité à résoudre une tâche de survie dans une implémentation robotique. Nous avons montré, par des comparaisons avec un système de sélection de type «winner-takes-all», que ses propriétés dynamiques lui permettent de limiter les oscillations comportementales, de maintenir ses variables internes à un niveau plus élevé et de limiter sa consommation d'énergie. Dans un deuxième temps, nous nous sommes inspirés des rôles distincts des circuits dorsaux --sélection de l'action-- et ventraux --intégration de la navigation-- des ganglions de la base pour élaborer une architecture interfaçant ce modèle de sélection de l'action avec deux stratégies de navigation : approche d'objets et planification topologique. Nous l'avons testée sur un robot simulé réalisant une tâche de survie similaire à la précédente. Le robot s'est avéré capable d'utiliser la planification pour rejoindre des ressources distantes, d'utiliser de façon complémentaire l'approche d'objets pour exploiter les ressources inconnues, d'adapter son comportement à la disparition de ressources, à son état interne et aux configurations environnementales, et enfin de survivre dans un environnement complexe réunissant l'ensemble des situations préalablement testées. Nous concluons que les circuits des ganglions de la base modélisés ont permis d'obtenir un système robuste d'interface de la sélection de l'action et de la navigation pour une architecture de contrôle de robot autonome. Cependant, des connaissances supplémentaires en neurobiologie seraient nécessaires pour affiner la plausibilité du modèle proposé. De plus, l'intégration de capacités d'apprentissage par renforcement --qui mettent également en jeu les ganglions de la base-- s'avère indispensable pour améliorer l'adaptativité de notre modèle.
8

Modélisation théorique du développement tumoral sous fenêtre dorsale : Vers un outil clinique d'individualisation et d'optimisation de la thérapie

Lesart, Anne-Cécile 13 November 2013 (has links) (PDF)
Le travail réalisé durant cette thèse a eu pour objectif de développer un modèle théorique spécifiquement dédié au contexte du développement tumoral tel qu'il peut être observé sous une fenêtre dorsale implantée sur une souris. Le modèle développé est un modèle hybride multi-physique et multi-échelle qui couple deux modules principaux. Le premier module modélise la croissance tumorale par un automate cellulaire qui permet de différencier l'état de chaque cellule en fonction de son histoire (cycle cellulaire), et de son environnement (espace disponible pour proliférer, présence d'oxygène). Le second module modélise le réseau vasculaire et le flux sanguin et rend compte de l'angiogenèse (apparition de nouveaux vaisseaux) et de l'adaptation du diamètre des vaisseaux, en fonction de l'évolution des contraintes hémodynamiques, nettement visible sous la fenêtre dorsale. L'ensemble des processus diffusifs (diffusion de l'oxygène et des facteurs de croissance vasculaire) sont décrits par des équations aux dérivées partielles, couplées à des automates cellulaires qui permettent de localiser à chaque instant pour chaque équation les termes sources (production) et les termes puits (consommation) pour chaque entité diffusive. Les simulations numériques réalisées montrent dans quelle mesure il est possible de rendre compte des observations expérimentales sur le plan qualitatif, qui nécessite la neutralisation des biais numériques ; et sur le plan quantitatif, pour reproduire la cinétique de croissance tumorale et l'évolution de la densité vasculaire. Le modèle numérique de l'évolution tumorale sous fenêtre dorsale est ensuite utilisé pour tester les effets de deux types de molécules : cytotoxiques et anti-vasculaires. Les simulations numériques de ces deux types de traitement explorent différents protocoles, définis par le mode d'action de la molécule, la dose administrée et la fréquence d'administration. Les résultats montrent comment il est alors possible de définir un protocole optimum pour une tumeur donnée en direction d'une individualisation de la thérapie. Ce modèle intégré a permis de poser de façon satisfaisante les bases d'un clone numérique du modèle expérimental d'évolution tumorale sous fenêtre dorsale même si certains aspects nécessitent encore quelques améliorations. La validation des aspects thérapeutiques restera encore à accomplir avant de pouvoir envisager à terme le remplacement (au moins partiel) de l'animal par l'ordinateur.
9

Saillance Visuelle, de la 2D à la 3D Stéréoscopique : Examen des Méthodes Psychophysique et Modélisation Computationnelle

Wang, Junle 16 November 2012 (has links) (PDF)
L'attention visuelle est l'un des mécanismes les plus importants mis en oeuvre par le système visuel humain (SVH) afin de réduire la quantité d'information que le cerveau a besoin de traiter pour appréhender le contenu d'une scène. Un nombre croissant de travaux est consacré à l'étude de l'attention visuelle, et en particulier à sa modélisation computationnelle. Dans cette thèse, nous présentons des études portant sur plusieurs aspects de cette recherche. Nos travaux peuvent être classés globalement en deux parties. La première concerne les questions liées à la vérité de terrain utilisée, la seconde est relative à la modélisation de l'attention visuelle dans des conditions de visualisation 3D. Dans la première partie, nous analysons la fiabilité de cartes de densité de fixation issues de différentes bases de données occulométriques. Ensuite, nous identifions quantitativement les similitudes et les différences entre carte de densité de fixation et carte d'importance visuelle, ces deux types de carte étant les vérités de terrain communément utilisées par les applications relatives à l'attention. Puis, pour faire face au manque de vérité de terrain exploitable pour la modélisation de l'attention visuelle 3D, nous procédons à une expérimentation oculométrique binoculaire qui aboutit à la création d'une nouvelle base de données avec des images stéréoscopiques 3D. Dans la seconde partie, nous commençons par examiner l'impact de la profondeur sur l'attention visuelle dans des conditions de visualisation 3D. Nous quantifions d'abord le " biais de profondeur " lié à la visualisation de contenus synthétiques 3D sur écran plat stéréoscopique. Ensuite, nous étendons notre étude avec l'usage d'images 3D au contenu naturel. Nous proposons un modèle de l'attention visuelle 3D basé saillance de profondeur, modèle qui repose sur le contraste de profondeur de la scène. Deux façons différentes d'exploiter l'information de profondeur par notre modèle sont comparées. Ensuite, nous étudions le biais central et les différences qui existent selon que les conditions de visualisation soient 2D ou 3D. Nous intégrons aussi le biais central à notre modèle de l'attention visuelle 3D. Enfin, considérant que l'attention visuelle combinée à une technique de floutage peut améliorer la qualité d'expérience de la TV-3D, nous étudions l'influence de flou sur la perception de la profondeur, et la relation du flou avec la disparité binoculaire.
10

Modélisation théorique du développement tumoral sous fenêtre dorsale : Vers un outil clinique d'individualisation et d'optimisation de la thérapie / Theoretical modelisation of tumour development on dorsal skinfold chamber : towards a clinical tool to individualize and optimize therapies.

Lesart, Anne-Cécile 13 November 2013 (has links)
Le travail réalisé durant cette thèse a eu pour objectif de développer un modèle théorique spécifiquement dédié au contexte du développement tumoral tel qu'il peut être observé sous une fenêtre dorsale implantée sur une souris. Le modèle développé est un modèle hybride multi-physique et multi-échelle qui couple deux modules principaux. Le premier module modélise la croissance tumorale par un automate cellulaire qui permet de différencier l'état de chaque cellule en fonction de son histoire (cycle cellulaire), et de son environnement (espace disponible pour proliférer, présence d'oxygène). Le second module modélise le réseau vasculaire et le flux sanguin et rend compte de l'angiogenèse (apparition de nouveaux vaisseaux) et de l'adaptation du diamètre des vaisseaux, en fonction de l'évolution des contraintes hémodynamiques, nettement visible sous la fenêtre dorsale. L'ensemble des processus diffusifs (diffusion de l'oxygène et des facteurs de croissance vasculaire) sont décrits par des équations aux dérivées partielles, couplées à des automates cellulaires qui permettent de localiser à chaque instant pour chaque équation les termes sources (production) et les termes puits (consommation) pour chaque entité diffusive. Les simulations numériques réalisées montrent dans quelle mesure il est possible de rendre compte des observations expérimentales sur le plan qualitatif, qui nécessite la neutralisation des biais numériques ; et sur le plan quantitatif, pour reproduire la cinétique de croissance tumorale et l'évolution de la densité vasculaire. Le modèle numérique de l'évolution tumorale sous fenêtre dorsale est ensuite utilisé pour tester les effets de deux types de molécules : cytotoxiques et anti-vasculaires. Les simulations numériques de ces deux types de traitement explorent différents protocoles, définis par le mode d'action de la molécule, la dose administrée et la fréquence d'administration. Les résultats montrent comment il est alors possible de définir un protocole optimum pour une tumeur donnée en direction d'une individualisation de la thérapie. Ce modèle intégré a permis de poser de façon satisfaisante les bases d'un clone numérique du modèle expérimental d'évolution tumorale sous fenêtre dorsale même si certains aspects nécessitent encore quelques améliorations. La validation des aspects thérapeutiques restera encore à accomplir avant de pouvoir envisager à terme le remplacement (au moins partiel) de l'animal par l'ordinateur. / The work realised during this thesis had for objective to develop a theoretical model dedicated to the context of tumour development as observed on a dorsal skinfold chamber on a mouse. The model developed is hybrid, multi-physic and multi-scale, and associate two main modules. The first module model tumour growth with a cellular automaton which permit to differentiate the state of each cell regarding its history (cell cycle), its environment (available space to proliferate, oxygen availability). The second module model vascular network and blood flow, and accounts for angiogenesis (apparition of new vessels) and diameter adaptation of vessels, regarding hemodynamical constraints evolution which is distinctly visible on dorsal chamber. The diffusive processes (oxygen diffusion and vascular growth factors) are described by partiel differential equations, coupled with cellular automata which permit to localize at each time for each equation the source terms (production) and the well terms (consumption) for each diffusive entity. The numerical simulations realised show in which regard it is possible to accounts for the experimental observations on the qualitative basis, which require numerical bias neutralisation; and on the quantitative basis, to reproduce tumour growth kinetic and evolution of vascular density. The numerical model of tumour evolution on dorsal chamber is then used to test the effects of two types of molecules: cytotoxic and anti-vascular. Numerical simulation of these two types of treatment explore different protocols, defined by the action mode of the molecule, the dose administrated, and the administration frequency. Results show how it is possible to define an optimum protocol for a given tumour in direction of therapy individualisation. This integrated model has permitted to put in place in a satisfactory way the bases of a numerical clone of the experimental model of tumour growth on dorsal chamber, even if several aspects still necessitate some improvements. The validation of these theoretical aspects has yet to be accomplished before considering in term the replacement (at least partiallly) of animals by computers.

Page generated in 0.0891 seconds