• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 478
  • 148
  • 59
  • 5
  • 1
  • Tagged with
  • 685
  • 299
  • 238
  • 176
  • 153
  • 98
  • 77
  • 74
  • 73
  • 71
  • 58
  • 50
  • 50
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Étude de l'influence de l'inertie thermique sur les performances énergétiques des bâtiments

Munaretto, Fabio 07 February 2014 (has links) (PDF)
Étant de plus en plus isolés, les bâtiments très performants sont très sensibles aux apports solaires transmis par les vitrages ainsi qu'aux apports internes. Dans ce contexte, l'inertie thermique peut être utile en stockant l'énergie excédentaire et en réduisant les variations de température, améliorant ainsi le confort thermique.Évaluer la performance énergétique, environnementale et le confort thermique des bâtiments nécessite des outils de simulation thermique dynamique (STD) fiables. Historiquement, les modélisateurs ont essayé de trouver un compromis approprié entre précision et efficacité. Des hypothèses simplificatrices ont alors été intégrées dans les outils STD et ont un lien étroit avec l'inertie thermique. La validité de telles hypothèses, notamment la globalisation des échanges convectifs et radiatifs GLO intérieurs, ou la distribution forfaitaire des apports solaires transmis par les vitrages nécessitent particulièrement d'être remises en questions dans le contexte des bâtiments très isolés.Ainsi, un modèle découplant les échanges convectifs et radiatifs GLO ainsi qu'un modèle de suivi de la tache solaire (modèles détaillés) ont été implémentés dans une plateforme de simulation mettant en œuvre l'analyse modale et une discrétisation par volumes finis.Une première comparaison entre les modèles détaillés et simplifiés a été réalisée sur des cas d'études du "BESTEST", intégrant aussi des résultats d'outils STD de référence au niveau international (EnergyPlus, ESP-r, TRNSYS). Un travail similaire a été réalisé sur le cas d'une maison passive instrumentée (plateforme INCAS à Chambéry) en utilisant des techniques d'analyses d'incertitudes et de sensibilité.Les résultats montrent qu'une tendance à la baisse concernant les besoins de chauffage et de refroidissement existe en ce qui concerne les modèles détaillés considérés ici. D'autre part, il semble que ces modèles détaillés ne contribuent pas à diminuer significativement les écarts entre les simulations et les mesures.
382

Identification et mécanisme d'action de modulateurs sélectifs du transporteur ABCG2 responsable de la chimiorésistance de cellules cancéreuses

Gauthier, Charlotte 27 March 2014 (has links) (PDF)
ABCB1 (ou P-gp pour "glycoprotéine-P"), ABCC1 (ou MRP1 pour "Multidrug Resistance Protein 1") et ABCG2 (ou BCRP pour "Breast Cancer Resistance Protein") sont les trois transporteurs ABC humains les plus impliqués dans la chimiorésistance de certaines cellules cancéreuses. Deux stratégies sont possibles pour éradiquer cette résistance : 1) l'élimination ciblée des cellules surexprimant ces transporteurs, grâce au talon d'Achille qu'elles ont développé comme conséquence de leur chimiorésistance : la sensibilité collatérale (ou hypersensibilité), et 2) l'identification et l'optimisation d'inhibiteurs spécifiques. Lors de ce projet, nous nous sommes particulièrement intéressés au transporteur ABCG2. Dans un premier temps, comme la sensibilité collatérale avait été décrite dans le cas de la surexpression d'ABCB1 ou d'ABCC1, nous voulions vérifier son implication éventuelle dans le cas de la surexpression d'ABCG2. Sans pouvoir finalement conclure sur son existence, nous avons démontré que le mécanisme d'action ne pouvait pas impliquer un efflux massif de glutathion par la protéine, comme c'est le cas pour ABCC1, contrairement à certaines données de la littérature. Dans le cadre de la seconde approche, nous avons criblé différentes séries de composés, apparentés aux flavonoïdes, pour identifier des inhibiteurs spécifiques d'ABCG2. Nous avons ainsi pu mettre en évidence des relations structure-activité démontrant l'importance de certains substituants, notamment des groupements méthoxy, non seulement pour l'inhibition de l'activité du transporteur mais aussi pour la cytotoxicité des molécules. Ces études nous ont également permis de classer les inhibiteurs identifiés en 4 familles distinctes, quant à leur mécanisme d'action à la fois sur l'efflux de drogues comme la mitoxantrone et l'activité ATPasique d'ABCG2. Enfin, le meilleur inhibiteur spécifique d'ABCG2 décrit à ce jour, la chromone 6g (ou MBL-II-141) a été caractérisé plus en détails. Son efficacité in vivo pour empêcher la croissance de tumeurs humaines xénogreffées chez la souris nous incite à être optimistes sur la possibilité de proposer un inhibiteur d'ABCG2 comme candidat médicament pour de futures études précliniques
383

Modèle de structuration et d'évaluation des scénarios des technologies de l'hydrogène du point de vue de l'acceptabilité sociale

Kpoumié, Amidou 09 July 2013 (has links) (PDF)
Cette thèse porte sur l'aide à la décision dans un contexte décisionnel très complexe. Classiquement, pour résoudre de telles situations, on utilise des méthodes de structuration de problèmes. Cependant ces méthodes bien qu'appliquées dans le cadre multi acteur ou dans les décisions de groupe, n'aboutissent pas toujours à des résultats directement exploitables dans un modèle d'évaluation. Ou, lorsque c'est le cas, les données obtenues par structuration sont utilisées comme si elles provenaient d'un seul décideur, tendant à réduire par conséquent l'efficacité de la décision prise et son adhésion publique. Dans cette thèse nous nous sommes attelés à concevoir un modèle d'intégration d'outils conciliant le choix approprié d'outils de structuration pour les décisions de groupe et son exploitation efficace dans un modèle d'évaluation multicritère. En particulier nous nous sommes focalisés sur les modalités du passage des cartes cognitives aux arbres de valeurs. Ensuite nous avons appliqué notre démarche sur le cas pratique du projet ''AIde à la Décision pour l'identification et l'accompagnement aux transformations sociétales induites par les nouvelles technologies de l'Hydrogène'' (AIDHY). Enfin, la dernière partie de notre thèse est axée sur l'apport d'une modélisation multicritère pour appréhender formellement le problème d'évaluation des scénarios, formulé comme un problème de tri multicritère. Par conséquent, nous avons construit une méthode permettant d'observer et de paramétrer le comportement des invariants d'une acceptabilité sociale en général, par le biais d'une d'analyse de sensibilité à partir du cas de l'hydrogène énergie.
384

Contribution à l'évaluation de sûreté de fonctionnement des architectures de surveillance/diagnostic embarquées. Application au transport ferroviaire

Gandibleux, Jean 06 December 2013 (has links) (PDF)
Dans le transport ferroviaire, le coût et la disponibilité du matériel roulant sont des questions majeures. Pour optimiser le coût de maintenance du système de transport ferroviaire, une solution consiste à mieux détecter et diagnostiquer les défaillances. Actuellement, les architectures de surveillance/diagnostic centralisées atteignent leurs limites et imposent d'innover. Cette innovation technologique peut se matérialiser par la mise en oeuvre d'architectures embarquées de surveillance/diagnostic distribuées et communicantes afin de détecter et localiser plus rapidement les défaillances et de les valider dans le contexte opérationnel du train. Les présents travaux de doctorat, menés dans le cadre du FUI SURFER (SURveillance active Ferroviaire) coordonné par Bombardier, visent à proposer une démarche méthodologique d'évaluation de la sûreté de fonctionnement d'architectures de surveillance/diagnostic. Pour ce faire, une caractérisation et une modélisation génériques des architectures de surveillance/diagnostic basée sur le formalisme des Réseaux de Petri stochastiques ont été proposées. Ces modèles génériques intègrent les réseaux de communication (et les modes de défaillances associés) qui constituent un point dur des architectures de surveillance/diagnostic retenues. Les modèles proposés ont été implantés et validés théoriquement par simulation et une étude de sensibilité de ces architectures de surveillance/diagnostic à certains paramètres influents a été menée. Enfin, ces modèles génériques sont appliqués sur un cas réel du domaine ferroviaire, les systèmes accès voyageurs des trains, qui sont critiques en matière de disponibilité et diagnosticabilité.
385

A Sensitivity Analysis of Cross-Country Growth Regressions: Is 1990-2010 Different?

Kiwan, Rami 12 1900 (has links)
Cet article étudie la sensibilité des estimations de certaines variables explicatives de la croissance économique dans des régressions en coupe transversale sur un ensemble de pays. Il applique un modèle modifié de l’analyse de sensibilité de Leamer (1983, 1985). Mes résultats confirment la conclusion de Levine and Renelt (1992), toutefois, je montre que plus de variables sont solidement corrélées à la croissance économique. Entre 1990-2010, je trouve que huit sur vingt cinq variables ont des coefficients significatifs et sont solidement corrélées à la croissance de long terme, notamment, les parts de l’investissement et des dépenses étatiques dans le PIB, la primauté du droit et une variable dichotomique pour les pays subsahariens. Je trouve aussi une preuve empirique solide de l'hypothèse de la convergence conditionnelle, ce qui est cohérent avec le modèle de croissance néoclassique. / This paper examines the robustness of explanatory variables in cross-country growth regressions. It employs a variant of Leamer’s (1983, 1985) extreme-bounds analysis. My results confirm Levine and Renelt’s (1992) conclusion, but identify more variables to be robustly correlated with economic growth. Of 25 explanatory variables tested, I find 8 to be significantly and robustly correlated with long-term growth over the 1990-2010 period. The strongest evidence is for the investment ratio, government consumption share in GDP, the rule of law, and the Sub-Saharan dummy. I also find strong empirical evidence for conditional convergence, which is consistent with the neoclassical growth model.
386

Contribution à l'évaluation des risques liés au TMD (transport de matières dangereuses) en prenant en compte les incertitudes / Contribution to the risk assessment related to DGT (dangerous goods transportation) by taking into account uncertainties

Safadi, El Abed El 09 July 2015 (has links)
Le processus d'évaluation des risques technologiques, notamment liés au Transport de Matières Dangereuses (TMD), consiste, quand un événement accidentel se produit, à évaluer le niveau de risque potentiel des zones impactées afin de pouvoir dimensionner et prendre rapidement des mesures de prévention et de protection (confinement, évacuation...) dans le but de réduire et maitriser les effets sur les personnes et l'environnement. La première problématique de ce travail consiste donc à évaluer le niveau de risque des zones soumises au transport des matières dangereuses. Pour ce faire, un certain nombre d'informations sont utilisées, comme la quantification de l'intensité des phénomènes qui se produisent à l'aide de modèles d'effets (analytique ou code informatique). Pour ce qui concerne le problème de dispersion de produits toxiques, ces modèles contiennent principalement des variables d'entrée liées à la base de données d'exposition, de données météorologiques,… La deuxième problématique réside dans les incertitudes affectant certaines entrées de ces modèles. Pour correctement réaliser une cartographie en déterminant la zone de de danger où le niveau de risque est jugé trop élevé, il est nécessaire d'identifier et de prendre en compte les incertitudes sur les entrées afin de les propager dans le modèle d'effets et ainsi d'avoir une évaluation fiable du niveau de risque. Une première phase de ce travail a consisté à évaluer et propager l'incertitude sur la concentration qui est induite par les grandeurs d'entrée incertaines lors de son évaluation par les modèles de dispersion. Deux approches sont utilisées pour modéliser et propager les incertitudes : l'approche ensembliste pour les modèles analytiques et l'approche probabiliste (Monte-Carlo) qui est plus classique et utilisable que le modèle de dispersion soit analytique ou défini par du code informatique. L'objectif consiste à comparer les deux approches pour connaitre leurs avantages et inconvénients en termes de précision et temps de calcul afin de résoudre le problème proposé. Pour réaliser les cartographies, deux modèles de dispersion (Gaussien et SLAB) sont utilisés pour évaluer l'intensité des risques dans la zone contaminée. La réalisation des cartographies a été abordée avec une méthode probabiliste (Monte Carlo) qui consiste à inverser le modèle d'effets et avec une méthode ensembliste générique qui consiste à formuler ce problème sous la forme d'un ensemble de contraintes à satisfaire (CSP) et le résoudre ensuite par inversion ensembliste. La deuxième phase a eu pour but d'établir une méthodologie générale pour réaliser les cartographies et améliorer les performances en termes de temps du calcul et de précision. Cette méthodologie s'appuie sur 3 étapes : l'analyse préalable des modèles d'effets utilisés, la proposition d'une nouvelle approche pour la propagation des incertitudes mixant les approches probabiliste et ensembliste en tirant notamment partie des avantages des deux approches précitées, et utilisable pour n'importe quel type de modèle d'effets spatialisé et statique, puis finalement la réalisation des cartographies en inversant les modèles d'effets. L'analyse de sensibilité présente dans la première étape s'adresse classiquement à des modèles probabilistes. Nous discutons de la validité d'utiliser des indices de type Sobol dans le cas de modèles intervalles et nous proposerons un nouvel indice de sensibilité purement intervalle cette fois-ci. / When an accidental event is occurring, the process of technological risk assessment, in particular the one related to Dangerous Goods Transportation (DGT), allows assessing the level of potential risk of impacted areas in order to provide and quickly take prevention and protection actions (containment, evacuation ...). The objective is to reduce and control its effects on people and environment. The first issue of this work is to evaluate the risk level for areas subjected to dangerous goods transportation. The quantification of the intensity of the occurring events needed to do this evaluation is based on effect models (analytical or computer code). Regarding the problem of dispersion of toxic products, these models mainly contain inputs linked to different databases, like the exposure data and meteorological data. The second problematic is related to the uncertainties affecting some model inputs. To determine the geographical danger zone where the estimated risk level is not acceptable, it is necessary to identify and take in consideration the uncertainties on the inputs in aim to propagate them in the effect model and thus to have a reliable evaluation of the risk level. The first phase of this work is to evaluate and propagate the uncertainty on the gas concentration induced by uncertain model inputs during its evaluation by dispersion models. Two approaches are used to model and propagate the uncertainties. The first one is the set-membership approach based on interval calculus for analytical models. The second one is the probabilistic approach (Monte Carlo), which is more classical and used more frequently when the dispersion model is described by an analytic expression or is is defined by a computer code. The objective is to compare the two approaches to define their advantages and disadvantages in terms of precision and computation time to solve the proposed problem. To determine the danger zones, two dispersion models (Gaussian and SLAB) are used to evaluate the risk intensity in the contaminated area. The risk mapping is achieved by using two methods: a probabilistic method (Monte Carlo) which consists in solving an inverse problem on the effect model and a set-membership generic method that defines the problem as a constraint satisfaction problem (CSP) and to resolve it with an set-membership inversion method. The second phase consists in establishing a general methodology to realize the risk mapping and to improve performance in terms of computation time and precision. This methodology is based on three steps: - Firstly the analysis of the used effect model. - Secondly the proposal of a new method for the uncertainty propagationbased on a mix between the probabilistic and set-membership approaches that takes advantage of both approaches and that is suited to any type of spatial and static effect model. -Finally the realization of risk mapping by inversing the effect models. The sensitivity analysis present in the first step is typically addressed to probabilistic models. The validity of using Sobol indices for interval models is discussed and a new interval sensitivity indiceis proposed.
387

Méthode et outils pour l'identification de défauts des bâtiments connectés performants / Method and tools for fault detection in smart high-performance buildings

Josse, Rozenn 13 November 2017 (has links)
Ces travaux de thèse portent sur le développement d’une nouvelle méthodologie pour l’identification de défauts de bâtiments performants et connectés afin d'aider à la garantie de performances. Nous avons dans un premier temps resitué nos travaux dans le contexte énergétique actuel en montrant le rôle majeur des bâtiments dans la réduction des consommations énergétiques. Nous avons ensuite présenté notre méthodologie en argumentant sur les techniques à utiliser avant d’effectuer un choix final. Cette méthodologie se compose de deux blocs principaux : le premier vise à réduire les incertitudes liées à l'occupant et à l'environnement et le second étudie l'écart entre la simulation et la mesure par une analyse de sensibilité couplée à un algorithme bayésien. Nous l'avons ensuite implémentée dans un outil que nous avons nommé REFATEC. Nous avons alors soumis notre méthodologie à différents tests dans des conditions idéales afin d’éprouver sa précision et son temps d’exécution. Cette étape a montré que la méthodologie est efficace mais montre quelques faiblesses dans le cas d’une saison estivale ou d’un défaut très localisé. Enfin, nous l’avons mise en situation face à un cas réel afin de traiter les nombreuses questions que soulèvent l’utilisation de mesures in-situ dans la perspective de la garantie de performances et de la détection de défauts, avec notamment la fiabilité des mesures et les incertitudes encore nombreuses qui doivent être traitées. / This thesis deals with the development of a new methodology for fault detection within smart high-performance buildings helping the performance guarantee. We first have placed our work in the current energy context by focusing on the major role of buildings in the decrease of energy consumption. Then we introduced our methodology and we argued about various techniques that could be used before making a choice. This methodology is made up of two main parts : the former reduces the uncertainties due to the occupant and the environment and the latter studies the gap between simulation and measurements thanks to a sensitivity analysis coupled with a bayesian algorithm. Then we implemented it within a tool that we named REFATEC. We carried out various tests in controlled conditions in order to evaluate its precision and its calculation time. This step showed that our methodology is effective but it has some difficulties when the studied period is during summer or when the faults are very located. is a very located fault. Eventually we confronted our methodology to a real case where we faced numerous questions that appear when dealing with measurements, especially their reliability and the uncertainties that still need to be taken care of, in the perspective of performance guarantee and fault detection.
388

Life cycle assessment of enhanced geothermal systems : from specific case studies to generic parameterized models / Analyse du cycle de vie des systèmes géothermiques stimulés : de l’étude de cas à la caractérisation de la filière

Lacirignola, Martino 26 April 2017 (has links)
Cette recherche vise à étudier les impacts environnementaux d'une technologie émergente de production d’électricité basée sur une source renouvelable, les systèmes géothermiques stimulés (EGS), par l’analyse de leur cycle de vie (ACV).Après avoir analysé plusieurs études de cas, nous avons développé un modèle ACV paramétré capable de caractériser les performances environnementales de la filière EGS. Nos résultats montrent que les émissions de gaz à effet de serre des EGS sur leur cycle de vie sont bien inférieures à celles des centrales utilisant des combustibles fossiles.Dans un deuxième temps, nous avons mis au point un cadre méthodologique pour appliquer l'analyse de sensibilité globale (GSA) à l’ACV des technologies émergentes comme les EGS, prenant en compte les incertitudes élevées liées à leur caractère innovant. Nous avons appliqué notre nouvelle approche GSA pour développer un modèle ACV simplifié, à destination des décideurs, permettant une estimation rapide des impacts des EGS à partir de seulement cinq paramètres clefs: capacité installée, profondeur de forage, nombre de puits, débit géothermal et durée de vie.L'approche méthodologique développée dans cette thèse est applicable à d'autres technologies et ouvre de larges perspectives de recherche dans le domaine de l'évaluation environnementale. / This thesis investigates the environmental impacts of an emerging renewable energy technology, the enhanced geothermal systems (EGS), using a life cycle assessment (LCA) approach.Following the analysis of several EGS case studies, we developed a parameterized LCA model able to provide a global overview of the life cycle impacts of the EGS technology. The greenhouse gas emissions of EGS are found comparable with other renewable energy systems and far better than those of power plants based on fossil fuels.In a second stage, we developed a methodological framework for the application of global sensitivity analysis (GSA) to the LCA of emerging technologies like the EGS, taking into account the high uncertainties related to their description. We applied our new GSA approach to generate a simplified LCA model, aimed at decision makers, allowing a rapid estimation of the life cycle impacts of EGS from only five key parameters: installed capacity, drilling depth, number of wells, flow rate and lifetime.The methodological approach developed in this thesis is applicable to other technologies and opens large research perspectives in the field of environmental assessment.
389

Un modèle à composant pour la gestion de contextes pervasifs orientés service / A component model for pervasive service oriented context management

Aygalinc, Colin 18 December 2017 (has links)
L'informatique pervasive promeut une vision d'un cadre dans lequel un patchwork de ressources hétérogènes et volatiles est intégré dans les environnements du quotidien. Ces ressources, matérielles ou logicielles, coopèrent de manière transparente, souvent aux travers d'applications, pour fournir des services à haute valeur ajoutée adaptés à chaque utilisateur et son environnement, grâce à la notion de contexte. Ces applications sont déployées dans un large spectre d'environnements d'exécution, allant d'infrastructures distantes de Cloud Computing jusqu'au plus près de l'utilisateur dans des passerelles Fog Computing ou directement dans les capteurs du réseau. Dans ces travaux, nous nous intéressons spécifiquement au module de contexte d'une plateforme Fog Computing. Pour faciliter la conception et l'exécution des applications Fog Computing, une approche populaire est de les bâtir au dessus d'une plateforme adoptant l'architecture à service, ce qui permet de réduire leur complexité et simplifie la gestion du dynamisme. Dans nos travaux, nous proposons d'étendre cette approche en modélisant le contexte comme un ensemble de descriptions de services, disponible à la conception, et exposé dynamiquement par le module de contexte à l'exécution, selon les besoins des applications et l'état de l'environnement. Ce module est programmé à l'aide d'un modèle à composant spécifique. L'unité de base de notre modèle à composant est l'entité de contexte, qui est composé de modules hautement cohérents implémentant distinctement les spécifications des services proposées par l'entité de contexte. Ces modules peuvent décrire de manière simple leur logique de synchronisation avec les sources de contexte distantes grâce à un langage dédié à ce domaine. A l'exécution, les instances d'entitées de contexte sont rendues introspectables et reconfigurables dynamiquement, ce qui permet, grâce à un manager autonomique externe, de veiller à la satisfaction des besoins des applications. Nous avons développé une implémentation de référence de ce modèle à composant, nommée CReAM, qui a pu être utilisée dans la passerelle domotique iCASA, développée en partenariat avec Orange Labs. / Pervasive computing promotes environments where a patchwork of heterogeneous and volatile resources are integrated in places of daily life. These hardware and software resources cooperate in a transparent way, through applications, in order to provide high valueadded services. These services are adapted to each user and its environment, via the notion of context. Pervasive applications are now widely distributed, from distant cloud facilities down to Fog Computing gateway or even in sensors, near the user. Depending on the localization, various forms of context are needed by the applications. In this thesis, we focus on the context module at Fog Level. In order to simplify the design and execution, Fog applications are built on top of a service-oriented platform, freeing the developer of technical complexity and providing a support to handle the dynamism. We propose to extend this approach by providing the context as a set of service descriptions, available at design to the application developer. At runtime, depending on the context sources availability and on application current needs, context services are published or withdrawn inside the platform by the context module. We tailor a specific component model to program this context module. The base unit of our component model is called context entity. It is composed of highly coherent modules, implementing distinctly each service description proposed by the underlying context entity. These modules can simply describe their synchronization logic with context sources thanks to a domain specific language. At runtime, context entity instances can be introspected and reconfigured. An external autonomic manager uses these properties to match dynamically the context services exposed by the context module to the application needs. We have developed a reference implementation of our work, called CReAM, which can be used in a smart home gateway called iCASA, developed in a partnership with Orange Labs.
390

Camouflage chez les araignées crabe : approche sensorielle, comportementale et écologique / No title available

Defrize, Jérémy 29 June 2010 (has links)
Misumena vatia est supposée, depuis plus d‟un siècle, adapter sa couleur à celle de son substrat pour diminuer sa probabilité d‟être détectée par des proies et des prédateurs. Il existe cependant un décalage entre la quantité de travaux sur son écologie, sa notoriété en tant qu‟experte du camouflage, et la connaissance réelle sur son camouflage et le changement de couleur. Le but de cette thèse était d‟aborder le camouflage d‟un point de vue sensoriel, à une échelle communautaire, en combinant plusieurs approches. Il a été ainsi démontré que si M. vatia était indétectable dans l‟achromatique à longue distance, le niveau de contraste chromatique à courte distance était dépendant du substrat et de l‟identité du receveur. Des études électrophysiologiques et comportementales montrent de manière convergente que M. vatia possède la vision des couleurs. Les juvéniles utilisent cette habilité pour choisir des substrats qui les rendent peu détectable pour les proies. Enfin, les résultats de cette thèse sont replacés dans un contexte évolutif et physiologique plus général. / Misumena vatia is assumed for more than a century to adapt its colouration to the colour of its substrate in order to decrease the risk of being detected by prey and predators. However, a discrepancy exists between the large quantity of works on its ecology, its fame as an expert of camouflage and the empirical knowledge about its cryspis and colour change mechanisms. The aim of this thesis was therefore to study crypsis from a community sensory perspective, using an approach combing physiology, behaviour and colour vision models. We showed that if M. vatia was undetectable at long distance through achromatic vision, the chromatic contrast value is quite dependent of both substrates and receiver identities. Electrophysiological recordings and behavioural choices all concur to show that M. vatia is able to see colours. Spiderlings use this ability for making choices among coloured backgrounds diminishing its conspicuousness to potential prey. Finally, the results of this thesis are discussed in an evolutionary and physiological context.

Page generated in 0.0532 seconds