51 |
Couplage Methodes Multipoles - Discretisation Microlocale pour les Equations Integrales de l'ElectromagnetismeDarrigrand, Eric 26 September 2002 (has links) (PDF)
La résolution des équations intégrales liées aux problèmes de propagation des ondes est confrontée aux limitations des moyens informatiques pour la considération des problèmes à hautes fréquences. Nous proposons dans ce mémoire de thèse, un couplage de deux types de méthodes ayant pour but de réduire les couts de calcul et la place mémoire consommée lors de la résolution de ces équations intégrales par méthode itérative. La méthode de discrétisation microlocale introduite par T. Abboud, J.-C. Nédélec et B. Zhou, permet de réduire considérablement la taille du système par approximation de la phase de l'inconnue. Cependant, elle nécessite un précalcul très couteux. Nous utilisons alors le principe des méthodes multipoles rapides introduites par V. Rokhlin, pour accélérer ce précalcul. Cette application originale des méthodes multipoles dans le cadre d'une discrétisation microlocale aboutit à une méthode dont l'application à la formulation intégrale de B. Després pour l'équation de Helmholtz est très efficace. Son application à la résolution des équations de Maxwell bien que moins spectaculaire est tout de meme intéressante.
|
52 |
Prévision de la rupture des ouvrages en béton sollicités en dynamique rapideGatuingt, Fabrice 09 December 1999 (has links) (PDF)
Ce travail concerne la prise en compte des aspects du comportement du béton sous des chargements dynamiques tels que les impacts ou les explosions. Pour ce type de sollicitations, il est important d'être capable de représenter à la fois les phénomènes de compaction du matériau, ainsi que la rupture par phénomène d'extension. L'objet de ce travail est dans un premier temps de tester une loi de comportement, développée dans un cadre statique, pour des chargements où la vitesse de déformation devient importante. Pour cela des expérimentations originales sur la compaction dynamique des bétons ont été développées. Ces expérimentations s'appuient sur la technologie des barres de Hopkinson et ont été réalisés sur des échantillons de béton confiné. Ces essais ont permis de mettre en évidence un important effet de la vitesse de déformation sur le comportement sphérique d'un béton. Suite à ces observations expérimentales, un nouveau modèle viscoplastique visco-endommageable est proposé. Ce modèle s'appuie sur une viscoplasticité de type Perzyna, associée à une surface seuil de Gurson pour les déformations plastiques et à un visco-endommagement de type Dubé associé à une nouvelle surface seuil. Ce modèle devient donc capable de représenter les effets de la vitesse de chargement observés expérimentalement. Les deux modèles de comportement présentés dans ce travail ont été implantés dans le code de calcul aux éléments finis LS-DYNA3D. Des simulations numériques d'essais réalisé sur des structures ont permis de valider l'implantation numérique, ainsi que le modèle "visqueux'' pour les chargements de dynamique rapide.
|
53 |
Méthodologie de conception d'outillages modulaires hybrides basée sur l'évaluation quantitative de la complexité de fabricationKerbrat, Olivier 22 October 2009 (has links) (PDF)
Dans le contexte actuel de concurrence industrielle internationale, la diversité des produits proposés et leur complexité croissante imposent aux industriels de proposer des produits manufacturés innovants, de qualité, à moindre coût et dans des délais de plus en plus contraignants. Le marché de la fabrication d'outillages de mise en forme (moules d'injection, matrices d'emboutissage, etc) a fortement évolué. Les outillages doivent désormais être conçus et mis au point plus rapidement, être adaptables aux différentes variantes de produits et fabriqués à coût maîtrisé.<br /><br /> Ainsi, les outillages peuvent avantageusement être conçus avec une double approche : modulaire et hybride. Les outillages sont vus non plus comme une seule pièce, mais comme un puzzle en trois dimensions, avec différents modules fabriqués séparément puis assemblés. L'approche modulaire permet de prendre en compte les différentes variantes d'une même famille de pièces à produire en facilitant un changement rapide des parties de l'outillage. L'approche hybride permet de choisir le procédé de fabrication le plus adapté pour chacun des modules de l'outillage. Nous nous sommes intéressés aux procédés d‟usinage par enlèvement de matière ainsi qu'aux procédés de fabrication rapide par ajout de matière. Ces technologies additives arrivent à maturité et, bien qu'un haut niveau de qualité soit encore délicat à obtenir, les possibilités de réalisation de formes difficiles, voire impossibles, à usiner par enlèvement de matière rendent ces procédés très attractifs. <br /><br /> Ce travail de thèse consiste donc en l'élaboration d'une méthodologie de conception d'outillages modulaires hybrides. Cette méthode permet, dans un premier temps, d'analyser la complexité de fabrication des outillages lors de leur conception. Dans un deuxième temps, afin de réduire la complexité de fabrication (et par conséquent, diminuer les temps et coûts de réalisation à qualité égale), une nouvelle conception de l'outillage est proposée, en appliquant les points de vue modulaire et hybride. La complexité de fabrication de ce nouvel outillage est ensuite analysée, puis comparée à la première afin de quantifier les gains induits par notre approche modulaire hybride. <br /><br /> Une maquette informatique a donc été développée et implémentée dans un logiciel de CAO pour mettre en évidence les possibilités d'utilisation de la méthodologie lors de la phase de conception d'outillages. Elle est testée sur différentes pièces-test et outillages industriels, en particulier dans le cadre du projet EMOA (Excellence dans la Maîtrise de l'Ouvrant Automobile haut de gamme) piloté par PSA Peugeot-Citroën.
|
54 |
Croissance rapide en solution de cristaux pour l'optique non linéaire quadratiqueLeroudier, Julien 13 July 2011 (has links) (PDF)
La croissance cristalline de KH2PO4(KDP)and K(H1-xDx)2PO4(DKDP)a été fortement étudiée depuis de nombreuses années. Les propriétés optiques nonlinéaires (conversion de fréquence: doublage pour le KDP et triplage pour le DKDP)et les études fondamentales sur les mécanismes de croissance sont à la base du développement important de la croissance de ces cristaux. Au début des années 90, un fort intérêt s'est porté sur le KDP et DKDP pour les dispositifs optiques à large ouverture pour les applications industrielles de fusion inertielle comme au NAtional Ignition Facility (NIF) aux USA ou pour le laser MégaJoule en France. La dimension de ces optiques (40*40 cm²) nécessite des cristaux géants crûs en solution. Une technique de croissance rapide a été développé par abaissement de température dans un réacteur de 1000L et par une filtration en continu afin d'éviter la nucléation spontanée. Cette méthode est très robuste et fiable pour la croissance rapide de cristaux géants de KDP mais néanmoins montre des limitations inhérentes à cette méthode. En effet, cela mène à des cristaux inhomogènes (défauts, inhomogénéités isotopiques)ce qui est rédhibitoire pour des solutions solides intermédiaires comme le DKDP : la composition en début de croissance peut varier significativement de celle en fin de croissance. Très récemment, des méthodes par circulation de solution en conditions stationnaires ont été développées pour palier à ce problèmeet sont considérées comme les plus pertinentes. C'est pourquoi nous avons développé un système par circulation en conditions stationnaires avec un traitement original de la solution. Dans un premier temps, le système a été testé sur un composé modèle KDP puis dans un deuxième sur le composé utilisé pour l'application DKDP.
|
55 |
Méthode multipôle rapide et sensibilité topologique pour l'identification approchée de défauts à partir de données de type acoustiqueNemitz, N. 28 June 2006 (has links) (PDF)
Contexte.<!--SEC END --><br /> Le but de ce travail est de proposer une contribution au traitement numérique de la detection d'obstacles rigides dans des domaines acoustiques tridimensionnels bornés dont la taille est grande relativement à la longueur d'onde. Ce contexte peut être considéré comme un problème modèle, représentatif de situations physiquement plus complexes associées au contrôle non destructif, et relevant pour ses aspects théoriques de la diffraction inverse. Le contexte de la diffraction inverse présente de nombreuses difficultés sur le plan des méthodes numériques, et une grande partie des références traitant de ce type d'inversion se placent dans l'hypothèse d'un milieu infini. Celle-ci est plus pertinente pour des applications en électromagnétisme, telles que la furtivité radar, que pour l'identification de défauts dans des structures.<BR><br /><br />Nous nous plaçons donc dans le cadre classique de l'acoustique linéaire avec un domaine éclairé par des sources monochromatiques. Par ailleurs, on part du principe, également classique, de poser le problème d'inversion (identification de la position et la taille des obstacles) en termes de l'optimisation d'une fonction coût. La procédure alors employée est itérative, elle consiste à résoudre le problème direct pour des obstacles hypothétiques d'essais. Vu le coût de résolution d'un problème direct, cette approche préfère en général les algorithmes utilisant le gradient que les approches type évolutionnaire.<BR><br /><br /><strong>1 -- Résolution du problème acoustique direct par la méthode multipôle rapide.</strong> Le premier aspect sur lequel ce travail s'est penché porte sur l'accélération du problème direct (calcul du champ acoustique pour une configuration donnée d'obstacle), indispensable pour évaluer la fonction-coût du problème inverse. Plusieurs méthodes numériques existent pour cela, chacune ayant des avantages et des inconvénients ; on citera les éléments finis, les différences finies et les éléments de frontière. La méthode des éléments de frontière, qui nécessite uniquement le maillage de la frontière du domaine, est bien adaptée à la résoution du problème inverse, le remaillage nécessité par un changement de configuration d'obstacle étant très simple. L'équation intégrale conduit à un système linéaire dont la matrice est pleine et complexe, ce qui limite sévèrement (besoin mémoire <I>O</I>(<I>N</I><SUP>2</SUP>) et temps de calcul <I>O</I>(<I>N</I><SUP>3</SUP>)) la taille numérique (nombre <I>N</I> d'inconnues nodales sur les éléments de frontière) des problèmes si un solveur direct est employé. Pour traiter les calculs de grande taille occasionnés par le contexte 3D, on est ainsi amené à faire appel à un solveur itératif, qui ne demande pas le stockage de la matrice. La rapidité de résolution dépend alors essentiellement de celle du calcul d'un produit matrice-vecteur. Cette opération est a priori de complexité <I>O</I>(<I>N</I><SUP>2</SUP>), rédhibitoire pour les cas de grande taille (domaine grand devant la longueur d'onde). La Fast Multipole Method (FMM), initialement proposée par Greengard et Rohklin vers 1985 et depuis étendue aux formulations intégrales de nombreux problèmes de la physique, permet d'accélérer cette phase cruciale du calcul et réduire la complexité d'un produit matrice-vecteur à <I>O(</I><I>N</I>log<I>N</I>) en dynamique.<BR><br /><br />La mise en oeuvre de la FMM pour l'acoustique linéaire en 3D est ainsi l'une des composantes importantes de ce travail. Elle s'appuie sur des études récentes (en particulier thèse Sylvand, ENPC, 2002; articles E. Darve, 2000s) effectuées dans le cadre de la résolution numérique des équations de Maxwell. Le code issu de ce travail de thèse vérifie en particulier la complexité <I>O</I>(<I>N</I>log<I>N</I>) théorique, et a été validé sur des solutions exactes de l'acoustique 3D.<BR><br /><br /><strong>2 -- Méthode d'identification approchée d'obstacles par sensibilité topologique.</strong> Le second point étudié porte sur l'initialisation des algorithmes d'inversion utilisant la minimisation de la fonction coût. Les algorithmes globaux (par exemple de type évolutionnaire) ne sont pas réalistes en raison du très grand nombre de simulations directes nécessaires. Les algorithmes plus classiques utilisant le gradient dépendent des choix initiaux (position, taille, forme, nombre) sur les obstacles à identifier et peuvent ne pas converger pour des choix inadéquats. Des travaux récents (Bonnet et Guzina, 2005, entre autres) ont montré que le calcul du champ de sensibilité topologique associé à la fonction coût du problème inverse (une notion initialement proposée vers 1995 pour l'optimisation topologique des structures) permet d'obtenir de bonnes informations qualitatives sur la localisation d'obstacles à identifier. Le champ de sensibilité topologique, donnant le comportement asymptotique de la fonction-coût sous l'effet de l'apparition d'un obstacle de taille infinitésimale en un point spécifié du milieu, s'exprime comme une combinaison du champ direct et du champ adjoint associé à la fonction-coût, tous deux définis en l'absence d'obstacle. Le calcul de ce champ de sensibilité repose ainsi sur l'évaluation des formules de représentation intégrale donnant les champs direct et adjoint aux points d'une grille d'échantillonnage de la région 3D dans laquelle on cherche à identifier un défaut. Ce calcul, également coûteux a priori (<I>O</I>(<I>NM</I>) pour <I>O</I>(<I>N</I>) DDLs sur la frontière et<br /><I>O</I>(<I>M</I>) points d'échantillonnage), est lui aussi considérablement accéléré par l'emploi de la FMM. La FMM constitue donc au total une approche numérique bien adaptée à cette méthode d'exploration globale approchée reposant sur la sensibilité topologique. Le calcul FMM du champ de sensibilité topologique a été mis en oeuvre, et son intérêt testé sur des exemples synthétiques d'inversion. En particulier, pour une fonction-coût de type moindres carrés, la sensibilité topologique dépend linéairement des erreurs de mesure, et son calcul est donc moins sensible à ces erreurs que d'autres méthodes d'inversion.<BR><br /><br />Ce travail débouche donc sur une méthode approchée et rapide, utilisant les deux aspects présentés, qui donne des indications sur le nombre d'obstacles et leurs positions dans le domaine.
|
56 |
Caractérisation et quantification de surfaces par stéréocorrélation pour des essais mécaniques du quasi statique à la dynamique ultra-rapideBesnard, Gilles 24 March 2010 (has links) (PDF)
Depuis un certain nombre d'années, les méthodes optiques s'imposent dans le domaine de la mesure. Plus particulièrement, la technique de stéréo-corrélation d'images est souvent utilisée en raison de sa facilité de mise en oeuvre, de son caractère non intrusif et de sa bonne résolution spatiale couplée à un suivi temporel. Dans cette thèse, nous mettons en application la technique de stéréo-corrélation pour différentes vitesses de sollicitation allant du quasi statique à la dynamique ultra-rapide, cette dernière étant appliquée dans le cadre d'expérience de détonique. Cette large gamme d'expérimentations nous impose de développer des outils spécifiques afin d'obtenir des résultats quantifiés. Ainsi, nous avons mis au point des méthodes de correction des distorsions optiques et de l'étalonnage. Nous avons également développé une nouvelle technique d'association capable de traiter des images de faible dimension. Afin d'améliorer l'association, des méthodes de correction des grands déplacements, basées sur l'image elle-même ou un calcul hydrodynamique prédictif, ont été élaborées. Afin de valider l'ensemble de notre approche, nous la mettons en application lors de divers essais : compression quasi statique sur un matériau composite, traction lente sur une plaque en tantale, traction rapide sur des échantillons en aluminium. Enfin, nous nous intéressons à nos applications principales de dynamique ultra-rapide : l'expansion et le relèvement de cylindre. Pour ce dernier point, un soin particulier est apporté à l'élaboration d'un cas de synthèse représentatif de nos expériences. Ceci, dans le but de caractériser les performances de notre approche dans des conditions expérimentales sévères. Dans tous les cas, nous donnons les incertitudes de reconstruction afin de quantifier au mieux la rugosité de la surface et, par conséquent, le phénomène de striction.
|
57 |
La Solidification Rapide : Relation élaboration, microstructure et propriétés d'un alliageOchin, Patrick 04 June 2010 (has links) (PDF)
« La solidification rapide : relation Elaboration – Microstructure et Propriétés d'un alliage » RESUME Si les propriétés intrinsèques des matériaux dépendent de la force des liaisons chimiques, qui ne peuvent être modifiées, il est bien connu que leurs propriétés extrinsèques dépendent de la microstructure. Les métallurgistes disposent de moyens techniques pour contrôler relativement bien cette microstructure et aussi faire en sorte que les propriétés associées correspondent aux besoins du cahier des charges de l'application. Classiquement, partant du lingot élaboré par fusion, des traitements thermomécaniques plus ou moins complexes engendrent la microstructure. Mais il est bien clair que les possibilités d'évolution de la microstructure dépendent dramatiquement de l'état initial de l'alliage. C'est ici qu'interviennent les techniques basées sur la solidification rapide. Elles vont engendrer des microstructures initiales pouvant être très différentes de celles qui sont conventionnelles, et qui pourront, par traitements thermomécaniques, aboutir à des microstructures finales également très différentes. Les méthodes de solidification rapide d'alliages métalliques ou céramiques ont pour but principal d'étendre ou de modifier les limites des domaines d'équilibre thermodynamique, ou d'obtenir de nouvelles structures atomiques, ce qui n'est généralement pas accessible par des méthodes dites conventionnelles de solidification. Les produits élaborés se caractérisent par exemple par réduction de taille de grains, par la précipitation d'une phase secondaire plus fine et homogène Ces procédés permettent dans le même temps d'obtenir les matériaux directement à partir de l'état fondu, sous la forme de produits minces finis ou dans un état intermédiaire, tels que des rubans (10 à 80 μm) par « planar flow casting PFC » (flot planaire), des tôles fines (de 200 μm à 3 mm d'épaisseur (en production industrielle) par « twin roll casting TRC» (coulée entre rouleaux) ou encore mais plus rarement des fils (100 à 200 μm de diamètre) par « In rotating water melt spinning INROWASP». J'ai dans ce manuscript décrit les méthodes et techniques d'élaboration que j'utilise en développant quelques aspects thermodynamiques et cinétiques tout en révélant l'essentiel des informations techniques. Un ensemble d'exemples tirés de mes travaux en collaboration et dans le cadre de projets de recherche internes au laboratoire, nationaux et internationaux illustrent ces techniques, notamment les verres métalliques massifs, les quasicristaux, les alliages à magnétorésistance géante, et particulièrement les alliages à mémoire de forme. Les relations entre d'une part la méthode de préparation, qui inclut la technique de fusion, de solidification, les traitements associés thermo-mécaniques, et d'autre part les caractéristiques structurales, microstructurales ainsi que les propriétés mécaniques et fonctionnelles ont été mises en évidence. Le choix de méthodes de production par solidification rapide, comme je l'ai écrit, peut dans certaines conditions autoriser l'obtention d'une phase qu'on ne peut pas obtenir par refroidissement classique (< 103 KS-1) ou, par l'abaissement de la taille de grains, optimiser certaines caractéristiques mécaniques. Néanmoins comme le montrent certains résultats mitigés sur les alliages à mémoire de forme, ces méthodes ne sont en aucun cas une panacée aux problèmes rencontrés comme le manque de ductilité à température ambiante. Le problème de la mise en forme à froid qu'on rencontre dans nombres d'alliages intermétalliques ou les verres métalliques ne sont pas ou seulement partiellement résolus par ces procédés. Mais la production en une seule ou un nombre limité d'étapes d'objets finis ou semi-finis reste un élément économique appréciable de ces méthodes. Les phases quasicristallines stables thermodynamiquement ainsi que les verres métalliques massifs ne nécessitent pas des vitesses de refroidissement supérieures à 103 KS-1 et peuvent être obtenus par des méthodes de préparation ce qui nécessite certaines précautions (c.a.d. par exemple sans contamination chimique) mais à vitesse de refroidissement classique. Néanmoins dans ce cas il a été démontré que seule une méthode de solidification rapide (telle que le melt spinning ou l'atomisation gazeuse) permet d'une part d'obtenir la précision compositionnelle requise et d'autre part d'atteindre, après traitement thermique, une qualité structurale de la phase optimale (cas des quasicristaux). En ce qui concerne les verres métalliques ces techniques nous permettent d'étudier plus facilement la capacité à l'amorphisation, la formulation et la déformation à froid de ces alliages : par exemple les essais de nanoindentations sur les rubans ou les tôles hypertrempées qui nous autorisent à remonter aux mécanismes de déformation des alliages massifs. L'obtention d'une précipitation de dispersoïdes nanométriques dans la matrice amorphe (VMM) ou la matrice paramagnétique des alliages magnétorésistifs à l'étude, n'est possible qu'en utilisant ces techniques.
|
58 |
Eléments finis hybride déplacement perforés pour le calcul des structures aéronautiques rivetéesLeconte, Nicolas 25 November 2008 (has links) (PDF)
Dans le cadre de l'étude par éléments finis de structures aéronautiques soumises à l'impact, la prédiction des modes de ruine engendrés au sein ou au voisinage des assemblages rivetés, telle que la déchirure d'une tôle le long d'une ligne de rivets, s'avère, encore aujourd'hui, délicate. En particulier, une difficulté majeure est liée à l'incompatibilité de l'échelle de l'aéronef et de celle de l'assemblage riveté. En effet, alors que la modélisation EF fine de l'assemblage riveté est requise pour localiser l'initiation et la propagation de la rupture, le nombre d'éléments nécessaire pour mailler la structure devient irréaliste. Il est donc proposé de formuler un super-élément fini perforé, permettant de localiser les champs mécaniques dans une structure soumise à un chargement de dynamique rapide. Le premier chapitre, de nature bibliographique, introduit les méthodes numériques permettant la représentation des discontinuités, et les notions relatives à la formulation de super-éléments finis. Il permet l'introduction et le choix pour la poursuite des développements de l'élément fini de plaque perforé à 8 noeuds de Piltner. Le deuxième chapitre met en évidence les hypothèses liées à la formulation des fonctions d'interpolation de cet élément, ainsi que leur lien avec les équations de la mécanique des solides. De plus, l'étude numérique de ces fonctions (tronquées à l'ordre 4) fournit des résultats jugés suffisamment satisfaisants pour la poursuite des travaux. Le chapitre III met alors en évidence les hypothèses liées à la formulation du principe variationnel de cet élément. Il est conclu qu'il est restreint aux calculs élastostatiques, et qu'il ne permet pas la modélisation d'un assemblage riveté. Les résultats numériques fournis par la formulation de Piltner à 8 noeuds (élastostatique), issus d'une implantation dans ZéBuLoN, étant jugés suffisamment satisfaisants pour la poursuite des travaux, les hypothèses limitant l'élément de Piltner à l'élastostatique sont levées, puis la nouvelle formulation est adaptée aux calculs de dynamique rapide (chapitre IV).
|
59 |
Contraintes résiduelles induites par impact rapide. Application au choc-laser.Ballard, Patrick 22 April 1991 (has links) (PDF)
Depuis 1970, les développements de la compréhension théorique des phénomènes de fatigue et leur modélisation (citons les travaux de MM. Bang Van et Papadopoulos) ont abouti à la prévision de la tenue en fatigue d'une structure soumise à une sollicitation cyclique quelconque. D'autres travaux (théoriques ou expérimentaux) ont été entrepris en parallèle de manière à caractériser l'effet d'un traitement de surface sur un matériau donné soumis à une sollicitation connue. On tend ainsi à donner à l'ingénieur tous les outils théoriques lui permettant de dimensionner une pièce mécanique, du choix du matériau et du traitement à la définition de la géométrie. De plus, la complexité des traitements de surface conçus à l'heure actuelle nécessite leur modélisation fine pour parvenir à leur optimisation. Ce contexte nous a conduit à nous poser le problème de la modélisation d'un traîtement de surface récemmentapparu: le choc-laser. Il s'agit d'un traitement de surface purement mécanique réalisé à l'aide d'impulsions laser de très forte intensité. En effet, l'irradiation d'une cible par une telle impulsion laser provoque l'application d'une forte pression pendant un temps très court à .la surface de la cible. Ce phénomène est donc tout à fait similaire à un impact. Cet impact laser va induire alors des contraintes résiduelles de compression à la surface de la cible qui seront ensuite très favorables à la tenue en fatigue. On conçoit alors que l'analyse du choc-laser passe par la modélisation et le calcul des contraintes résiduelles induites par impact. C'est l'objet de la première partie de ce travail. L'application des résultats au choc-laser permettra ensuite le calcul des contraintes résiduelles induites en fonction des caractéristiques du matériau constituant la cible et du réglage du laser. Tl devient alors très facile d'optimiser matériau et réglage en vue d'une application donnée.
|
60 |
Jeter un regard sur une phase précoce des traitements visuelsCrouzet, Sébastien 12 July 2010 (has links) (PDF)
L'objectif de cette thèse a été d'étudier la dynamique des traitements cognitifs permettant la reconnaissance rapide d'objets dans les scènes naturelles. Afin d'obtenir des réponses comportementales précoces, nous avons utilisé un protocole de choix saccadique, dans lequel les sujets devaient diriger leur regard le plus rapidement possible vers l'image contenant l'objet cible parmi deux images affichées à l'écran. Ce protocole a d'abord permis de mettre en évidence des différences de temps de traitement entre les catégories d'objets, avec un avantage particulier pour la détection des visages humains. En effet, lorsque ceux-ci sont utilisés comme cible, les premières saccades sélectives apparaissent dès 100 ms ! Nous nous sommes donc intéressés aux mécanismes permettant une détection aussi rapide et avons montré qu'un attribut bas-niveau pourrait être utilisé pour détecter et localiser les visages dans notre champ visuel en une fraction de seconde. Afin de mieux comprendre la nature des représentations précoces mises en jeu, nous avons mené deux nouvelles études qui nous ont permis de montrer que les saccades les plus rapides ne seraient pas influencées par les informations contextuelles, et seraient basées sur une information rudimentaire. Enfin, j'ai proposé un modèle simple de décision, basé sur des différences de temps de traitement neuronal entre catégories, qui permet de reproduire fidèlement nos résultats expérimentaux. L'ensemble de ces résultats, mis en perspective avec les connaissances actuelles sur les bases neuronales de la reconnaissance d'objet, démontre que le protocole de choix saccadique, en donnant accès à une fenêtre tempo- relle inaccessible jusqu'alors par les études comportementales, s'avère un outil de choix pour les recherches à venir sur la reconnaissance rapide d'objets.
|
Page generated in 0.0439 seconds