• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 10
  • 1
  • Tagged with
  • 27
  • 27
  • 8
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Analyse temporelle de circuits combinatoires /

Melcher, Elmar. January 1993 (has links)
Th.--Electronique et communications--Paris--ENST, 1993. / Bibliogr. p. 171-178.
2

Novel preparation techniques and reactivity of cobalt metal nanoparticles for synthesis of clean fuels using Fischer-Tropsch reaction / Nouvelles techniques de préparation et réactivité des nano-particules métalliques de cobalt pour la synthèse des carburants propres par la réaction Fischer-Tropsch

Hong, Jingping 30 May 2009 (has links)
La synthèse Fischer-Tropsch permet de produire des carburants propres à partir du gaz naturel, de la biomasse ou du charbon. Les carburants issus d’une synthèse Fischer-Tropsch sont totalement exempts de soufre et de composés aromatiques. Cette thèse présente de nouvelles approches de conception des catalyseurs Fischer-Tropsch à base de cobalt supportés par des silices mésoporeuses. Ces approches sont fondées sur la promotion de catalyseurs par le ruthénium et la zircone, sur l’utilisation de la technique plasma pour la décomposition du précurseur de cobalt, ainsi que sur l’étude cinétique des étapes élémentaires de la réaction Fischer-Tropsch dans des conditions transitoires dont la méthode TAP. La structure des catalyseurs a été caractérisée à chaque étape de leur synthèse et de leur activation par des techniques physico-chimiques dont certaines techniques in-situ. Il a été démontré que la promotion des catalyseurs avec le ruthénium et l’oxyde de zirconium dépendait fortement de la texture du support. La promotion améliore la performance catalytique de façon plus importante pour les catalyseurs supportés par les silices qui possèdent des pores plus étroits. L’utilisation de la technique plasma pour la décomposition du cobalt permet de contrôler efficacement la taille des nanoparticules de cobalt et donc d’améliorer de façon significative les performances catalytiques. Les études transitoires et la modélisation des étapes élémentaires ont fourni des informations fondamentales sur la nature des sites actifs des catalyseurs à base de cobalt pour la réaction Fischer-Tropsch. / Fischer-Tropsch synthesis produces clean hydrocarbon fuels from natural gas, biomass or coal. These synthetic fuels are totally free of sulfur and aromatics. This thesis addresses novel approaches to the design of cobalt Fischer-Tropsch catalysts supported by mesoporous silicas. These approaches involve catalyst promotion with ruthenium and zirconium oxide, use of plasma technology for the decomposition of cobalt precursors and kinetic studies of the elementary steps of the Fischer-Tropsch by transient kinetic methods including TAP. The structure of catalysts was characterized at each stage of their synthesis and their activation by physico-chemical techniques including in-situ methods. It was shown that the promotion of catalysts with ruthenium and zirconium oxide strongly depended on the texture of the support. The promotion improved the catalytic performance more importantly for the catalysts supported by narrow pore silicas. Use of plasma technology for the decomposition of cobalt precursors allowed efficient control of the size of cobalt nanoparticles and thus resulted in the enhanced catalytic performance. Transient kinetic studies and modeling of the elementary reaction steps have provided fundamental information on the nature of active sites in the supported cobalt catalysts for Fischer-Tropsch reaction.
3

Examen de la contribution des habiletés de traitement temporel à la performance en lecture durant l'enfance /

Malenfant, Nathalie. January 2009 (has links) (PDF)
Thèse (Ph.D.)--Université Laval, 2009. / Bibliogr.: f. 111-120. Publié aussi en version électronique dans la Collection Mémoires et thèses électroniques.
4

Test de robustesse des systèmes temps-réel thèse pour le doctorat en sciences spécialité Informatique /

Rollet, Antoine Fouchal, Hacène. January 2005 (has links) (PDF)
Reproduction de : Thèse de doctorat : Informatique : Reims : 2004. / Titre provenant de l'écran titre. Bibliogr. p. 127-144.
5

Ordonnancement hybride des applications flots de données sur des systèmes embarqués multi-coeurs / Hybrid scheduling of streaming applications to account for interprocessor communication in embedded manycores

Dkhil, Amira 14 April 2015 (has links)
Les systèmes embarqués sont de plus en plus présents dans l'industrie comme dans la vie quotidienne. Une grande partie de ces systèmes comprend des applications effectuant du traitement intensif des données: elles utilisent de nombreux filtres numériques, où les opérations sur les données sont répétitives et ont un contrôle limité. Les graphes "flots de données", grâce à leur déterminisme fonctionnel inhérent, sont très répandus pour modéliser les systèmes embarqués connus sous le nom de "data-driven". L'ordonnancement statique et périodique des graphes flot de données a été largement étudié, surtout pour deux modèles particuliers: SDF et CSDF. Dans cette thèse, on s'intéresse plus particulièrement à l'ordonnancement périodique des graphes CSDF. Le problème consiste à identifier des séquences périodiques infinies d'actionnement des acteurs qui aboutissent à des exécutions complètes à buffers bornés. L'objectif est de pouvoir aborder ce problème sous des angles différents : maximisation de débit, minimisation de la latence et minimisation de la capacité des buffers. La plupart des travaux existants proposent des solutions pour l'optimisation du débit et négligent le problème d'optimisation de la latence et propose même dans certains cas des ordonnancements qui ont un impact négatif sur elle afin de conserver les propriétés de périodicité. On propose dans cette thèse un ordonnancement hybride, nommé Self-Timed Périodique (STP), qui peut conserver les propriétés d'un ordonnancement périodique et à la fois améliorer considérablement sa performance en terme de latence. / One of the most important aspects of parallel computing is its close relation to the underlying hardware and programming models. In this PhD thesis, we take dataflow as the basic model of computation, as it fits the streaming application domain. Cyclo-Static Dataflow (CSDF) is particularly interesting because this variant is one of the most expressive dataflow models while still being analyzable at design time. Describing the system at higher levels of abstraction is not sufficient, e.g. dataflow have no direct means to optimize communication channels generally based on shared buffers. Therefore, we need to link the dataflow MoCs used for performance analysis of the programs, the real time task models used for timing analysis and the low-level model used to derive communication times. This thesis proposes a design flow that meets these challenges, while enabling features such as temporal isolation and taking into account other challenges such as predictability and ease of validation. To this end, we propose a new scheduling policy noted Self-Timed Periodic (STP), which is an execution model combining Self-Timed Scheduling (STS) with periodic scheduling. In STP scheduling, actors are no longer strictly periodic but self-timed assigned to periodic levels: the period of each actor under periodic scheduling is replaced by its worst-case execution time. Then, STP retains some of the performance and flexibility of self-timed schedule, in which execution times of actors need only be estimates, and at the same time makes use of the fact that with a periodic schedule we can derive a tight estimation of the required performance metrics.
6

Mouvement et vidéo : estimation, compression et filtrage morphologique

Laveau, Nicolas 12 December 2005 (has links) (PDF)
Le travail de thèse développé dans ce mémoire porte sur le traitement des séquences vidéos. Ceci inclut la compression pour une grande partie de la thèse, mais également le filtrage spatio-temporel et la segmentation vidéo. Un des outils d'analyse récurrent dans chacune de ces applications est la mesure du mouvement, c'est-à-dire la description de la cohérence temporelle d'une séquence vidéo. Un système de compression vidéo comprend généralement les trois composantes suivantes : estimation du mouvement, transformations temporelle et spatiale, quantification et codage des coefficients. Nous nous intéressons successivement à chacune de ces composantes. Dans un premier temps, nous essayons d'adapter une méthode d'estimation par projection du flot optique sur une base d'ondelettes à valeur complexe à la compression vidéo. Le champ obtenu étant dense et sensible au bruit, nous introduisons dans la résolution un élément de régularisation afin de diminuer son coût de codage. En dépit d'une nette amélioration apportée par nos modifications, la technique d'estimation par projection sur une base d'ondelettes n'est pas compétitive face au block-matching qui constitue l'algorithme de référence pour la compression vidéo. Cela illustre bien le fait que le choix et la conception d'une méthode sont étroitement liés à l'usage qui en est fait : des mé- thodes d'estimation de mouvement optimisées pour des applications aussi diverses que la compression vidéo, le filtrage et la segmentation, ou encore l'analyse de scènes 3D ont peu de chances d'être les mêmes. Dans ces expériences, nous avons utilisé une méthode visant à satisfaire un critère qui est équivalent à un critère d'appariement optimal pour la compression sous des conditions théoriques qui ne sont en général pas vérifiées. Une telle approche est donc visiblement sous-optimale. Forts de cette observation, nous avons ensuite développé une méthode de mesure de mouvement qui repose sur une paramétrisation du champ bilinéaire par morceaux, et qui minimise cette fois directement l'erreur quadratique moyenne qui est notre critère d'évaluation. Nous montrons qu'il est possible d'obtenir de bons résultats quand les paramètres du champ sont épars. Un codage vidéo avec une prédiction temporelle suppose de coder des données aussi hétérogènes que des champs de mouvement ou des images d'erreur. Nous avons travaillé sur l'allocation de débit entre images d'erreur et de manière moins approfondie entre image d'erreur et champ de mouvement. Nous avons adapté un modèle de planification de débit introduit par Mallat et Falzon qui a été initialement conçu pour des images statiques et qui est actuellement utilisé pour la compression au ot d'images satellitales. Cette approche se révèle meilleure que des approches plus classiquement utilisées en compression vidéo. Pour pouvoir effectuer un codage par transformée du champ et des images d'erreur, nous avons cherché à concevoir de nouvelles transformations en sous-bandes non-linéaires. Pour cela, nous avons utilisé le schéma de lifting, qui garantit l'inversibilité formelle des transformations qu'il peut réaliser, que celles-ci soient linéaires ou non. Nous avons construit deux nouvelles décompositions non-linéaires. La première vise à réduire un artéfact communément appelé e et de Gibbs. Cette première décomposition consiste à utiliser un prédicteur de Deslauriers-Dubuc modifié de manière à réduire ces artéfacts. La modification introduite permet effectivement de réduire les oscillations autour de discontinuités en échange d'un surcoût modeste en terme d'efficacité de représentation dans les sections régulières du signal représenté. La formulation évite le mécanisme de transition d'un filtre à l'autre relativement habituel dans ce genre d'approche en recourant à des opérateurs continus de type min et max, qui permettent de garantir la continuité de la transformation et donc sa stabilité après quantification. L'autre se propose d'améliorer la décomposition en ondelettes du champ de mouvement en utilisant l'information qu'apporte chacune de ses composantes sur l'autre. En effet, l'intuition nous incite à penser que les discontinuités sont présentes au même endroit dans chacune des composantes du mouvement. Nous nous servons de cette co-occurrence des discontinuités pour choisir le filltre de prédiction. Dans les deux cas, les méthodes mises au point donnent des résultats positifs sur des signaux de synthèse mais perdent en efficacité sur des signaux réels. Une des grandes difficultés est de mettre au point un étage de mise-à-jour dans le schéma de lifting. Par ailleurs, le schéma linéaire le plus efficace est un schéma à 4 étages pour lequel il est difficile de concevoir un concurrent non-linéaire dans la mesure où ses propriétés sont difficilement lisibles sur les étages individuels du schéma de lifting. Nfin transposé des idées rencontrées en compression vidéo pour dé nir des opérations de filtrage morphologique vidéo intégrant la mesure du mouvement, utilisant des éléments structurants qui suivent le mouvement. L'application de ces idées donne des résultants probants en filltrage et en segmentation, en particulier grâce à une forte cohérence spatio-temporelle introduite dans les voisinages : cette approche donne des résultats de segmentation plus stables puisqu'elle impose une cohérence temporelle beaucoup plus forte aux frontières des régions que les méthodes itératives en temps. Nous discutons ensuite des possibilités d'utilisation de champs de mouvement à précision sous-pixellique.
7

Analyse des différences dans le Big Data : Exploration, Explication, Évolution / Difference Analysis in Big Data : Exploration, Explanation, Evolution

Kleisarchaki, Sofia 28 November 2016 (has links)
La Variabilité dans le Big Data se réfère aux données dont la signification change de manière continue. Par exemple, les données des plateformes sociales et les données des applications de surveillance, présentent une grande variabilité. Cette variabilité est dûe aux différences dans la distribution de données sous-jacente comme l’opinion de populations d’utilisateurs ou les mesures des réseaux d’ordinateurs, etc. L’Analyse de Différences a comme objectif l’étude de la variabilité des Données Massives. Afin de réaliser cet objectif, les data scientists ont besoin (a) de mesures de comparaison de données pour différentes dimensions telles que l’âge pour les utilisateurs et le sujet pour le traffic réseau, et (b) d’algorithmes efficaces pour la détection de différences à grande échelle. Dans cette thèse, nous identifions et étudions trois nouvelles tâches analytiques : L’Exploration des Différences, l’Explication des Différences et l’Evolution des Différences.L’Exploration des Différences s’attaque à l’extraction de l’opinion de différents segments d’utilisateurs (ex., sur un site de films). Nous proposons des mesures adaptées à la com- paraison de distributions de notes attribuées par les utilisateurs, et des algorithmes efficaces qui permettent, à partir d’une opinion donnée, de trouver les segments qui sont d’accord ou pas avec cette opinion. L’Explication des Différences s’intéresse à fournir une explication succinte de la différence entre deux ensembles de données (ex., les habitudes d’achat de deux ensembles de clients). Nous proposons des fonctions de scoring permettant d’ordonner les explications, et des algorithmes qui guarantissent de fournir des explications à la fois concises et informatives. Enfin, l’Evolution des Différences suit l’évolution d’un ensemble de données dans le temps et résume cette évolution à différentes granularités de temps. Nous proposons une approche basée sur le requêtage qui utilise des mesures de similarité pour comparer des clusters consécutifs dans le temps. Nos index et algorithmes pour l’Evolution des Différences sont capables de traiter des données qui arrivent à différentes vitesses et des types de changements différents (ex., soudains, incrémentaux). L’utilité et le passage à l’échelle de tous nos algorithmes reposent sur l’exploitation de la hiérarchie dans les données (ex., temporelle, démographique).Afin de valider l’utilité de nos tâches analytiques et le passage à l’échelle de nos algo- rithmes, nous réalisons un grand nombre d’expériences aussi bien sur des données synthé- tiques que réelles.Nous montrons que l’Exploration des Différences guide les data scientists ainsi que les novices à découvrir l’opinion de plusieurs segments d’internautes à grande échelle. L’Explication des Différences révèle la nécessité de résumer les différences entre deux ensembles de donnes, de manière parcimonieuse et montre que la parcimonie peut être atteinte en exploitant les relations hiérarchiques dans les données. Enfin, notre étude sur l’Evolution des Différences fournit des preuves solides qu’une approche basée sur les requêtes est très adaptée à capturer des taux d’arrivée des données variés à plusieurs granularités de temps. De même, nous montrons que les approches de clustering sont adaptées à différents types de changement. / Variability in Big Data refers to data whose meaning changes continuously. For instance, data derived from social platforms and from monitoring applications, exhibits great variability. This variability is essentially the result of changes in the underlying data distributions of attributes of interest, such as user opinions/ratings, computer network measurements, etc. {em Difference Analysis} aims to study variability in Big Data. To achieve that goal, data scientists need: (a) measures to compare data in various dimensions such as age for users or topic for network traffic, and (b) efficient algorithms to detect changes in massive data. In this thesis, we identify and study three novel analytical tasks to capture data variability: {em Difference Exploration, Difference Explanation} and {em Difference Evolution}.Difference Exploration is concerned with extracting the opinion of different user segments (e.g., on a movie rating website). We propose appropriate measures for comparing user opinions in the form of rating distributions, and efficient algorithms that, given an opinion of interest in the form of a rating histogram, discover agreeing and disargreeing populations. Difference Explanation tackles the question of providing a succinct explanation of differences between two datasets of interest (e.g., buying habits of two sets of customers). We propose scoring functions designed to rank explanations, and algorithms that guarantee explanation conciseness and informativeness. Finally, Difference Evolution tracks change in an input dataset over time and summarizes change at multiple time granularities. We propose a query-based approach that uses similarity measures to compare consecutive clusters over time. Our indexes and algorithms for Difference Evolution are designed to capture different data arrival rates (e.g., low, high) and different types of change (e.g., sudden, incremental). The utility and scalability of all our algorithms relies on hierarchies inherent in data (e.g., time, demographic).We run extensive experiments on real and synthetic datasets to validate the usefulness of the three analytical tasks and the scalability of our algorithms. We show that Difference Exploration guides end-users and data scientists in uncovering the opinion of different user segments in a scalable way. Difference Explanation reveals the need to parsimoniously summarize differences between two datasets and shows that parsimony can be achieved by exploiting hierarchy in data. Finally, our study on Difference Evolution provides strong evidence that a query-based approach is well-suited to tracking change in datasets with varying arrival rates and at multiple time granularities. Similarly, we show that different clustering approaches can be used to capture different types of change.
8

Recherche de signatures spectrales d’objets astronomiques variant ultra rapidement dans les relevés spectroscopiques

Trottier, Eric January 2013 (has links)
Le domaine temporel est celui le moins exploré en astronomie [4]. À ce jour, les objets astronomiques connus variant avec les périodes les plus courtes sont les pulsars qui varient avec des périodes de quelques millisecondes. C'est pourquoi, une technique basée sur la théorie de Fourier est proposée pour détecter des objets qui varient avec des périodes extrêmement courtes (10* s et moins). Remarquez qu'il existe des indications que ces objets pourraient exister [10]. La distribution spectrale d'une source lumineuse variant avec une période très brève est donnée par la transformée de Fourier de la variation temporelle. Il en résulte que la distribution spectrale est modulée par une variation périodique fréquentielle. Durant la dernière décennie, des relevés {surveys) spectroscopiques ont été faits par le SDSS. La banque de données spectrales du SDSS-IIDR7 contient environ 2.5 millions de spectres, dont 700 000 étoiles, 1.4 million de galaxies et 200 000 quasars (et près de 100 000 spectres du ciel), lesquels sont accessibles au public. Pour analyser ces spectres, des techniques utilisant les transformées de Fourier et un logiciel de détection {Matlab) ont été développés. Comme le logiciel peut faire des fausses identifications, l'inspection visuelle des spectres extraits est requise. Les résultats obtenus (voir chapitre 4) montrent que pour certaines étoiles ordinaires, des modulations spectrales statistiquement significatives ont été découvertes. Pour les étoiles et les galaxies, les distributions statistiques obtenues sont compatibles avec celle de Rayleigh, mais pour les 23 quasars sortis les statistiques de petits nombres semblent biaiser cette compatibilité. Finalement, bien que la justification originale pour cette recherche consiste à découvrir des pulsateurs ultra-rapides, il n'en demeure pas moins qu'on peut également découvri
9

Encodage et reproduction d'intervalles de temps : interférence de traitement non temporel

Chérif, Lobna 11 June 2021 (has links)
Dans la présente étude, l’effet de traitement non temporel sur la tâche de reproduction d’intervalles de temps est testé dans quatre expériences. Trois tâches non temporelles nécessitant l’encodage ou la récupération d’information en mémoire ainsi qu’une tâche d’interruption d’estimation temporelle sont combinées à une tâche de reproduction temporelle nécessitant l’encodage et la reproduction de durées (environ 2 secondes). Les résultats obtenus révèlent que les tâches non temporelles affectent davantage la phase de reproduction que la phase d’encodage de durées suggérant ainsi que l’interférence du traitement non temporel avec la reproduction temporelle simultanée diffère selon que le traitement prenne place durant la phase d’encodage ou la phase de reproduction. Une hypothèse explicative est proposée selon laquelle l’interférence du traitement non temporel avec l’estimation temporelle concurrente varie selon les processus impliqués et les ressources requises dans les deux phases de la tâche temporelle. L’ensemble des résultats est interprété dans le cadre des modèles d’accumulation de l’information temporelle.
10

Discrimination levels and perceived duration of intra- and intermodal short time intervals

Azari Pishkenari, Leila 14 February 2020 (has links)
Cette étude porte sur l’effet de l’intermodalité sur la discrimination de courts intervalles temporels. Chaque intervalle à discriminer est délimité par deux brefs stimuli sensoriels qui sont issus d’une même modalité sensorielle (intervalle intramodal) ou de modalités sensorielles différentes (intervalle intermodal). Une série de six expériences, chacune comprenant huit sessions expérimentales, a été réalisée. Une tâche de bissection temporelle a été utilisée dans chacune des expériences de l'étude, sur la base de laquelle on pouvait estimer, pour chaque participant dans chaque condition expérimentale, la sensibilité ou niveau de discrimination (la fraction de Weber) et la durée perçue (l'erreur constante). Selon la loi de Weber, la différence minimale nécessaire pour distinguer deux stimuli (sensibilité ou seuil différentiel obtenu sur la base de fonctions psychométriques découlant de la tâche de bissection) dépend de leur magnitude. Le ratio du seuil différentiel à la magnitude devrait être constant. Aussi, plus élevée est la fraction de Weber, moins bon est le niveau de discrimination. Les magnitudes (durées standards) à l’étude étaient de 300 et 900 ms. La durée perçue est évaluée à l’aide de l'erreur constante qui, elle, est mesurée en soustrayant le point d'égalité subjective (PSE, sur chaque fonction psychométrique) de la valeur d’un des intervalles standards (300 ms ou 900 ms). Une valeur inférieure de l’erreur constante signifie que la durée est perçue plus souvent comme "courte". Il y avait deux séries de trois expériences. Dans la première série, pour une expérience donnée, la modalité sensorielle du premier marqueur délimitant l’intervalle était la même (condition fixe) et la modalité du second marqueur était variable. Dans la deuxième série, c'était le deuxième marqueur qui, dans une expérience donnée, restait de la même modalité sensorielle et le premier marqueur était variable. Les marqueurs peuvent être auditifs, visuels ou tactiles. Dans les huit sessions de chaque expérience, il y avait quatre sessions pour chacune des deux conditions de durée standard. Dans chaque expérience, il y avait des conditions de « certitude » et « d’incertitude » relativement à l’origine modale des marqueurs à chaque essai. Les modalités sensorielles utilisées dans chaque étude étaient auditive (A), visuelle (V) et tactile (T). Les résultats montrent que les intervalles intramodaux sont généralement mieux discriminés que les intervalles intermodaux. Aussi, les intervalles de 900 ms sont mieux discriminés (fraction de Weber plus basse) que ceux de 300 ms dans toutes les conditions de marquage intermodal, mais pas dans les conditions de marquage intramodal où les fractions de Weber demeurent généralement constantes. Le fait que les fractions de Weber soient plus élevées à 300 qu’à 900 ms est compatible avec la forme généralisée de la loi de Weber qui prend en considération le fait que la variance d’origine non temporelle dans le processus de discrimination a plus de poids avec les intervalles courts qu’avec les intervalles longs. Que les participants connaissent la modalité des marqueurs (certitude) ou non, a peu ou pas d’effet sur le niveau de discrimination. Pour la durée perçue, les résultats révèlent essentiellement ce qui suit. Hormis quelques exceptions, les intervalles intramodaux sont jugés plus courts que les intervalles intermodaux. Dans la comparaison des conditions intermodales, lorsque l’incertitude est placée sur le premier marqueur, il n’y a pas de différences significatives entre les conditions TA et VA intervalles ou entre les conditions AV et TV, mais les intervalles AT sont perçus comme étant plus longs que les intervalles VT. L’ensemble de ces résultats ne permet pas d’expliquer les différentes durées perçues avec les différents intervalles intermodaux sur la base de la vitesse nécessaire pour détecter le signal délimitant un intervalle donné. Pour rendre compte partiellement des différents résultats, on peut s’appuyer sur le modèle de la barrière attentionnelle (Attentional Gate Model - AGM). L’AGM est un modèle d’horloge interne de type pacemaker-accumulateur, le premier module émettant des impulsions dont le cumul détermine la durée perçue (Zakay & Block, 1997). L'AGM contient une barrière et un interrupteur, tous deux sous le contrôle de l’attention. L’efficacité plus grande (plus grande sensibilité) en conditions intramodales qu’en conditions intermodales proviendrait de l’efficacité du processus de l’interrupteur puisque dans les conditions intramodales, il n’y a pas de déplacement attentionnel d’une modalité à l’autre. Le fait que les intervalles intramodaux, en condition d’incertitude, soient souvent perçus comme étant plus courts que les intervalles intermodaux s’expliquerait par le fait que sans déplacement attentionnel, le deuxième marqueur d’un intervalle intramodal serait détecté plus rapidement que le deuxième marqueur d’un intervalle intermodal. Cependant, cette explication rencontre une certaine limite si on considère que dans la plupart des cas, que l’incertitude soit placée sur le premier ou le deuxième marqueur, le niveau de discrimination est peu affecté par celle-ci. / This study examines the effect of intermodality on the discrimination of short time intervals. Every interval in the study is marked by two short sensory stimuli, each of which comes from either the same sensory modality (intramodal interval) or different sensory modalities (intermodal interval). A series of six experiments, each comprising eight experimental sessions, was carried out. A time bisection task was used in each of the experiments, based on which one could estimate for each participant in each experimental condition, the sensitivity or level of discrimination (the Weber fraction), and the perceived duration (the constant error). According to Weber’s law, the minimum difference necessary to distinguish two stimuli (sensitivity or differential threshold obtained based on psychometric functions arising from the bisection task) depends on their magnitude. The ratio of the threshold difference to magnitude, based on Weber’s law, should remain constant. Also, a higher Weber fraction means a worse level of discrimination. The magnitudes (standard durations) under study were 300 and 900 ms. The perceived duration is evaluated using the constant error, which is measured by subtracting the Point of Subjective Equality (PSE, on each psychometric function) from the value of one of the standard intervals (300 ms or 900 ms). A lower value of the constant error means that the duration is more often perceived as “short”. There were two sets of three experiments in the study. In the first series, for a given experiment, the sensory modality of the first marker delimiting the interval was the same (fixed condition), and the modality of the second marker was variable. In the second series, it was the second marker which, in a given experiment, remained of the same sensory modality whereas the first marker was variable. Markers could be auditory, visual, or tactile. In the eight sessions of each experiment, there were four sessions for each of the two standard duration conditions. In each experiment, there were also “certainty” and “uncertainty” conditions relative to the modal origin of the markers on each trial. The sensory modalities used in each study were again auditory (A), visual (V), and tactile (T). The results show that intramodal intervals are generally better discriminated (have a lower Weber fraction) than intermodal intervals. Also, the 900 ms intervals are better discriminated than those of 300 ms in all the intermodal marking conditions. In the intramodal marking conditions, however, the Weber fractions generally remained constant. The fact that the Weber fractions are higher at 300 than 900 ms is compatible with the generalized form of Weber’s law, which takes into account the fact that the variance of non-temporal origin in the discrimination process has more weight with short intervals than with long intervals. Whether or not participants know the marker's modality (certainty) has little or no effect on the level of discrimination. For the perceived duration, the results essentially revealed the following. Except for a few exceptions, intramodal intervals were considered to be shorter than intermodal intervals. In the comparison of the intermodal conditions, when the uncertainty was placed on the first marker, there were no significant differences between the conditions TA and VA intervals or between the conditions AV and TV, but the intervals AT were perceived as being longer than the VT intervals. To account for the different results in perceived durations, we can rely on the Attentional Gate Model (AGM). The AGM is an internal clock model of the pacemaker-accumulator type, the first module emitting pulses whose accumulation determines the perceived duration (Zakay & Block, 1997). The AGM contains a barrier and a switch, both under attention control. Therefore, according to this model, the greater efficiency (higher sensitivity) in intramodal conditions than in intermodal conditions could come from the efficiency of the switch process. Because in intramodal conditions, there is no attentional displacement from one modality to the other. The fact that intramodal intervals, under conditions of uncertainty, are often perceived as shorter than intermodal intervals could be explained by the fact that without attentional displacement, the second marker of an intramodal interval is detected more quickly than the second intermodal interval marker. However, this explanation encounters certain limits if we consider that, in most cases, whether uncertainty is placed on the first or second marker, the level of discrimination is little affected by it.

Page generated in 0.0795 seconds