Spelling suggestions: "subject:"exactitud.""
11 |
Chimères, données manquantes et congruence : validation de différentes méthodes par simulations et application à la phylogénie des mammifèresCampbell, Véronique January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
12 |
La Station Laser Ultra Mobile - De l'obtention d'une exactitude centimétrique des mesures à des applications en océanographie et géodésie spatialesNICOLAS, Joëlle 07 December 2000 (has links) (PDF)
La Station Laser Ultra Mobile est la plus petite station de télémétrie laser au monde, ne pesant que 300 kg, dédiée à la poursuite de satellites équipés de rétroréflecteurs laser. Elle utilise un petit télescope de 13 cm de diamètre placé sur une monture issue d'un théodolite de précision et motorisé, un laser très compact et une photodiode à avalanche permettant la détection au niveau du simple photo-électron. Les premières expériences (Corse, fin 1996) ont révélé des instabilités dans la qualité des mesures. Ce travail concerne l'étude et la mise en place de nombreuses modifications techniques afin d'atteindre une exactitude centimétrique des mesures et de pouvoir participer à la campagne de validation des orbites et d'étalonnage de l'altimètre du satellite océanographique JASON-1 (2001). La précision instrumentale souhaitée a été vérifiée avec succès en laboratoire.<br />Outre cet aspect instrumental et métrologique, une analyse a été développée afin de pouvoir estimer l'exactitude et la stabilité des observations de la station mobile après intégration des modifications. A partir d'une expérience de co-localisation entre les deux stations laser fixe du plateau de Calern, on a fait une analyse fondée sur l'ajustement, par station, de coordonnées et d'un biais instrumental moyen à partir d'une orbite de référence des satellites LAGEOS. Des variations saisonnières très cohérentes ont été mises en évidence dans les séries temporelles des différentes composantes. La comparaison locale des déformations de la croûte terrestre se traduisant par des variations d'altitude issues des données laser montre une cohérence avec les mesures d'un gravimètre absolu transportable (FG5). Des signaux de même amplitude ont été observés par GPS. Ces variations sont également mises en évidence à l'échelle mondiale et leur interprétation géophysique est due à la combinaison des effets de marées terrestres et polaire et des effets de charge atmosphérique.
|
13 |
Amélioration de l'exactitude d'une horloge atomique compacte à jet de césium pompé optiquementChassagne, Luc 21 January 2000 (has links) (PDF)
L'objet de ce travail est d'examiner et de comparer les différentes méthodes de mesures du déphasage résiduel de la cavité de Ramsey dans une horloge à jet de césium à pompage optique. <br> Dans ce but nous avons étudié et réalisé une horloge compacte à deux jets de césium. Dans la première partie du mémoire sont présentés le résonateur atomique de faible encombrement, et la cavité de Ramsey courte qui en est le c?ur. La cavité de Ramsey est une cavité micro-onde à deux zones d'interaction, rigoureusement réglée à 9,192 GHz. L'importance de ses propriétés est précisée, notamment l'influence du déphasage résiduel entre les deux zones d'interaction. <br> Puis l'étude théorique de ce déphasage et de ses conséquences sur les signaux délivrés par l'horloge - la frange de Ramsey et la fréquence d'horloge - est effectuée. Plusieurs méthodes de mesure de ce déphasage sont alors déduites de cette analyse. <br> La présentation des mesures du déphasage effectuées une fois le résonateur assemblé fait l'objet de la seconde moitié du manuscrit. La méthode traditionnelle appliquée à tous les étalons primaires de fréquence est la méthode par renversement de jet ; elle demeure dans notre résonateur compact la plus précise et la plus fiable. La seconde méthode utilisant des mesures de la fréquence d'horloge dans différentes conditions de fonctionnement s'avère délicate à appliquer sur une horloge compacte et ses limites sont analysées. <br> Finalement, les différents déplacements de fréquence significatifs sur ce type d'horloge font l'objet d'une étude expérimentale systématique. Un bilan de fréquence complet pour ce type d'horloge en est déduit. Le déplacement de fréquence dû au déphasage de la cavité reste l'effet limitatif pour l'exactitude en fréquence. On montre cependant que la seconde méthode de mesure permet d'obtenir une exactitude en fréquence inférieure à 10-12.
|
14 |
Chimères, données manquantes et congruence : validation de différentes méthodes par simulations et application à la phylogénie des mammifèresCampbell, Véronique January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
|
15 |
Intégration de la maturité des connaissances dans la prise de décision en conception mécanique : application à un système solaire. / Integration of knowledge maturity in decision making for mechanical design : application to a solar system.El amine, Mehdi 16 December 2015 (has links)
La réussite du développement des produits industriels a un enjeu économique considérable pour l’entreprise. Les décisions sur les concepts et sur l’architecture du produit ont un impact considérable sur le coût global du cycle de vie du produit. Les industriels sont alors de plus en plus encouragés à adopter des méthodes permettant de rationaliser les décisions de conception. Ces méthodes doivent être en adéquation avec le niveau de connaissance acquis sur les alternatives de conception, la nature des décisions à prendre et les outils d’évaluation disponibles. Ainsi, deux méthodes d’aide à la décision ont été développées dans cette thèse en fonction de la phase de conception étudiée.Une première méthode est proposée pour la phase amont de conception dans laquelle l’objectif de l’entreprise est de réduire le nombre de concepts proposés initialement pour concentrer ses efforts et ses ressources sur les concepts les plus prometteurs. Durant cette phase, les produits sont définis d’une manière très imprécise. Les concepteurs doivent alors faire beaucoup d'hypothèses lorsqu’ils proposent des modèles de comportement destinés à évaluer les concepts. Ces modèles, qui expriment une connaissance de nature explicite, sont insuffisants pour faire des choix de concepts. Pour remédier à cette difficulté, nous nous orientons dans notre étude vers la connaissance implicite (ou subjective), obtenue au travers de l'expérience et du savoir-faire acquis par les concepteurs. Afin d’intégrer cette connaissance dans la prise de décision, elle est d’abord formalisée au travers d’outils comme les fonctions de préférence. La méthode globale d’aide à la décision proposé permet de combiner à la fois cette connaissance implicite et la connaissance explicite (représentée par les modèles de comportement) pour évaluer chaque concept en termes d’aptitude à respecter les exigences minimales de validation et du niveau d’adéquation avec les objectifs de conception. Les objectifs et préférences des décideurs sont, quant à eux, structurés et formalisés au travers du modèle OIA (Observation-Interprétation-Agrégation) développé auparavant dans le laboratoire I2M-IMC.Une deuxième méthode a été proposée pour la phase aval de conception qui a pour objectif de fixer les paramètres du produit final (choix des matériaux, dimensions, etc.) après que le concept ait été choisi. Durant cette phase, le produit est défini d’une manière plus précise et les modèles de comportement sont plus représentatifs des phénomènes physiques pertinents du concept étudié. Ces modèles restent cependant basés sur des hypothèses qui conduisent parfois à une remise en question de leur exactitude, surtout pour certains paramètres de conception. Fixer les paramètres du produit en se basant uniquement sur ces modèles de comportement nécessite la prise en compte de leur niveau exactitude. Nous avons donc développé un indicateur d’exactitude de ces modèles qui intègre, d’une part, une évaluation objective qui est la mesure d’écart entre le modèle et un comportement de référence (supposé exact) et, d’autre part, sur une évaluation subjectif qui se base sur la mesure de distance avec la solution de référence (solution prototypée) et sur des fonctions de confiances établies par les concepteurs. La combinaison d’une évaluation objective et subjective de l’exactitude permet d’obtenir à la fin un indicateur général d’exactitude capable de couvrir l’intégralité de l’espace de conception. L’indicateur ainsi obtenu est utilisé dans une méthode d’aide à la décision qui qualifie chaque solution candidate en terme de risque engendré par les l’exactitude des modèles et de degré de satisfaction des objectifs de conception (en se basant la modèle OIA). / The successful development of industrial products has a considerable economic challenge for the company. Decisions on concepts and product architecture have a significant impact on the overall cost of the product life cycle. Manufacturers are then increasingly encouraged to adopt methods to streamline design decisions. These methods must be consistent with the level of knowledge acquired on alternative design, the nature of decision making and assessment tools available. Thus, both methods of decision support have been developed in this thesis based on the study design phase.A first method is proposed for the upstream design stage in which the goal of the company is to reduce the number of concepts initially proposed to focus its efforts and resources on the most promising concepts. During this phase, the products are defined very loosely. Designers must then make a lot of assumptions when proposing role models to assess the concepts. These models, which express a knowledge of explicit nature, are insufficient to make choices concepts. To overcome this difficulty, we are moving in our study to the implicit knowledge (or subjective), obtained through the experience and expertise acquired by the designers. To integrate this knowledge in decision-making, it is first formalized through tools such as preferably functions. The overall approach to decision support proposed for combining both the implicit knowledge and explicit knowledge (represented by the role models) to assess each concept in terms of ability to meet the minimum requirements for validation and level fitness with the design goals. The objectives and preferences of decision makers are, in turn, structured and formalized through the OIA model (Observation-Interpretation-Aggregation) previously developed in the laboratory I2M-BMI.A second method was proposed for the downstream design phase that aims to set the parameters of the final product (choice of materials, dimensions, etc.) after the concept was chosen. During this phase, the product is defined in a more precise manner and behavior patterns are more representative of the relevant physical phenomena of the concept studied. These models are however based on assumptions which sometimes lead to a questioning their accuracy, especially for some design parameters. Fix the product parameters based solely on these patterns of behavior requires taking into account their accuracy level. We have therefore developed an accuracy indicator of these models that integrates on the one hand, an objective assessment which is the measure of difference between the model and a reference behavior (assumed correct) and, secondly, on a subjective assessment that is based on the distance measurement with the reference solution (prototyped solution) and trusts functions established by the designers. The combination of objective and subjective assessment of the accuracy provides at the end a general indicator of accuracy able to cover the entire design space. The indicator thus obtained is used in a method of decision support that qualifies each candidate solution in terms of risk posed by the accuracy of the models and level of satisfaction of design objectives (based the model OIA) .
|
16 |
Amélioration de l'exactitude de l'inférence phylogénomiqueRoure, Béatrice 04 1900 (has links)
L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif. / The explosion of sequence number allows for phylogenomics, the study of species relationships based on large multi-gene alignments, to flourish. Without any doubt, phylogenomics is essentially an efficient way to eliminate the problems of single gene phylogenies due to stochastic errors, but numerous problems remain despite obvious progress realized in modeling evolutionary process. In this PhD-thesis, we are trying to characterize some consequences of a poor model fit and to study their impact on the accuracy of the phylogenetic inference. In contrast to heterotachy, the variation in the amino acid substitution process over time did not attract so far a lot of attention. We demonstrate that this heterogeneity is frequently observed within animals, but also that its existence can interfere with the quality of phylogenomic inference. In absence of an adequate model, the elimination of heterogeneous columns, which are poorly handled by the model, can eliminate an artefactual reconstruction. In a phylogenomic framework, the sequencing strategies often result in a situation where some genes are absent for some species. The issue about the impact of the quantity of empty cells was recently relaunched, but the majority of studies on missing data is performed on small datasets of simulated sequences. Therefore, we were interested on measuring the impact in the case of a large alignment of real data. With a reasonable amount of missing data, it seems that the accuracy of the inference is influenced rather by the choice of the model than the incompleteness of the alignment. For example, the addition of an incomplete sequence that breaks a long branch can at least partially re-establish an artefactual phylogeny. Because, model violations are always representing the major limitation of the accuracy of the phylogenetic inference, the improvement of species and gene sampling remains a useful alternative in the absence of an adequate model. Therefore, we developed a sequence-selection software, which allows the reproducible construction of datasets, based on the quantity of data, their evolutionary speed and their compositional bias. During this study, we did realize that the human expertise still furnishes an indispensable knowledge. The various analyses performed in the course of this PhD thesis agree on the primordial importance of the model of sequence evolution.
|
17 |
Processo de criação e jogos combinatórios: procedimentos comunicativos em Italo CalvinoBigareli, Maria Sílvia 17 December 2007 (has links)
Made available in DSpace on 2016-04-26T18:16:44Z (GMT). No. of bitstreams: 1
Maria Silvia Bigareli.pdf: 6401288 bytes, checksum: 1977235d771a65a7d97821bbd8f4cda6 (MD5)
Previous issue date: 2007-12-17 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This thesis has as its main objective to investigate Italo Calvino´s
creative mechanism analyzing its process, giving emphasis to the procedures called
combinatory games, presented as rules and ludic strategies which apply to other games
with the reader's interpretation, allowing through semiosis that the communicational
principles move in an unlimited and multiple way.
The research wanted to understand if those combinatory operations had a very big
influence in the author's Poetic Project and if those rules, used on purpose, were
fundamental to his concepts about multiplicity. Denominated by the author hyperromances,
the hypertextual procedures of these combinatory games are related to the new
creative process in the medias, because the attributes used (non-linearity, virtual
possibilities, mobility, multiplicity etc) find in the digital means´ features the appropriate
support model to the translation of these procedures. The main objects of the research's
corpus are: the author's reflexive texts about his own creative process and the books The
Castle of Crossed Destinies, Invisible Cities, If on a Winter s Night a Traveler (in which the
author metaliteralily talks about the reader's issue), and the short-story The Count of
Montecristo. As for Calvino´s communicative process, our focus is on the variants´ ways,
in the multiple paths possibilities. We were instigated by the rules of each combinatory
game, we wanted to go through the diagrammatic draw implicit in each text, observe his
choices, the selection among so many possible configurations and afterwards relate the
similarities and the generalizations of his project as a whole (understanding whole as
integrations and not completion.
The research, with an analytical character, is based on the Process Critics,
supported by the Peirce's Semiotics and it analyses the communicative phenomena
studying the process of the artistic creation. In addition, we also used theoretical
perspectives related to the studies about complexity, about the ludic and the potential
space and about the new medias. According to the nature of the research, the
methodology used includes mostly the bibliographical research and the use of objects
taken as references by the author while creating his games, such as tarot cards, and it
contemplates comparative analysis of the combinatory associations used and their
possible interpretations / Esta tese tem como principal objetivo investigar os mecanismos de
criação de Italo Calvino sob uma perspectiva processual, enfaticamente os procedimentos
denominados jogos combinatórios, apresentados como regras e estratégias lúdicas que
se ampliam em outros jogos com a interpretação do leitor, permitindo através da semiose
que os princípios comunicacionais se movimentem de forma ilimitada e multíplice.
A problemática da pesquisa buscava compreender se tais operações
combinatórias ocupavam predominante interesse no Projeto Poético do autor e se tais
regras, intencionalmente utilizadas, foram fundamentais para sua conceituação sobre
multiplicidade. Denominados pelo autor de hiper-romances, os procedimentos
hipertextuais desses jogos combinatórios se relacionam com os novos processos de
criação nas mídias, pois os atributos utilizados (não-linearidade, possibilidades virtuais,
mobilidade, multiplicidade etc) encontram nas características dos meios digitais o modelo
de suporte apropriado para a tradução desses procedimentos. Como principais objetos do
corpus da pesquisa estão os textos reflexivos do autor sobre seu próprio processo de
criação e as obras O Castelo dos Destinos Cruzados , Cidades Invisíveis e Se um
Viajante numa Noite de Inverno (em que o escritor metaliterariamente se pauta na
questão do leitor), além do conto O Conde de Monte Cristo . No âmbito do processo
comunicativo de Calvino, o nosso foco localiza-se nos caminhos das variantes, nas
possibilidades múltiplas de trajetórias. Instiga-nos entender as regras de cada jogo
combinatório criado, percorrer o desenho diagramático implícito em cada texto, observar
as escolhas, as seleções dentre tantas configurações potenciais, e relacionar
posteriormente as similaridades e generalizações do seu projeto como um todo
(entendendo todo como integração e não completude).
A pesquisa de caráter analítico é fundamentada na Crítica de Processo sustentada
pela Semiótica Peirceana e analisa os fenômenos comunicativos a partir de uma
perspectiva processual da criação artística. Em complemento, foram utilizadas
perspectivas teóricas atinentes ao âmbito de estudos sobre complexidade, sobre o lúdico
e o espaço potencial e sobre as novas mídias. Em consonância com a natureza da
pesquisa, a metodologia adotada inclui predominantemente a pesquisa bibliográfica e o
uso de objetos materiais tomados como referência pelo autor na estruturação de seus
jogos, tais como baralhos de tarô, e contempla análises comparativas das associações
combinatórias utilizadas e as possibilidades interpretativas das mesmas
|
18 |
Amélioration de l'exactitude de l'inférence phylogénomiqueRoure, Béatrice 04 1900 (has links)
L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif. / The explosion of sequence number allows for phylogenomics, the study of species relationships based on large multi-gene alignments, to flourish. Without any doubt, phylogenomics is essentially an efficient way to eliminate the problems of single gene phylogenies due to stochastic errors, but numerous problems remain despite obvious progress realized in modeling evolutionary process. In this PhD-thesis, we are trying to characterize some consequences of a poor model fit and to study their impact on the accuracy of the phylogenetic inference. In contrast to heterotachy, the variation in the amino acid substitution process over time did not attract so far a lot of attention. We demonstrate that this heterogeneity is frequently observed within animals, but also that its existence can interfere with the quality of phylogenomic inference. In absence of an adequate model, the elimination of heterogeneous columns, which are poorly handled by the model, can eliminate an artefactual reconstruction. In a phylogenomic framework, the sequencing strategies often result in a situation where some genes are absent for some species. The issue about the impact of the quantity of empty cells was recently relaunched, but the majority of studies on missing data is performed on small datasets of simulated sequences. Therefore, we were interested on measuring the impact in the case of a large alignment of real data. With a reasonable amount of missing data, it seems that the accuracy of the inference is influenced rather by the choice of the model than the incompleteness of the alignment. For example, the addition of an incomplete sequence that breaks a long branch can at least partially re-establish an artefactual phylogeny. Because, model violations are always representing the major limitation of the accuracy of the phylogenetic inference, the improvement of species and gene sampling remains a useful alternative in the absence of an adequate model. Therefore, we developed a sequence-selection software, which allows the reproducible construction of datasets, based on the quantity of data, their evolutionary speed and their compositional bias. During this study, we did realize that the human expertise still furnishes an indispensable knowledge. The various analyses performed in the course of this PhD thesis agree on the primordial importance of the model of sequence evolution.
|
19 |
L'évaluation systématique de la lombalgie selon les données probantesGilbert, Dominique 08 1900 (has links)
No description available.
|
20 |
Étude exploratoire sur les effets de l’impulsivité et de l’incertitude sur les performances d’apprentissage et de renversement de l’apprentissage chez l’humainRichard-Dionne, Étienne 12 1900 (has links)
Les individus diffèrent les uns des autres dans leur manière générale de se comporter au fil du temps et entre les contextes, ainsi que dans leur habileté à ajuster leurs comportements lorsqu’un changement environnemental survient. Encore aujourd’hui, les causes proximales et ultimes de ces différences ne sont pas bien comprises. Certains défendent que différents compromis de risque liant les types comportementaux rapide/proactif-lent/réactif aux styles cognitifs rapide/inflexible-exact/flexible pourraient en partie expliquer le maintien de ces différences. Toutefois, il semble y avoir des écarts dans la littérature quant à l’existence et la nature d’un tel compromis vitesse-exactitude. Une explication serait que ce genre de relations entre la personnalité et la cognition peuvent être modérées par différents facteurs. Ici, nous explorons la possibilité que l’impulsivité d’action, l’impulsivité de choix et l’incertitude attendue interagissent sur les performances d’apprentissage et de renversement de l’apprentissage chez l’humain. Pour évaluer leur impulsivité, les participants devaient remplir le questionnaire d’impulsivité de Barratt et effectuer une tâche de signal de stop ainsi qu’une tâche de dévaluation temporelle expérientielle. Puis, leurs performances d’apprentissage et de renversement de l’apprentissage ont été mesurées avec une nouvelle tâche de renversement de l’apprentissage, sous différents niveaux d’incertitude attendue. Les résultats démontrent que les patrons de performances d’apprentissage et de renversement de l’apprentissage associés à l’impulsivité d’action dépendent de l’incertitude attendue et de l’impulsivité de choix. Ils appuient également l’idée que l’impulsivité ne serait pas inadaptée per se, ce qui pourrait en partie expliquer le maintien des différences interindividuelles d’impulsivité et de flexibilité. / Individuals differ in how they each generally behave across time and contexts, as well as in their ability to acquire new information, and flexibly adjust their behavioral responses when a change in contingencies occurs. Still today, the proximal and ultimate causes of these differences are not well understood. In recent years, some advocate that divergent risk-reward trade-offs linking fast/proactive-slow/reactive behavioral types to fast/inflexible-accurate/flexible cognitive styles could partly explain the maintenance of these differences. However, it seems that there is a discrepancy in the literature about the existence and nature of such a speed-accuracy trade-off. One explanation could be that the link between personality and cognition is moderated by different factors. Thus, we propose here an exploratory study on how impulsive actions, impulsive choices, and expected uncertainty may interact altogether on learning and reversal learning performances in humans. To assess their impulsivity, participants had to fill out the Barratt impulsiveness scale questionnaire and to complete both a stop signal task and an experiential discounting task. Then, their learning and reversal learning performances were measured in a new reversal learning task, under different levels of reinforcer uncertainty. Results show that learning and reversal learning performances patterns linked to action impulsivity depend on expected uncertainty and choice impulsivity. In addition, they also support the idea that these dimensions of impulsivity are not maladaptive per se, which may provide another line of explanation for the maintenance of variation in impulsivities and flexibility.
|
Page generated in 0.0622 seconds