• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 524
  • 233
  • 59
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 814
  • 345
  • 343
  • 190
  • 151
  • 103
  • 95
  • 85
  • 84
  • 83
  • 70
  • 65
  • 59
  • 58
  • 57
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Développement du modèle d’ion polarisable pour la modélisation de BaTiO3 / Development of a polarizable ion model for barium titanate (BaTiO3 )

Hartmann, Cintia 26 January 2018 (has links)
Les composés à base de matériaux ferroélectriques présentent un large éventail de propriétés d'un grand intérêt fondamental et industriel. Ils possèdent un couplage entre la polarisation, la contrainte, le champ électrique et la température et trouvent application dans les dispositifs à l'échelle nanométrique. Les ferroélectriques sont aujourd'hui par exemple déjà utilisés dans les condensateurs, les mémoires, les capteurs et les actionneurs. Afin de comprendre la relation entre leurs propriétés physiques exceptionnelles et leur structure, des méthodes numériques capables de simuler à l'échelle nanométrique sont souhaitées. Pour ce faire, le modèle d'ions polarisables (PIM) est appliqué, modèle dans lequel les ions sont considérés comme des espèces polarisables possédant des charges nominales. En regard des techniques de modélisation actuelles, l'utilisation de charges nominales devrait faciliter l'inclusion de diverses compositions et l'étude des défauts et des effets de surface. Les paramètres du PIM sont dérivés par une procédure d'ajustement sur des données de références obtenues par des calculs avec la théorie de la fonctionnelle de la densité (DFT). Pour une première étape vers la modélisation ferroélectrique avec PIM, l'accent est mis sur le développement d'un potentiel d'interaction pour le prototype ferroélectrique BaTiO3. BaTiO3 présente une séquence complexe de transition de phase (rhomboédrique, orthorhombique, tétragonale, cubique) qui est liée à de petites différences d'énergie de l'ordre de quelques meV/unité de formule. Pour cette raison, le développement d'un potentiel d'interaction pour BaTiO3 nécessite une grande précision pour décrire correctement l’équilibre entre les interactions à courte et à longue portée. Il a été démontré au cours de ce travail que des effets asymétriques du nuage d'électrons par rapport au noyau seraient nécessaires pour une représentation précise des forces à courte portée. Puisque de tels effets ne sont pas inclus dans le PIM, des erreurs de compensation dans la procédure d'ajustement entre les interactions à courte et à longue portée sont permises afin d'obtenir le meilleur ajustement global. Le PIM développé pour BaTiO3 reproduit plusieurs propriétés à température nulle. À température finie, le PIM prédit que la phase rhomboédrique sera stable jusqu'à 160K. Dans la plage de température comprise entre 160K et 210K, de fortes fluctuations de la polarisation et des paramètres de maille sont observées et aucune phase bien définie ne peut être distinguée. A partir de 210K, la phase cubique paraélectrique est atteinte. Le modèle PIM développé dans cette thèse peut être appliqué à des études à basse température dans la phase ferroélectrique rhomboédrique. Il peut donc être utilisé pour étudier les effets de surface ou des lacunes d'oxygène dans la phase rhomboédrique de BaTiO3 . / Ferroelectric based compounds present a wide range of properties which are from great fundamental and industrial interest on nanoscale. Ferroelectric based compounds possesses strong coupling between polarization, stress, electric field and temperature and are nowadays already used in capacitors, memories, sensors, and actuators. In order to understand the relationship between microstructure and the outstanding properties, numerical methods able to simulate at nanoscale are disired. For this propose, the Polarizable Ion Model (PIM) is employed that treats the ions as polarizable species with nominal charge. In comparison to current modelisation techniques, the use of nominal charges should facilitate the inclusion of various materials composition and the study of defect and surface effects. The pametrization of the model is derived by a fit on ab initio DFT reference calculations. For a first step towards ferroelectric modelling with PIM, the focus lies on the developpment of an interaction potential for the prototyp ferroelectric BaTiO3. BaTiO3 presents a complex phase transition sequence (rhombohedral, orthorhombic, tetragonal, cubic) that is related to small energy differences of the order of some meV/formula unit. Thus, the development of a reliable interaction potential requires high precision and a correct description of the balance between short range and long range interactions. It has been demonstrated during this work that for an accurate representation of the short range forces asymmetric size effects of the electron cloud with respect to the nucleus would be necessary. As such size effects are not included in the PIM, compensation errors in the fitting procedure between short range and long range interactions are allowed in order to obtain the best global fit. The developed PIM model reproduces several zero temperature properties of BaTiO3. At finite temperature the PIM predicts the rhombohedral phase to be stable up to 160K. In the temperature range between 160K and 210K strong fluctuations in polarization and cell parameters are observed and no well-defined phase can be distinguished. From 210K on, the average paraelectric cubic phase is reached.
152

Quelque progrès en débruitage d'images / Advances in Image Denoising

Pierazzo, Nicola 20 September 2016 (has links)
Cette thèse explore les dernières évolutions du débruitage d'images, et elle essaie de développer une vision synthétique des techniques utilisées jusqu'à présent. Elle aboutit à un nouvel algorithme de débruitage d'image évitant les artefacts et avec un meilleur PSNR que tous les algorithmes que nous avons pu évaluer. La première méthode que nous présentons est DA3D, un algorithme de débruitage fréquentiel avec guide, inspiré de DDID. La surprise de cet algorithme, c'est que le débruitage fréquentiel peut battre l'état de l'art sans produire artefacts. Cet algorithme produit des bons résultats non seulement en PSNR, mais aussi (et surtout) en qualité visuelle. DA3D marche particulièrement bien pour améliorer les textures des images et pour enlever les effets de staircasing.DA3D, guidé par un autre algorithme de débruitage améliore presque toujours le résultat de son guide. L'amélioration est particulièrement nette quand le guide est un algorithme à patchs, et alors on combine deux principes différents: auto-similarité suivi de seuillage fréquentiel. Le deuxième résultat présenté est une méthode universelle de débruitage multi-échelle, applicable à tout algorithme. Une analyse qualitative montre en effet que les algorithmes de débruitage à patchs éliminent surtout les hautes fréquences du bruit, à cause de la taille limitée des voisinages traités. Plutôt que d'agrandir ces voisinages nous décomposons l'image en une pyramide basée sur la transformée en cosinus discrète, avec une méthode de recomposition évitant le ringing. Cette méthode traite le bruit à basse fréquence, et améliore la qualité de l'image. Le troisième problème sérieux que nous abordons est l'évaluation des algorithmes de débruitage. Il est bien connu que le PSNR n'est pas un indice suffisant de qualité. Un artefact sur une zone lisse de l'image est bien plus visible qu'une altération en zone texturée. Nous proposons une nouvelle métrique basée sur un Smooth PSNR et un Texture PSNR, pour mesurer les résultats d'un algorithme sur ces deux types des régions. Il apparaît qu'un algorithme de débruitage, pour être considéré acceptable, doit avoir des bons résultats pour les deux métriques. Ces métriques sont finalement utilisées pour comparer les algorithmes de l'état de l'art avec notre algorithme final, qui combine les bénéfices du multi-échelle et du filtrage fréquentiel guidé. Les résultats étant très positifs, nous espérons que la thèse contribue à résoudre un vieux dilemme, pour lequel la méthode DDID avait apporté de précieuses indications : comment choisir entre le seuillage fréquentiel et les méthodes basées sur l'auto-similarité pour le débruitage d'images ? La réponse est qu'il ne faut pas choisir. Cette thèse termine avec quelques perspectives sur la faisabilité du débruitage "externe". Son principe est de débruiter un patch en utilisant une grande base de données externe de patches sans bruit. Un principe bayésien démontré par Levin et Nadler en 2011 implique que le meilleur résultat possible serait atteint avec cette méthode, à condition d'utiliser tous les patches observables. Nous donnons les arguments mathématiques prouvant que l'espace des patches peut être factorisé, ce qui permet de réduire la base de données de patches utilisés d'un facteur au moins 1000. / This thesis explores the last evolutions on image denoising, and attempts to set a new and more coherent background regarding the different techniques involved. In consequence, it also presents a new image denoising algorithm with minimal artifacts and the best PSNR performance known so far.A first result that is presented is DA3D, a frequency-based guided denoising algorithm inspired form DDID [Knaus-Zwicker 2013]. This demonstrates that, contrarily to what was thought, frequency-based denoising can beat state-of-the-art algorithms without presenting artifacts. This algorithm achieves good results not only in terms of PSNR, but also (and especially) with respect to visual quality. DA3D works particularly well on enhancing the textures of the images and removing staircasing effects.DA3D works on top of another denoising algorithm, that is used as a guide, and almost always improve its results. In this way, frequency-based denoising can be applied on top of patch-based denoising algorithms, resulting on a hybrid method that keeps the strengths of both. The second result presented is Multi-Scale Denoising, a framework that allows to apply any denoising algorithm on a multi-scale fashion. A qualitative analysis shows that current denoising algorithms behave better on high-frequency noise. This is due to the relatively small size of patches and search windows currently used. Instead of enlarging those patches, that can cause other sorts of problems, the work proposes to decompose the image on a pyramid, with the aid of the Discrete Cosine Transformation. A quantitative study is performed to recompose this pyramid in order to avoid the appearance of ringing artifacts. This method removes most of the low-frequency noise, and improves both PSNR and visual results for smooth and textured areas.A third main issue addressed in this thesis is the evaluation of denoising algorithms. Experiences indicate that PSNR is not always a good indicator of visual quality for denoising algorithms, since, for example, an artifact on a smooth area can be more noticeable than a subtle change in a texture. A new metric is proposed to improve on this matter. Instead of a single value, a ``Smooth PNSR'' and a ``Texture PSNR'' are presented, to measure the result of an algorithm for those two types of image regions. We claim that a denoising algorithm, in order to be considered acceptable, must at least perform well with respect to both metrics. Following this claim, an analysis of current algorithms is performed, and it is compared with the combined results of the Multi-Scale Framework and DA3D.We found that the optimal solution for image denoising is the application of a frequency shrinkage, applied to regular regions only, while a multiscale patch based method serves as guide. This seems to resolve a long standing question for which DDID gave the first clue: what is the respective role of frequency shrinkage and self-similarity based methods for image denoising? We describe an image denoising algorithm that seems to perform better in quality and PSNR than any other based on the right combination of both denoising principles. In addition, a study on the feasibility of external denoising is carried, where images are denoised by means of a big database of external noiseless patches. This follows a work of Levin and Nadler, in 2011, that claims that state-of-the-art results are achieved with this method if a large enough database is used. In the thesis it is shown that, with some observation, the space of all patches can be factorized, thereby reducing the number of patches needed in order to achieve this result. Finally, secondary results are presented. A brief study of how to apply denoising algorithms on real RAW images is performed. An improved, better performing version of the Non-Local Bayes algorithm is presented, together with a two-step version of DCT Denoising. The latter is interesting for its extreme simplicity and for its speed.
153

Analyse multi-echelle des déformations différées dans les matériaux cimentaires sous dessiccation ou réaction sulfatique interne / Multi-scale analysis of delayed deformations in cement-based materials submitted todrying or delayed ettringite formation

Malbois, Marie 12 July 2019 (has links)
Aujourd’hui, la durée d’exploitation de certaines structures en béton est amenée à être prolongée, en parallèle, des structures présentent prématurément des signes d’endommagements dû parfois à une mauvaise prise en compte des conditions environnementales. Assurer la durabilité des structures, c’est également assurer leur exploitation de façon sécuritaire, économique et écologique. Notre objectif est dans un premier temps de comprendre les phénomènes et mécanismes en jeu, ainsi que leur potentiels couplages ; puis, dans un deuxième temps, de créer des modèles prédictifs fiables de ces comportements.Le travail présenté s’intéresse en particulier aux structures nucléaires, qui en plus d’avoir un enjeu majeur, présentent des risques vis-à-vis de la dessiccation et de pathologies thermo-activées comme la réaction sulfatique interne (RSI). Plus précisément, l’objectif de cette thèse est de comprendre la participation des granulats dans les mécanismes de dégradation du matériau sous ces deux sollicitations respectives, puis leur couplage.A cet effet, une approche expérimentale multi-échelle est menée. Elle s’intéresse à l’évolution des déformations différées ainsi que des propriétés mécaniques et de transfert de matériaux cimentaires soumis soit à la dessiccation, soit à la RSI. Dans les deux cas, les paramètres influents des granulats dans les mécanismes ont été mis en évidence et une étude paramétrique a été mis en place afin de dégager clairement l’influence de ces paramètres.Dans un premier temps, l’étude de la dessiccation est basée sur le suivi et la caractérisation de sept formulations modèles ; i.e. dont les squelettes granulaires ont été contrôlés et sélectionnés selon la taille et la fraction volumique des granulats dans le matériau ; sur 200 jours. Les essais ont mis en évidence l’influence de ces paramètres dans le phénomène d’incompatibilités de déformations entre pâte de ciment et granulats. En parallèle, l’étude expérimentale de la réaction sulfatique interne s’intéresse à caractériser l’influence de la nature minéralogique des granulats sur la formation et la progression de la pathologie. Nous nous intéressons à l’influence de ce paramètre sur la cinétique et le taux de la réaction, mais également sur l’évolution des propriétés du matériau, afin d’identifier tous les mécanismes physico-chimiques présents. Enfin, une dernière étude s’intéresse au couplage entre RSI et dessiccation. Ici, les paramètres granulats ont été fixés, et des échantillons réactifs vis-à-vis de la RSI ont été soumis à des cycles de séchage-imbibition. / Today, the operating life of some concrete structures is likely to be extended, in parallel, structures show early signs of damage due sometimes to poor consideration of environmental conditions. Ensuring the sustainability of structures also means ensuring their safe, economical and ecological operation. Our objective is first to understand the phenomena and mechanisms at play, as well as their potential couplings; then, in a second step, to create reliable predictive models of these behaviours.The work presented is particularly interested in nuclear structures, which, in addition to having a major stake in our societies, present risks with regard to desiccation and thermo-activated pathologies such as the delayed ettringite formation (DEF). More precisely, the objective of this thesis is to understand the participation of aggregates in the degradation mechanisms of the material under these two respective stresses, and then their coupling.To this end, a multi-scale experimental approach is being conducted. It takes interest in the evolution of delayed deformations as well as the mechanical and transfer properties of cementitious materials subjected to either desiccation or DEF. In both cases, the influential parameters of the aggregates in the mechanisms were identified and a parametric study was carried out to clearly identify the influence of these parameters.First, the desiccation study is based on the monitoring and characterization of seven model formulations; i.e. granular skeletons were controlled and selected according to the size and volume fraction of the aggregates in the material; over 200 days. The tests revealed the influence of these parameters in the phenomenon of aggregate restraint.In parallel, the experimental study of DEF aims at characterizing the influence of the mineralogical nature of aggregates on the formation and progression of the pathology. We are interested in the influence of this parameter on the reaction kinetics and rate, but also on the evolution of the material properties, in order to identify all the physico-chemical mechanisms at stake. Finally, a final study is interested in the coupling between RSI and desiccation. Here, the aggregate parameters were set, and samples reactive to DEF were subjected to drying and soaking cycles.
154

Matrix completion : statistical and computational aspects / Complétion de matrice : aspects statistiques et computationnels

Lafond, Jean 19 December 2016 (has links)
Dans cette thèse nous nous intéressons aux méthodes de complétion de matrices de faible rang et étudions certains problèmes reliés. Un premier ensemble de résultats visent à étendre les garanties statistiques existantes pour les modèles de complétion avec bruit additif sous-gaussiens à des distributions plus générales. Nous considérons en particulier les distributions multinationales et les distributions appartenant à la famille exponentielle. Pour ces dernières, nous prouvons l'optimalité (au sens minimax) à un facteur logarithmique près des estimateurs à pénalité norme trace. Un second ensemble de résultats concernent l'algorithme du gradient conditionnel qui est notamment utilisé pour calculer les estimateurs précédents. Nous considérons en particulier deux algorithmes de type gradient conditionnel dans le cadre de l'optimisation stochastique. Nous donnons les conditions sous lesquelles ces algorithmes atteignent les performance des algorithmes de type gradient projeté. / This thesis deals with the low rank matrix completion methods and focuses on some related problems, of both statistical and algorithmic nature. The first part of this work extends the existing statistical guarantees obained for sub-Gaussian additive noise models, to more general distributions. In particular,we provide upper bounds on the prediction error of trace norm penalized estimatorwith high probability for multinomial distributions and for distributions belonging to the exponential family. For the latter, we prove that the trace norm penalized estimators are minimax optimal up to a logarithmic factor by giving a lower bound.The second part of this work focuses on the conditionnal gradient algorithm, which is used in particular to compute previous estimators. We consider the stochastic optimization framework and gives the convergence rate of twovariants of the conditional gradient algorithm. We gives the conditions under which these algorithms match the performance of projected gradient algorithms.
155

Multiscale object-specific analysis : an integrated hierarchical approach for landscape ecology

Hay, Geoffrey J. January 2002 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
156

Analyse des aspects psychosociaux reliés aux troubles des conduites alimentaires

Aimé, Annie 17 March 2021 (has links)
La littérature récente portant sur les troubles des conduites alimentaires s'intéresse à l'identification de facteurs individuels et psychosociaux pouvant influencer l'étiologie et le maintien de ces troubles. Le présent projet de recherche doctoral s'inscrit au sein de cette nouvelle vague d'études. Dans un premier temps, il vise la traduction et la validation d'une version française de l'Échelle de Multi-Impulsivité (ÉMI). Les résultats de ce premier article démontrent que la traduction francophone de l'ÉMI correspond à sa version originale anglaise et que ses propriétés psychométriques sont adéquates. Dans un deuxième temps, le projet actuel cherche à mettre en lumière les différences et similitudes existant entre quatre groupes de participantes se situant à divers endroits sur le continuum des problèmes alimentaires. Les caractéristiques qui différencient le mieux les quatre groupes de répondantes ont trait à l'impulsivité, au névrotisme, à l'extraversion, à l'amabilité, à l'intensité des symptômes dépressifs, au soutien social et aux stratégies de résolution de problèmes moins adaptées.
157

Le rôle de la mémoire de travail telle que conçue par Baddeley dans les quatre sous-tests de l'échelle de Stanford-Binet

Dumont, Jilda 12 November 2021 (has links)
Cette étude s'inscrit dans le courant de recherche de la psychologie cognitive différentielle. Ce courant s'intéresse plus particulièrement aux différences individuelles observées dans les tests classiques d'intelligence en utilisant l'approche du traitement de l'information. De façon générale ce mémoire s'intéresse aux possibilités appliquées du modèle de mémoire de travail de Baddeley (1986). L'objectif plus spécifique est d'étudier le rôle de deux composantes de ce modèle soit la boucle articulatoire et la tablette visuo-spatiale dans les sous-tests de l'échelle de mémoire à court terme du Stanford-Binet, quatrième édition. La méthodologie utilisée est celle de la charge mnémonique (memory loading). Il s'agit de comparer la performance obtenue dans le rappel sériel différé de deux types de tâches (spatiales et verbales) en employant comme tâches interférentes les items de l'échelle de mémoire. Il est postulé que la boucle articulatoire est impliquée dans tous les sous-tests. Cependant, un de ces sous-tests sollicite possiblement les ressources de la tablette visuo-spatiale. Un protocole intra-sujet de type quasi-expérimental est utilisé avec seize sujets étudiants universitaires. Les résultats observés ne démontrent aucune interaction significative de la charge mnémonique avec les tâches interférentes. Cependant, pour l'ensemble des conditions, le pourcentage d'erreurs au rappel de la tâche verbale est plus élevé que celui qui est observé pour la tâche visuo-spatiale. Aussi, les sous tests montrent un effet indifférencié aux deux types de tâches.
158

Performance diagnostique de l'échelle de dépression gériatrique auprès de personnes âgées présentant des troubles cognitifs modérés à sévères

Bolduc, Anne-Marie 23 February 2021 (has links)
Ce mémoire avait comme objectif général d'estimer la performance diagnostique de l'Échelle de Dépression Gériatrique auprès de personnes âgées francophones ayant des atteintes cognitives modérées à sévères. Plus spécifiquement, cette étude avait pour but de déterminer à partir de quel niveau d'atteintes cognitives l'Échelle de Dépression Gériatrique n'est plus valide, sachant que ce test est apte à identifier correctement la dépression lorsque les personnes âgées n'ont pas de troubles cognitifs mais qu'il perd de sa validité lorsque les individus ont des troubles cognitifs sévères. Cette étude se proposait également d'estimer les qualités métriques de l'EDG avec des personnes âgées qui présentent des atteintes cognitives à savoir la consistance interne à l'aide du coefficient alpha et de la corrélation moitié-moitié et la fidélité test-retest. L'EDG a faussement identifié 25% des participants ayant des atteintes cognitives comme étant déprimés contre 6.7% des participants n'ayant pas de troubles cognitifs. La consistance interne était de 0.37 et la corrélation moitié-moitié était de 0.39 pour l'ensemble des participants. Le coefficient de corrélation test-retest pour les 24 participants ayant des troubles cognitifs était de 0.59 après un délai de 2 semaines. Ces résultats inférieurs à ceux des autres études peuvent être expliqué par l'insuffisance des participants.
159

La mesure de la satisfaction des clients : effet de la polarité, du nombre de points et de l'étiquetage de l'échelle de réponse sur la distribution des réponses et sur les qualités psychométriques

Renaud, Jean-Sébastien 18 April 2018 (has links)
Plusieurs auteurs suspectent que la grande proportion de scores élevés dans les études de satisfaction des clients restreint la variance et les covariances des items et d’un questionnaire de satisfaction et, par conséquent, que ceci affecte négativement leurs qualités psychométriques. Dans ce contexte, des auteurs ont suggéré d’accroître la sensibilité des échelles de réponse des questionnaires de satisfaction afin d’augmenter la variance associée à la caractéristique mesurée (i.e., la variance vraie), c’est-à-dire la satisfaction. Pour ce faire, ils ont proposé de manipuler deux caractéristiques de l’échelle de réponse : sa polarité et son nombre de points. S’inscrivant dans cette problématique, l’objectif de cette étude est d’évaluer l’effet de la polarité (bipolaire c. unipolaire), du nombre de points (six c. dix) et, à titre exploratoire, de l’étiquetage (i.e., avec ou sans étiquettes) de l’échelle de réponse sur la distribution des réponses ainsi que sur les qualités psychométriques d’un questionnaire de satisfaction des clients et de ses items. L’étude prend comme cadre théorique l’approche cognitive des méthodes de sondage, le principal courant d’études s’intéressant au comportement de réponse à un questionnaire, et emploie un devis quasi-expérimental, plus précisément un plan factoriel incomplet. Ce plan comporte six groupes de comparaison et approximativement 150 sujets se retrouvent dans chacun d’eux, pour une taille totale d’échantillon de 907 participants. Les résultats de l’étude indiquent que les indices de dispersion (i.e., écart-type, variance) et les qualités psychométriques des items et d’un questionnaire de satisfaction sont égaux ou inférieurs lorsque l’échelle de réponse est unipolaire plutôt que bipolaire. Conséquemment, nous recommandons d’employer une échelle de réponse bipolaire plutôt qu’unipolaire dans un questionnaire de satisfaction. Les résultats nous apprennent aussi que l’effet de la polarité est difficile à prédire, car il diffère selon que l’échelle de réponse compte six ou dix points et selon qu’elle possède ou pas des étiquettes. En ce qui a trait à l’effet du nombre de points de l’échelle de réponse, les résultats de l’étude amènent à conclure qu’utiliser une échelle de réponse en six points plutôt qu’en dix est sans effet sur les qualités psychométriques d’un questionnaire de satisfaction et de ses items. L’échelle de réponse en six points pourrait donc représenter un choix parcimonieux. L’étude fait aussi ressortir que la polarité, le nombre de points et l’étiquetage de l’échelle de réponse ont peu d’effet sur les qualités psychométriques d’un questionnaire de satisfaction et de ses items et, en ce sens, que ces caractéristiques de l’échelle de réponse ont une importance secondaire dans la construction d’un questionnaire de satisfaction. Enfin, les résultats permettent de penser que la distribution asymétrique négative des scores de satisfaction ne représente pas une menace importante pour les qualités psychométriques d’un questionnaire de satisfaction et de ses items. Mots clés : questionnaire autoadministré, satisfaction des clients, psychométrie, échelle de réponse, items, qualités psychométriques
160

Le concept de comportements d'adaptation et sa relation avec le quotient intellectuel

Gignac, Guy 23 February 2022 (has links)
Cette étude a pour objectif d’identifier le construit mesuré par l’Echelle Minnesota de comportements d’adaptation (EMCA) et sa relation avec l’intelligence. Les résultats démontrent l’existence de trois dimensions interreliées, qui partagent également des corrélations avec le QI; et qui expliquent 81% de la variance des scores aux sous-échelles de l’EMCA. Les dimensions obtenues suite à l’analyse des facteurs communs sont les facteurs Social, Motricité et Autonomie de base, et Cognitif. L’échantillon était composé de 145 sujets adultes, choisis au hasard parmi 2 225 personnes, réparties dans 62 commissions scolaires qui dispensent le Programme d’intégration à la vie communautaire du Service de l’éducation des adultes. Chacun des sujets a également été évalué au plan intellectuel et situé dans un niveau de déficience (profond, sévère, moyen, léger; ou sans déficience). En plus d’éclairer le concept de comportements d’adaptation, cette étude établit la validité de construit de l’EMCA couramment utilisée au Québec.

Page generated in 0.458 seconds