• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 158
  • 46
  • 10
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 220
  • 96
  • 50
  • 31
  • 26
  • 26
  • 25
  • 24
  • 22
  • 21
  • 21
  • 20
  • 20
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

L’utilisation d’acétaminophène durant la grossesse et le risque de trouble du spectre de l’autisme : les issues méthodologiques liées à la mesure d’exposition d’acétaminophène.

Kamdem Tchuendem, Lydienne 04 1900 (has links)
Le trouble du spectre de l’autisme (TSA) est une pathologie due à des anomalies neurodéveloppementales. Syndrome le plus souvent diagnostiqué dans la petite enfance, il affecte principalement l’interaction sociale et cause: des troubles de langage, de la communication et du comportement. Sa prévalence sans cesse croissante atteint en 2018 1.52% au Canada[1]. Cette prévalence est quatre fois plus élevée chez les garçons comparativement aux filles[2]. À ce jour, il n’existe pas de traitement spécifique au TSA, cependant des interventions psychologiques et médications sont proposées pour réduire des symptômes tel que l’agressivité et l’anxiété qui y sont associés. L’étiologie du TSA est peu ou mal connue. Néanmoins, des hypothèses sont avancées suivant trois facteurs. Génétique, biologique et environnementale. Concernant ce dernier facteur, l’on peut citer l’exposition in utéro aux médicaments et ce projet porte son intérêt sur ce point et plus précisément l’acétaminophène. C’est l’un des analgésiques le plus utilisé dans le soulagement de la douleur et le traitement de la fièvre. Il est souvent recommandé aux femmes durant la grossesse pour le soulagement de la douleur et le traitement de la fièvre. Cette forte consommation d’acétaminophène chez la femme enceinte : environ 65%-75% aux États-Unis[3], soulève une réelle problématique sachant qu’il est démontré que le principe actif est détectable dans des échantillons de plasma de cordon ombilical[4]. La possibilité que l’acétaminophène traverse le placenta et soit présent dans la circulation sanguine du bébé n’est pas exclue[4],[5]. Il est important d’effectuer davantage de recherche sur le sujet afin d’évaluer le réel impact d’une telle exposition. Sachant les limites d’inclusion des femmes enceintes dans les essais cliniques randomisées, nous avons mené une étude de cohorte populationnelle et les données utilisées proviennent de quatre bases de données administratives québécoises, dont le jumelage a permis de mettre sur pied la cohorte des grossesses du Québec (CGQ) avec un suivi longitudinal entre 1998 et 2015. Ainsi, ce projet méthodologique vise principalement à explorer et illustrer les limites de l’utilisation des bases de données administratives pour mesurer l’exposition aux médicaments en vente libre. Ceci en utilisant comme cas pratique, l’évaluation du risque de TSA chez des enfants exposés à l’acétaminophène durant la phase gestationnelle comparativement aux enfants non exposés. La littérature rapporte que les données quant à l’utilisation des médicaments en vente libre sont souvent sous-estimées par rapport à la réalité. L’utilisation bases de données administratives afin de mesurer l’exposition de certains médicaments en vente libre, introduirait une erreur de classification importante[6]. Sachant que la collecte de données se base sur les prescriptions complétées en pharmacie. Dans la pratique clinique courante, ces médicaments sont peu prescrits par les médecins et peu compléter auprès du pharmacien. Le cas pratique utilisé dans ce projet confirme cette hypothèse. En effet, l’exposition in utéro d’acétaminophène est sous-estimée à 94% (Supplemental Table 5). Seulement 6 % (38/648) des enfants exposés sont capturés au sein de la CGQ ce qui ne reflète pas la réalité clinique d’utilisation d’acétaminophène en grossesse. Ce résultat démontre l’introduction d’un biais d’information (erreur de classification) qui expliquerait totalement ou en partie l’estimé mesuré. En effet, notre étude montre qu’il n’y a pas d’augmentation statistiquement significative entre le risque de TSA et la consommation d’acétaminophène in-utero (aHR : 1.10 IC 95% 0.93-1.30). Parallèlement, une analyse de sous cohorte a été effectuée. Celle-ci, utilisait des questionnaires auto-rapportées par les mères afin de mesurer l’exposition à l’acétaminophène. Pour cette analyse secondaire, un effet protecteur est mesuré (aHR : 0.78 IC 95% 0.41-1.47). Des analyses de sensibilités sur l’issue ont pu confirmer la robustesse de ces estimés, validant ainsi nos résultats. En conclusion, ce projet d’étude a permis de mesurer l’ampleur des erreurs de classifications associées à l’utilisation des bases de données administratives pour des questions de recherches impliquant des médicaments en vente libre. Cependant, au regard de ces défis méthodologiques, il est difficile de mesurer l’association entre l’utilisation d’acétaminophène et le risque de TSA dans notre cohorte. Notre étude ne démontre pas d’association statistiquement significative, ce qui est contradictoire aux antécédentes études ayant des méthodes de mesures d’exposition différentes. / Autism Spectrum Disorder (ASD) is a pathology caused by neurodevelopmental abnormalities. A syndrome most often diagnosed in early childhood, ASD mainly affects social interaction and causes language, communication, and behavioral disorders. Its ever-increasing prevalence reached a rate of 1.52% in Canada in 2018[1]. This prevalence is four times higher in boys compared to girls[2]. Nowadays, there is no specific treatment for ASD, however, psychological interventions and medications are proposed to reduce symptoms such as aggression and anxiety. The etiology of ASD is unknown. Nevertheless, hypotheses are put forward to explain the ASD mechanism via the genetic, biological, and environmental approach. The last factor includes in-utero exposure to medications and the present project focuses on this point and more specifically acetaminophen[3]. This research focuses on this point and, more specifically, on acetaminophen. It is one of the most widely used analgesics in pain and fever treatment, which is why it is often recommended to women during pregnancy. This high consumption of acetaminophen in pregnant women: approximately 65%-75% in the United States [4], raises a real problem, knowing that it has been demonstrated that the active ingredient is detectable in cord plasma samples [5]. It is possible that acetaminophen crosses the placenta and is present in the baby’s bloodstream[4], [5]. It is important to carry out more research on the subject in order to assess the true impact of such exposure. Knowing the limits of the inclusion of pregnant women in randomized clinical trials, we conducted a population-based cohort study. The data came from four Quebec administrative databases, their pairing allowing the establishment of the Quebec pregnancy cohort (QPC) with a longitudinal follow-up between 1998 and 2015. Thus, this methodological project mainly aims to explore and illustrate the limits of the use of administrative databases to measure exposure of over-the-counter medications. Using as a practical example, the assessment of the risk of ASD in children exposed to acetaminophen during the gestational phase compared to unexposed children. The literature reports that data on the use of over-the-counter medications are often underestimated compared to reality. The use of administrative databases to measure exposure to over-the-counter medications would introduce major misclassification[6]. Knowing that data are collected based on prescriptions filled in pharmacies. In the current clinical practice, these medications are rarely prescribed by physicians and rarely filled by pharmacists. The practical case used in this project confirms this hypothesis. In-utero exposure to acetaminophen is underestimated at 94% (Supplemental Table 5). Only 6% (38/648) of exposed children are captured within the QPC, which does not reflect the clinical reality of acetaminophen use in pregnancy. This result demonstrates the introduction of an information bias (misclassification) which would totally or partially explain the measured estimate. Indeed, our study shows that there is no statistically significant increase between the risk of ASD and the consumption of acetaminophen in utero (aHR: 1.10 95% CI 0.93-1.30). At the same time, a sub-cohort analysis was carried out. This used questionnaires self-reported by mothers to measure exposure to acetaminophen. For this secondary analysis, a protective effect is measured (aHR: 0.78 95% CI 0.41-1.47). Sensitivity analyses on issue were able to confirm the robustness of these results, thus validating our results. Through this study, we were able {Citation} to measure the magnitude of misclassifications associated with the use of administrative databases for research questions involving over-the-counter drugs. However, given these methodological challenges, it is difficult to measure the association between the use of acetaminophen in pregnancy and the risk of ASD in our cohort. Our study does not demonstrate a statistically significant association, which is contradictory to previous studies with exposure measurement methods approaching reality.
92

La réouverture du procès pénal : contribution à l’étude de l’efficacité des procédures actuelles de révision et de réexamen en droit pénal français / The reopening of a criminal trial

Schmandt, Claire-Annie 21 December 2012 (has links)
Une condamnation pénale définitive ne peut en principe plus être remise en cause. La chose jugée doit en effet être tenue pour vraie. L’adage non bis in idem et les principes de l’autorité et de la force de la chose jugée semblent dès lors interdire de rouvrir le procès pénal. Toutefois, le législateur français prévoit deux procédures distinctes permettant de remettre encause la condamnation prononcée : la révision et le réexamen. Les conditions de mise en oeuvre de ces procédures et leurs spécificités en font des procédures très exceptionnelles. Par la présentation d’éléments nouveaux de fait pour la révision, et de droit pour le réexamen, le requérant peut dans certains cas prétendre à nouvelle étude de son affaire. Cependant cette réouverture ne pourra être décidée que par une juridiction ad hoc et sera de type différent selon le nouveau procès envisagé. De plus, l’issue de ce nouveau procès pourra permettre de maintenir la condamnation en dépit des nouveaux faits présentés ou reconnaître l’innocence du condamné. / Final sentencing in a criminal trial cannot in principle be questioned any more. Indeed the adjudged case has to be considered as definitely settled. The non bis in idem Latin saw and the res judicata tenet thus seem to preclude the re-opening of a criminal trial. And yet, lawgivers put in place two distinct legal processes that enable French citizens to challenge their sentencing: reviewing and re-hearing. The conditions for carrying out these processes and their own specifities make these proceedings quite exceptional. Through the presentation of new evidence for reviewing, and because re-hearing can be considered as of right, convicted people may in some cases get a new trial. Nevertheless only an ad hoc jurisdiction can decide upon a new hearing and the latter will be of a different kind depending on the new trial at hand. Moreover, the upshot of this new trial will make it possible either to maintain the sentencing notwithstanding new evidence being presented to a new court or to declare the defendant not guilty.
93

Modélisation et étude 3D des phénomènes de cisaillement adiabatiques dans les procédés de mise en forme à grande vitesse

Delalondre, Fabien 19 December 2008 (has links) (PDF)
Malgré des résultats prometteurs, les procédés de mise en forme à grande vitesse sont encore peu utilisés dans l'industrie du fait d'un manque de compréhension du phénomène de Bande de Cisaillement Adiabatique (BCA).<br/>Ce travail présente le développement d'outils numériques permettant la simulation adaptative et l'analyse de BCA dans des procédés 3D de mise en forme à grande vitesse. L'utilisation du modèle ALE-adaptatif séquentiel développé dans le logiciel Forge3 permet pour la première fois la simulation automatique de BCA 3D. L'étude des résultats numériques permet de proposer une description innovante du processus de formation de BCA. Les moyens de calcul requis s'avérant très importants, un nouveau code éléments finis hautement parallèle appelé Forge++ est développé. Ce dernier inclut de nouveaux algorithmes tels que le couplage thermomécanique implicite, la méthode de stabilisation RFB et un recouvrement par patch parallèle pour une meilleure simulation de BCA.
94

Systèmes OFDM ultra large bande :<br />Estimation de canal et détection améliorée prenant en compte les imprécisions d'estimation

Sadough, Seyed Mohammad Sajad 07 January 2008 (has links) (PDF)
Les travaux présentés dans cette thèse se situent dans le cadre de la transmission OFDM appliqué au contexte Ultra Large Bande. L'objectif principal va être l'estimation du canal de propagation et la conception de récepteurs en prenant en compte la connaissance non idéale du canal. On propose d'abord une approche semi-aveugle d'estimation du canal basée sur l'algorithme EM. Le canal est décrit au moyen de sa décomposition dans une base d'ondelettes, ce qui fournit une représentation parcimonieuse. La complexité de l'estimation est réduite grâce au fait que les coefficients d'ondelettes jugés non significatif sont écartés. Ensuite, on propose des structures de réception où la conception du détecteur prend en compte la présence des erreurs d'estimation de canal. La détection au sens maximum de vraisemblance (MV) est améliorée en modifiant sa métrique de détection pour le cas où le canal est estimé de manière imparfaite. La métrique MV améliorée ainsi obtenue nous permet de remettre en question le schéma de détection de type turbo maximum a posteriori (MAP) et l'adapter à la connaissance imparfaite du canal. En outre, le choix de l'étiquetage lors de l'attribution des bits aux symboles est également discuté. De plus, on dérive les débits de coupure atteignables (achievable outage rates) avec le détecteur MV améliorée ou un détecteur MV désadapté (utilisant les estimés de canal comme s'il s'agissait des vraies) qu'on comparera avec un détecteur théorique défini comme étant le meilleur récepteur possible en présence d'erreurs d'estimation de canal. Enfin, un récepteur itératif à complexité réduite basé sur un filtrage MMSE et l'annulation parallèle d'interférence (turbo-PIC) est introduit. L'idée de notre approche consiste à prendre en compte la connaissance imparfaite du canal dans la conception du filtre MMSE ainsi que dans la partie annulation d'interférence. Il est important de souligner que les améliorations proposées dans cette thèse ne résultent pas en une augmentation sensible de la complexité algorithmique au niveau du récepteur.
95

Erreurs arithmétiques des élèves et interventions de l'enseignant débutant : une analyse didactique en termes de schèmes

Normandeau, Marie-Pierre 01 1900 (has links)
Ancrée dans le domaine de la didactique des mathématiques, notre thèse cible le « travail de l’erreur » effectué par trois enseignants dans leur première année de carrière. Libérés des contraintes associées au système de formation initiale, ces sujets assument pleinement leur nouveau rôle au sein de la classe ordinaire. Ils se chargent, entre autres, de l’enseignement de l’arithmétique et, plus précisément, de la division euclidienne. Parmi leurs responsabilités se trouvent le repérage et l’intervention sur les procédures erronées. Le « travail de l’erreur » constitue l’expression spécifique désignant cette double tâche (Portugais 1995). À partir d’un dispositif de recherche combinant les méthodes d’observation et d’entrevue, nous documentons des séances d’enseignement afin de dégager les situations où nos maîtres du primaire identifient des erreurs dans les procédures algorithmiques des élèves et déploient, subséquemment, des stratégies d’intervention. Nous montrons comment ces deux activités sont coordonnées en décrivant les choix, décisions et actions mises en œuvre par nos sujets. Il nous est alors possible d’exposer l’organisation de la conduite de ces jeunes enseignants en fonction du traitement effectif de l’erreur arithmétique. En prenant appui sur la théorie de champs conceptuels (Vergnaud 1991), nous révélons l’implicite des connaissances mobilisées par nos sujets et mettons en relief les mécanismes cognitifs qui sous-tendent cette activité professionnelle. Nous pouvons ainsi témoigner, du moins en partie, du travail de conceptualisation réalisé in situ. Ce travail analytique permet de proposer l’existence d’un schème du travail de l’erreur chez ces maîtres débutants, mais aussi de spécifier sa nature et son fonctionnement. En explorant le versant cognitif de l’activité enseignante, notre thèse aborde une nouvelle perspective associée au thème du repérage et de l’intervention sur l’erreur de calcul de divisions en colonne. / Rooted in the Didactic of Mathematics’ field, this thesis looks into the practice of three new teachers. Free from the constraints and pressures associated with the teacher training context, these subjects take on a new role in their first year on the job. Among all of the affiliated responsibilities are those related to the teaching of arithmetic and, more specifically, the long division algorithm. “Le travail de l’erreur” is the expression used by Portugais (1995) to design error management by the teacher. It includes the diagnosis of errors and the strategies unfurled to help the pupil remedy his/her mistakes. This double task is the object of this study. Combining research methods of observation and interview, we aim to describe error management in a regular elementary class setting. We delineate situations where our subjects identify and intervene on errors made by students during the arithmetic procedure. We examine how these two activities are coordinated, by documenting the novice teachers choices, decisions and actions. We focus on the organization of their conduct throughout the different situations. A theoretical framework based on the “conceptual field theory” or “théorie des champs conceptuels” (Vergnaud, 1991) enables us to reveal the implicit teaching knowledge comprised in the behavior adopted by the young professionals. This analysis reveals the dynamics of piagetian assimilation/ accommodation mechanisms. It also gives us evidence of the conceptualizing process underlying teacher conduct. We utilize the concept of “scheme” to better understand this cognitive activity. We propose the existence of “le schème du travail de l’erreur” and aim to specify his nature and function. This allows us to describe the conceptual structure, which shapes and organizes the novice’s ability to manage errors in their pupil’s calculation of written divisions.
96

Chimères, données manquantes et congruence : validation de différentes méthodes par simulations et application à la phylogénie des mammifères

Campbell, Véronique January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
97

Les erreurs syntaxiques des élèves du secondaire au Québec : analyse de corpus

Nollet, Julie 08 1900 (has links)
Ce mémoire de maitrise vise à dresser un portrait des erreurs syntaxiques des élèves du secondaire en analysant un corpus de textes de cinq groupes du Québec, de la 1re à la 5e secondaire. Les résultats actuels aux épreuves ministérielles des élèves de 5e secondaire nous indiquent que les élèves éprouvent des difficultés avec l’écriture du français. Une analyse approfondie nous permet de comprendre que l’amélioration de la situation passe par une meilleure connaissance des erreurs syntaxiques des élèves. En nous appuyant sur la grille de Boivin et Pinsonneault (2014), nous avons analysé les données provenant du codage des textes d’élèves de la 1re à la 5e secondaire. L’analyse de ces données nous a permis de constater que parmi les sept grandes catégories d’erreurs de la grille, c’est en syntaxe que les élèves commettent le plus d’erreurs. Une incursion au cœur des six sous-catégories de la syntaxe a révélé que la ponctuation causait le plus de problème aux élèves, et ce, à tous les niveaux. Les erreurs liées à la détermination de la catégorie grammaticale des mots (homophones) arrivaient en deuxième place. Par la suite, nous avons précisé davantage l’analyse en déterminant, pour chacun des codes, l’évolution du nombre d’erreurs d’un niveau du secondaire à l’autre. Il est ressorti de cette étude que les deux principales erreurs, basées sur les sous-catégories syntaxiques, sont celles portant sur l’usage de la virgule et celles liées à la confusion qui existe encore un verbe terminant par «er» et un adjectif ou un participe passé terminant par «é-e-s». / This Master’s thesis develops an accurate portrait of the syntax errors made by high school students in Quebec by analyzing a text corpus from five groups from secondary 1 to secondary 5. The actual results in ministerial exams from secondary 5’s students show us that the students are having difficulty writing French. A deeper analysis helps us understand that improving the situation requires deeper knowledge of students’ syntax errors. Building on Boivin and Pinsonneault’s (2014) matrix, we analyzed texts written by students from secondary 1 to secondary 5. The data analysis shows that among the seven main categories of mistakes in the matrix, syntax is the one in which students make the most mistakes. A closer look at the six sub-categories within the syntax category reveals that punctuation is the most challenging factor for students at all levels. Mistakes related to determining the words’ grammatical category (homophones) came second. Further analysis reveals that, for each code, the evolution of the amount of errors from one school year to another. The two main errors, based on the six syntax sub-categories, were those based on the use of the comma and those related to the confusion existing between a verb ending in “er” and an adjective or past participle ending in “é-e-s”.
98

Maîtrise du lexique chez les étudiants universitaires : typologie des problèmes lexicaux et analyse des stratégies de résolution de problèmes lexicaux

Anctil, Dominic January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
99

Multiscale data assimilation approaches and error characterisation applied to the inverse modelling ofatmospheric constituent emission fields / Assimilation de données multi-échelle et caractérisation des erreurs pour la modélisation inverse des sources de polluants atmosphériques

Koohkan, Mohammad Reza 20 December 2012 (has links)
Dans les études géophysiques, l'assimilation de données a pour but d'estimer l'état d'un système ou les paramètres d'un modèle physique de façon optimale. Pour ce faire, l'assimilation de données a besoin de trois types d'informations : des observations, un modèle physique/numérique et une description statistique de l'incertitude associée aux paramètres du système. Dans ma thèse, de nouvelles méthodes d'assimilation de données sont utilisées pour l'étude de la physico-chimie de l'atmosphère: (i) On y utilise de manière conjointe la méthode 4D-Var avec un modèle sous-maille statistique pour tenir compte des erreurs de représentativité. (ii) Des échelles multiples sont prises en compte dans la méthode d'estimation BLUE. (iii) Enfin, la méthode du maximum de vraisemblance est appliquée pour estimer des hyper-paramètres qui paramètrisent les erreurs à priori. Ces trois approches sont appliquées de manière spécifique à des problèmes de modélisation inverse des sources de polluant atmosphérique. Dans une première partie, la modélisation inverse est utilisée afin d'estimer les émissions de monoxyde de carbone sur un domaine représentant la France. Les stations du réseau d'observation considérées sont impactées par les erreurs de représentativité. Un modèle statistique sous-maille est introduit. Il est couplé au système 4D-Var afin de réduire les erreurs de représentativité. En particulier, les résultats de la modélisation inverse montrent que la méthode 4D-Var seule n'est pas adaptée pour gérer le problème de représentativité. Le système d'assimilation des données couplé conduit à une meilleure représentation de la variabilité de la concentration de CO avec une amélioration très significative des indicateurs statistiques. Dans une deuxième partie, on évalue le potentiel du réseau IMS (International Monitoring System) du CTBTO pour l'inversion d'une source accidentelle de radionucléides. Pour évaluer la performance du réseau, une grille multi-échelle adaptative pour l'espace de contrôle est optimisée selon un critère basé sur les degrés de liberté du signal (DFS). Les résultats montrent que plusieurs régions restent sous-observées par le réseau IMS. Dans la troisième et dernière partie, sont estimés les émissions de Composés Organiques Volatils (COVs) sur l'Europe de l'ouest. Cette étude d'inversion est faite sur la base des observations de 14 COVs extraites du réseau EMEP. L'évaluation des incertitudes des valeurs des inventaires d'émission et des erreurs d'observation sont faites selon le principe du maximum de vraisemblance. La distribution des inventaires d'émission a été supposée tantôt gaussienne et tantôt semi-normale. Ces deux hypothèses sont appliquées pour inverser le champs des inventaires d'émission. Les résultats de ces deux approches sont comparés. Bien que la correction apportée sur les inventaires est plus forte avec l'hypothèse Gaussienne que semi-normale, les indicateurs statistiques montrent que l'hypothèse de la distribution semi-normale donne de meilleurs résultats de concentrations que celle Gaussienne. / Data assimilation in geophysical sciences aims at optimally estimating the state of the system or some parameters of the system's physical model. To do so, data assimilation needs three types of information: observations and background information, a physical/numerical model, and some statistical description that prescribes uncertainties to each componenent of the system.In my dissertation, new methodologies of data assimilation are used in atmospheric chemistry and physics: the joint use of a 4D-Var with a subgrid statistical model to consistently account for representativeness errors, accounting for multiple scale in the BLUE estimation principle, and a better estimation of prior errors using objective estimation of hyperparameters. These three approaches will be specifically applied to inverse modelling problems focussing on the emission fields of tracers or pollutants. First, in order to estimate the emission inventories of carbon monoxide over France, in-situ stations which are impacted by the representativeness errors are used. A subgrid model is introduced and coupled with a 4D-Var to reduce the representativeness error. Indeed, the results of inverse modelling showed that the 4D-Var routine was not fit to handle the representativeness issues. The coupled data assimilation system led to a much better representation of theCO concentration variability, with a significant improvement of statistical indicators, and more consistent estimation of the CO emission inventory. Second, the evaluation of the potential of the IMS (International Monitoring System) radionuclide network is performed for the inversion of an accidental source. In order to assess the performance of the global network, a multiscale adaptive grid is optimised using a criterion based on degrees of freedom for the signal (DFS). The results show that several specific regions remain poorly observed by the IMS network. Finally, the inversion of the surface fluxes of Volatile Organic Compounds (VOC) are carried out over Western Europe using EMEP stations. The uncertainties of the background values of the emissions, as well as the covariance matrix of the observation errors, are estimated according to the maximum likelihood principle. The prior probability density function of the control parameters is chosen to be Gaussian or semi-normal distributed. Grid-size emission inventories are inverted under these two statistical assumptions. The two kinds of approaches are compared. With the Gaussian assumption, the departure between the posterior and the prior emission inventories is higher than when using the semi-normal assumption, but that method does not provide better scores than the semi-normal in a forecast experiment.
100

Flexibilité du contrôle moteur dans les mouvements complexes dirigés / Motor flexibility in complex goal directed movements

Fautrelle, Lilian 04 November 2011 (has links)
L’objectif général de cette thèse est d’étudier dans les mouvements complexes, les propriétés psychophysiques de flexibilité d’un programme moteur suite à une perturbation inattendue et certaines de ses bases neurales. Pour ce faire, trois études comportementales et une étude en imagerie par résonance magnétique fonctionnelles ont été menées. (1)Les principaux résultats de notre première étude démontrent que lors de la réalisation de mouvements complexes, après un déplacement inattendu de la cible visuelle, des corrections motrices peuvent apparaître très rapidement en une centaine de millisecondes dans les muscles de la jambe et du bras. De telles latences pourraient indiquer que les corrections motrices rapides à partir des entrées visuelles pourraient être générées grâce à des boucles corticales de bas niveaux. (2) Lors d’un déplacement imprévu de la cible visuelle pendant l’exécution d’un mouvement complexe dirigé, les temps de correction sont significativement corrélés entre certaines paires de muscles, indépendamment de leur localisation anatomique ou de leur ordre d’apparition dans la séquence temporelle de recrutement musculaire. Ces résultats suggèrent que le système nerveux central est capable d’utiliser des synergies motrices fonctionnelles et complexes lors de la génération de corrections motrices. (3) Lorsque la taille de la cible est modifiée de manière imprévisible pendant l’exécution du plan moteur initial, la durée du mouvement augmente, indépendamment de la variabilité de la précision terminale du mouvement de pointage. Ce résultat suggère que les retours sensori-moteurs et une représentation en (quasi) temps réel de la vitesse de l’effecteur sont utilisés pour générer et contrôler le déplacement de la main. (4) Enfin, lors d’une tâche de rattrapés de balles répétitifs, en manipulant les conditions de prédiction a priori de la masse des balles utilisées, la dernière étude de ce travail expérimental démontre qu’un réseau cérébelleux bilatéral, impliquant les lobules IV, V et VI, est très majoritairement impliqué dans les processus de calcul de l’erreur sensori-motrice. Dans les boucles corticales classiques impliquées dans la flexibilité motrice, le cervelet est engagé dans la génération de l’erreur sensori-motrice. Néanmoins, il semblerait que d’autres boucles de plus bas niveaux puissent être également employées afin de générer des corrections motrices très rapides. La coordination entre ces différentes boucles reste à être étudiée plus précisément. / The main objective of this thesis is to study the motor flexibility in complex movements when an unexpected event makes the initial motor plan inefficient. In this way, three kinematic and electromyographic studies and a fourth with functional magnetic resonance imaging were realized. (1)The main result of the first study clearly demonstrate that during complex movements express motor corrections in the upper and lower limbs, with latency responses of less than 100 ms, were revealed by contrasting electromyographic activities in perturbed and unperturbed trials. Such findings could indicate that visual on-going movement corrections may be accomplished via fast loops at the level of the upper and lower limbs and may not require cortical involvement. (2) When an unexpected target jump occurred, correction times were strongly correlated together for some pairs of muscles independently of their occurrences during the motor sequence and independently of the location of the muscles at the anatomical level. This second study suggests that the CNS re-programs a new motor synergy after the target jumps in order to correct the on going reaching movement. (3) When the target size is varied during the initial motor plan execution, the movement duration can increase independently of the variability of the final endpoint. These results suggests that when the speed-accuracy trade-off is unexpectedly modified, terminal feedbacks based on intermediate representations of the endpoint velocity are used to monitor and control the hand displacement. (4) Finally, when catching a falling ball and the possibility of prediction about the ball weight was manipulated, the last study of this thesis showed that both the right and left cerebellum is engaged in processing sensory–motor errors, and more particularly the lobules IV, V and VI. For classical loops involved in motor flexibility, sensory-motor errors are processed within the cerebellum. However, some shorter sub-cortical loops seem also to be involved for faster motor corrections. The coordination between these different loops needs to be explained more precisely.

Page generated in 0.0306 seconds