• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 9
  • 4
  • Tagged with
  • 31
  • 14
  • 8
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modélisation du rayonnement électromagnétique de boîtiers de blindage par sources équivalentes : application aux matériaux composites / Modelling of shielding enclosures electromagnetic radiation by equivalent sources : application to composite materials

Abdelli, Wassim 15 June 2015 (has links)
La modélisation de matériaux composites est un domaine d’étude qui bénéficie d’un intérêt croissant. En effet, la vulgarisation de l’utilisation de tels matériaux nécessite le développement de nouveaux modèles afin de mieux comprendre leur comportement. L’industrie automobile et aéronautique s’efforce d’optimiser le choix des matériaux en fonction des spécificités de chaque application, afin de réduire la masse des équipements et de leur assurer de meilleurs caractéristiques mécaniques et thermiques. Les matériaux composites se sont aussi présentés comme une éventuelle alternative au métal pour le rôle de blindage électromagnétique. Leur généralisation dans cette optique se heurte néanmoins à une relative méconnaissance de leur comportement électromagnétique. A cet effet, il est nécessaire de disposer de méthodologies permettant d'évaluer l'efficacité de blindage de boîtiers en matériaux composites et de cerner les différents mécanismes et paramètres correspondants.Par ailleurs, le déploiement de ces matériaux alternatifs à plus grande échelle est freiné par d'autres contraintes liées essentiellement à la difficulté de l'analyse électromagnétiques 3D complète de systèmes complexes abritant des boîtiers en matériaux composites. En effet, la complexité topologique de certains composants complique considérablement leur insertion dans les outils de simulation électromagnétique existants. De plus, le rapport d'échelle entre les différents niveaux (système, boîtiers composites, cartes, circuits, composants) est trop important ; cette disparité d'échelle complexifie considérablement la discrétisation géométrique de l'ensemble. L'association de ces différentes contraintes conduisent à des difficultés réelles aux quelles les ingénieurs CEM sont confrontés. C'est pourquoi il est nécessaire de développer des modèles performants permettant de faciliter l'analyse 3D du système hôte complet. Ce travail de thèse s'est donc réparti sur deux volets :- dans un premier temps, nous présentons une méthodologie de calcul de l'efficacité de blindage des boîtiers en matériaux composites, afin d'évaluer la potentialité de ces matériaux en termes de blindage électromagnétique et de cerner les principaux facteurs qui y contribuent.- dans un second temps et dans l'objectif de fournir une approche permettant de mettre les systèmes électroniques complexes intégrant des boîtiers de blindage composites en conformité avec les exigences strictes de CEM, nous proposons une méthodologie de modélisation des rayonnements électromagnétiques. Cette modélisation (à base d’algorithmes génétiques) permet de remplacer les dispositifs ou les boîtiers rayonnants (composites notamment) par un ensemble de dipôles élémentaires. Le modèle équivalent, de type "boîte noire", est ainsi représentatif de l’ensemble de la structure en termes de rayonnement électromagnétique en hautes fréquences et est facilement intégrable dans le maillage de structures hôtes. Ce modèle multipolaire fournit des prédictions spatiales et fréquentielles du champ électrique et magnétique permettant entre autres de calculer l'efficacité de blindage du boîtier dans l'espace, donnant ainsi un moyen de quantifier son impact perturbateur sur son environnement. D'autre part, cette approche permet de simplifier l'analyse 3D d'un système complet abritant des boîtiers composites en contrôlant le comportement EM à tous les niveaux : système, boîtiers, cartes, circuits et composants. / The modeling of composite materials is a domain of study which benefits of increasingly interest. Indeed, the popularization of the use of such materials requires the development of new models in order to better understand their behavior. The automotive and aerospace industry strives to optimize material selection based on the specificities of each application in order to reduce the weight of the equipment and to provide better mechanical and thermal characteristics. Composite materials have been also presented as a potential alternative to metals for the role of electromagnetic shielding. Their generalization in this context is nevertheless hampered by a relative lack of knowledge of their electromagnetic behavior. For this purpose, it is necessary to have methodologies to evaluate the shielding effectiveness of composite enclosures and identify the different corresponding mechanisms and parameters.Moreover, the deployment of these alternative materials on a larger scale is hindered by other constraints related mainly to the difficulty of complete 3D analysis of complex systems including composite enclosures. In fact, the topological complexity of certain components greatly complicates their integration into existing electromagnetic simulation tools. Moreover, the scale ratio between the different levels (system, composite enclosures, electronic card, circuit, component) is too large ; This disparity of scale complexifies considerably the geometrical discretization of the entire system. The combination of these different constraints leads to real difficulties to which EMC engineers face. That is why it is necessary to develop efficient models to facilitate the 3D analysis of the complete host system.This work is therefore divided in two sections :- In a first time, we present a methodology to calculate shielding effectiveness of composite enclosures of electronic equipment. The goal is to evaluate the potential of these materials in terms of electromagnetic shielding and to identify the main contributing factors.- In a second time, and in order to ensure compliance of complex electronic systems incorporating composite shielding enclosures with the stringent requirements of EMC, we propose a modeling methodology of electronic devices radiation. This modeling (based on genetic algorithms) allows to replace the radiating devices and enclosures (especially composites) by a set of elementary dipoles. The equivalent model, "black box" type, is thus representative of the entire structure in terms of high frequency electromagnetic radiation and is easily integrable in the mesh of host structures. This multipolar model provides spatial and frequency predictions of the electric and magnetic field, enabling among others to calculate the shielding effectiveness of the radiating enclosure in space, thereby giving a way to quantify its disruptive impact on its environment. Moreover, this approach allow to simplify the 3D analysis of a complete system comprising composite enclosures by controlling the EM behavior at all levels: system, enclosures, cards, circuits and components.
12

Signatures moléculaires dans les vents de disque MHD des proto-étoiles de faible masse

Yvart, Walter 04 October 2013 (has links) (PDF)
Le phénomène de jet apparaît couplé à l'accrétion, son rôle et son impact dans le contexte de la formation stellaire et planétaire restent des questions majeures. Nous explorons la possibilité que les jets moléculaires soient issus de vents de disque magnétocentrifuges contenant des grains, et possibilité qu'ils puissent expliquer les composantes larges observées dans les raies H2O avec Herschel/HIFI, ainsi que les observations à haute résolution au VLT. Notre modèle inclut : 1) Une solution MHD auto-similaire de vent de disque. 2) Une chimie ionisée hors équilibre le long des lignes d'écoulement. 3) Un chauffage dominé par la diffusion ambipolaire et une irradiation du gaz par les rayonnements X et UV de l'étoile. 4) Un auto-écrantage de H2 et de CO calculé globalement. 5) Les niveaux ro-vibrationnels et le transfert radiatif associé de H2, CO et H2O calculés hors équilibre. 6) Le pompage infrarouge des niveaux de CO et H2O par les poussières. 7) La projection de la probabilité d'échappement des photons non-isotrope sur la ligne de visée. Pour la première fois, un modèle dynamique de vent de disque permet de faire des prédictions synthétiques dans les raies moléculaires qui sont directement comparables aux observations de proto-étoiles. Nous proposons un outil puissant ouvert aux observations avec ALMA et le VTL.
13

Modèles prudents en apprentissage statistique supervisé / Cautious models in supervised machine learning

Yang, Gen 22 March 2016 (has links)
Dans certains champs d’apprentissage supervisé (e.g. diagnostic médical, vision artificielle), les modèles prédictifs sont non seulement évalués sur leur précision mais également sur la capacité à l'obtention d'une représentation plus fiable des données et des connaissances qu'elles induisent, afin d'assister la prise de décisions de manière prudente. C'est la problématique étudiée dans le cadre de cette thèse. Plus spécifiquement, nous avons examiné deux approches existantes de la littérature de l'apprentissage statistique pour rendre les modèles et les prédictions plus prudents et plus fiables: le cadre des probabilités imprécises et l'apprentissage sensible aux coûts. Ces deux domaines visent tous les deux à rendre les modèles d'apprentissage et les inférences plus fiables et plus prudents. Pourtant peu de travaux existants ont tenté de les relier, en raison de problèmes à la fois théorique et pratique. Nos contributions consistent à clarifier et à résoudre ces problèmes. Sur le plan théorique, peu de travaux existants ont abordé la manière de quantifier les différentes erreurs de classification quand des prédictions sous forme d'ensembles sont produites et quand ces erreurs ne se valent pas (en termes de conséquences). Notre première contribution a donc été d'établir des propriétés générales et des lignes directrices permettant la quantification des coûts d'erreurs de classification pour les prédictions sous forme d'ensembles. Ces propriétés nous ont permis de dériver une formule générale, le coût affaiblie généralisé (CAG), qui rend possible la comparaison des classifieurs quelle que soit la forme de leurs prédictions (singleton ou ensemble) en tenant compte d'un paramètre d'aversion à la prudence. Sur le plan pratique, la plupart des classifieurs utilisant les probabilités imprécises ne permettent pas d'intégrer des coûts d'erreurs de classification génériques de manière simple, car la complexité du calcul augmente de magnitude lorsque des coûts non unitaires sont utilisés. Ce problème a mené à notre deuxième contribution, la mise en place d'un classifieur qui permet de gérer les intervalles de probabilités produits par les probabilités imprécises et les coûts d'erreurs génériques avec le même ordre de complexité que dans le cas où les probabilités standards et les coûts unitaires sont utilisés. Il s'agit d'utiliser une technique de décomposition binaire, les dichotomies emboîtées. Les propriétés et les pré-requis de ce classifieur ont été étudiés en détail. Nous avons notamment pu voir que les dichotomies emboîtées sont applicables à tout modèle probabiliste imprécis et permettent de réduire le niveau d'indétermination du modèle imprécis sans perte de pouvoir prédictif. Des expériences variées ont été menées tout au long de la thèse pour appuyer nos contributions. Nous avons caractérisé le comportement du CAG à l’aide des jeux de données ordinales. Ces expériences ont mis en évidence les différences entre un modèle basé sur les probabilités standards pour produire des prédictions indéterminées et un modèle utilisant les probabilités imprécises. Ce dernier est en général plus compétent car il permet de distinguer deux sources d'indétermination (l'ambiguïté et le manque d'informations), même si l'utilisation conjointe de ces deux types de modèles présente également un intérêt particulier dans l'optique d'assister le décideur à améliorer les données ou les classifieurs. De plus, des expériences sur une grande variété de jeux de données ont montré que l'utilisation des dichotomies emboîtées permet d'améliorer significativement le pouvoir prédictif d'un modèle imprécis avec des coûts génériques. / In some areas of supervised machine learning (e.g. medical diagnostics, computer vision), predictive models are not only evaluated on their accuracy but also on their ability to obtain more reliable representation of the data and the induced knowledge, in order to allow for cautious decision making. This is the problem we studied in this thesis. Specifically, we examined two existing approaches of the literature to make models and predictions more cautious and more reliable: the framework of imprecise probabilities and the one of cost-sensitive learning. These two areas are both used to make models and inferences more reliable and cautious. Yet few existing studies have attempted to bridge these two frameworks due to both theoretical and practical problems. Our contributions are to clarify and to resolve these problems. Theoretically, few existing studies have addressed how to quantify the different classification errors when set-valued predictions are produced and when the costs of mistakes are not equal (in terms of consequences). Our first contribution has been to establish general properties and guidelines for quantifying the misclassification costs for set-valued predictions. These properties have led us to derive a general formula, that we call the generalized discounted cost (GDC), which allow the comparison of classifiers whatever the form of their predictions (singleton or set-valued) in the light of a risk aversion parameter. Practically, most classifiers basing on imprecise probabilities fail to integrate generic misclassification costs efficiently because the computational complexity increases by an order (or more) of magnitude when non unitary costs are used. This problem has led to our second contribution, the implementation of a classifier that can manage the probability intervals produced by imprecise probabilities and the generic error costs with the same order of complexity as in the case where standard probabilities and unitary costs are used. This is to use a binary decomposition technique, the nested dichotomies. The properties and prerequisites of this technique have been studied in detail. In particular, we saw that the nested dichotomies are applicable to all imprecise probabilistic models and they reduce the imprecision level of imprecise models without loss of predictive power. Various experiments were conducted throughout the thesis to illustrate and support our contributions. We characterized the behavior of the GDC using ordinal data sets. These experiences have highlighted the differences between a model based on standard probability framework to produce indeterminate predictions and a model based on imprecise probabilities. The latter is generally more competent because it distinguishes two sources of uncertainty (ambiguity and the lack of information), even if the combined use of these two types of models is also of particular interest as it can assist the decision-maker to improve the data quality or the classifiers. In addition, experiments conducted on a wide variety of data sets showed that the use of nested dichotomies significantly improves the predictive power of an indeterminate model with generic costs.
14

Évolution du cancer du testicule en Europe : expositions environnementales et professionnelles / Burden of testicular cancer in Europe : environmental and occupational exposures

Le Cornet, Charlotte 10 December 2014 (has links)
Les tumeurs germinales du testicule (TGT) représentent le cancer le plus fréquent chez les hommes Européens âgés de 15 et 39 ans. L'incidence a doublé dans la plupart des pays Européens depuis 30 ans. Cette augmentation rapide, les variations géographiques d'incidence et les études chez les populations migrantes suggèrent un rôle des facteurs environnementaux dans le développement des TGT. Cette thèse propose de contribuer à l'amélioration des connaissances concernant l'évolution du TGT en clarifiant l'impact des expositions environnementales et professionnelles, notamment pendant la période prénatale. Les objectifs principaux sont de: 1. Prédire l'incidence du TGT jusqu'en 2025 en estimant la part d'augmentation due aux changements démographiques afin d'obtenir une estimation de l'augmentation due aux risques. 2. Faire un bilan de l'état des connaissances sur l'association entre les expositions environnementales et professionnelles et le développement du TGT dans une revue systématique de littérature 3. Investiguer l'association entre l'exposition parentale professionnelle aux pesticides en période prénatale et le TGT parmi la descendance Les résultats montrent que l'incidence du TGT continue d'augmenter, mettant en avant un fort impact environnemental dans l'évolution du TGT. Néanmoins, la revue de littérature ne permettait pas d'identifier de facteurs de risque environnementaux avérés, mais montrait un manque d'études investiguant les expositions prénatales sur le risque de TGT. L'étude NORD-TEST menée sur les données de registre de quatre pays nordiques est l'étude la plus puissante à ce jour et ne montre aucune association entre l'exposition parentale professionnelle aux pesticides en période prénatale et le TGT / Testicular germ cell tumours (TGCT) are the most common cancer diagnosed among young European men aged between 15 and 39 years. TGCT incidence rates have doubled in most European countries over the last 30 years. This rapid increase in incidence, the geographical variations and the studies in migrant populations suggest a role of environmental factors in TGCT aetiology. This thesis aims to contribute to the knowledge of TGCT evolution by studying the impact of environmental and occupational exposures, especially during the prenatal period. The objectives are: 1. To estimate the proportion of the increased incidence due to overall changes in risk patterns compared to the proportion due to demographic changes, by predicting the future testicular cancer trends in Europe 2. To summarize and evaluate the current knowledge on environmental and occupational exposures related to TGCT risk by means of a systematic literature review 3. To investigate the association between the prenatal parental occupational exposure to pesticides and TGCT risk in the offspring. The results show that the TGCT incidence continues to increase, supporting an environmental impact on TGCT evolution. From the epidemiological literature to date no specific environmental risk factors emerge; however, there have clearly been a lack of studies investigating prenatal exposures on TGCT risk. The NORD-TEST study, based on registry data from four Nordic countries, is the largest study to date. No association was found between parental occupational exposure to pesticides during prenatal period and TGCT risk
15

Prédiction des éruptions solaires par assimilation de données avec les modèles d’avalanches

Thibeault, Christian 08 1900 (has links)
Les éruptions solaires sont des tempêtes de rayonnement électromagnétique, de particules relativistes et parfois de masse coronale provoquées par la libération d’énergie magnétique provenant de la couronne solaire. Si ces tempêtes atteignent l'environnement terrestre, elles peuvent poser un danger à la santé des astronautes en hautes orbites et causer des perturbations importantes sur les systèmes GPS. Dans certains cas, elles peuvent même induire des dommages aux infrastructures technologiques, dont les réseaux électriques. La prédiction des éruptions solaires est donc considérée comme un des plus importants défis de la météorologie spatiale. Par contre, à ce jour, aucune méthode présentée dans la littérature n’est capable de produire des prédictions fiables, ce qui met en évidence la nature complexe du déclenchement des éruptions solaires. Nous présentons donc dans ce mémoire une méthode alternative aux techniques statistiques habituelles, basée sur l'assimilation de données couplée avec des modèles rapides en automate cellulaire appelés modèles d'avalanche. Les modèles d'avalanche sont une simplification drastique de la physique du déclenchement des éruptions solaires. Malgré leur simplicité, ils reproduisent assez bien les statistiques à long terme de la taille des éruptions. Nous présentons dans ce mémoire des analyses empiriques de la capacité prédictive de quatre modèles: le modèle de Lu et Hamilton (LH) (Lu & Hamilton, 1991, ApJ, 412, 841-852), deux modèles à forçage déterministes (D) (Strugarek & Charbonneau, 2014, SoPh, 289(8), 2993-3015) et finalement deux modèles maximisant l'énergie libérée, appelées modèles DMC, qui sont fortement inspirés du modèle présenté par Farhang et al. (2018, ApJ, 859(1), 41). Les modèles DMC ont été développés dans le cadre de cette maîtrise et donc un chapitre de ce mémoire est dédié à leur présentation et aux analyses plus détaillées de leurs caractéristiques. Nous montrons que pour les modèles D ainsi que les modèles DMC, une mémoire existe entre les évènements simulés de grandes tailles, malgré la forte stochasticité de chacun de ces modèles. Nous présentons de plus dans ce mémoire un nouveau protocole de prédiction des éruptions solaires, utilisant l'assimilation de données couplée avec les modèles d'avalanches. Notre protocole se base sur une méthode de recuit simulé pour ajuster la condition initiale du modèle jusqu'à ce qu'elle reproduise de façon satisfaisante une série d'évènements observés. Une fois cette condition initiale optimisée produite, la simulation qui en résulte représente notre prédiction. Nous montrons dans ce mémoire le succès de notre protocole à bien assimiler une centaine d'observations synthétiques (produit par les modèles d'avalanche eux-mêmes). / Solar flares are sudden releases of electromagnetic radiation, relativistic particles and occasionally coronal mass, caused by the release of magnetic energy from the solar corona. They pose a danger to astronauts in high orbits and directly impact the Earth, including significant disturbances on GPS systems, and can even cause damage to technological infrastructures, including electrical networks. Predicting solar flares is therefore considered to be one of the most critical challenges in space weather. However, no method presented in the literature can produce reliable predictions, highlighting the complex nature of the triggering of solar flares. We, therefore, present in this thesis an alternative method to the usual statistical forecasting techniques. Our method is based on data assimilation coupled with computationally inexpensive cellular automaton models called avalanche models. Avalanche models are a drastic simplification of the physics underlying the triggering of solar flares. Despite their simplicity, they reproduce reasonably well the long-term statistics of solar flares sizes. In this thesis, we present empirical analyses of the predictive capabilities of four models: the Lu and Hamilton (LH) model (Lu & Hamilton, 1991, ApJ, 412, 841-852), two deterministic-driven (D) models (Strugarek & Charbonneau, 2014, SoPh, 289(8), 2993-3015) and finally two models using the principle of minimum energy during magnetic reconnection, called DMC models, which are strongly inspired by the models presented by Farhang et al. (2018, ApJ, 859(1), 41). The DMC models were developed during this project; therefore, a chapter of this thesis is dedicated to their presentation and more detailed analyses of their characteristics. We show that for D and DMC models, a memory exists between large simulated events, despite the high stochasticity present within each of these models. We finally present in this thesis a new protocol for predicting solar flares, using data assimilation coupled with avalanche models. Our protocol is based on a simulated annealing method to adjust the initial condition of the model until it satisfactorily reproduces a series of observed events. Once this optimal initial condition is found, the resulting simulation produces our prediction. In this thesis, we show our algorithm's success in assimilating hundreds of synthetic observations (produced by the avalanche models themselves).
16

Prédictions dans le domaine auditif : études électrophysiologiques

Simal, Amour 06 1900 (has links)
Le but de cette thèse était d’étudier les processus de prédiction dans le domaine auditif et de l’activité cérébrale associée à ces prédictions. L’électroencéphalographie a été utilisée afin de mesurer l’activité électrique du cerveau, ainsi que la technique de potentiels reliés aux évènements (PRE) qui permet de mesurer l’activité lié à des processus d’intérêt à la milliseconde près. La grande majorité des études existantes s’intéressent aux prédictions de manière indirecte, par l’observation de signaux d’erreur ou de confirmation de prédictions. Contrairement à ces études, nous avons développé des paradigmes novateurs qui permettent de créer un contexte dans lequel un ou plusieurs stimuli permettent de générer des prédictions. Dans une première étude, les résultats démontrent qu’un son qui permet la prédiction de sons subséquents est accompagné d’une augmentation de l’amplitude des composantes de PRE auditives, la N1 et plus particulièrement la P2, aux électrodes frontocentrales. Dans une seconde étude, cette modulation était entrainée par une modification marquée des oscillations entre 4 et 7 Hz, dans la bande de fréquence thêta. Une troisième étude, était focalisé sur l’activité de PRE en lien avec des prédictions d’ordre temporel. En créant des patrons rhythmiques contextuels dans l’expérience, nous avons pu observer qu’un son qui permet d’identifier le patron, et donc d’anticiper la suite, génère une positivité précoce, et ce, même si le patron rhythmique est non-pertinent à l’exécution de la tâche. Ces études sont une démonstration de faisabilité et fondent une base solide pour la poursuite de la recherche sur les processus dynamiques liés à la génération de prédictions. / The goal of this thesis was to study predictive processes in the auditory domain, and to find the electrophysiological signature associated with those processes. We used electroencephalography to measure the brain electrical activity, as well as the event-related potentials technique (ERP), allowing us to measure brain activity of interest with a millisecond precision. The majority of existing studies that look at predictive processes indirectly, by measuring prediction error or prediction confirmation. Contrary to those studies, we developed novel paradigms that allowed us to generate contexts in which one or more specific auditory stimuli allow the generation of predictions. In a first study, we showed a tone allowing the prediction of other tones to be presented elicits larger N1 and P2 auditory ERP components at frontocentral electrodes. In a second study, we showed this modulation is driven by an increase in oscillatory activity in the theta frequency band, between 4 and 7 Hz. In the third study of this thesis, we were interested in ERP activity related to temporal predictions. By creating contextual rhythmic patterns, we were able to determine that a tone allowing identification of the currently heard pattern, that would allow prediction of when other tones are to be heard, generate and early positivity, even though the rhythmic pattern was task irrelevant. These studies are proof of concept and a solid basis for future research on the dynamics related to predictions in the brain.
17

L’analyse de composants émotionnels dans des stratégies d’apprentissage

Cioboiu, Emilia Alina 08 1900 (has links)
Un certain nombre de théories pédagogiques ont été établies depuis plus de 20 ans. Elles font appel aux réactions de l’apprenant en situation d’apprentissage, mais aucune théorie pédagogique n’a pu décrire complètement un processus d’enseignement en tenant compte de toutes les réactions émotionnelles de l’apprenant. Nous souhaitons intégrer les émotions de l’apprenant dans ces processus d’apprentissage, car elles sont importantes dans les mécanismes d’acquisition de connaissances et dans la mémorisation. Récemment on a vu que le facteur émotionnel est considéré jouer un rôle très important dans les processus cognitifs. Modéliser les réactions émotionnelles d’un apprenant en cours du processus d’apprentissage est une nouveauté pour un Système Tutoriel Intelligent. Pour réaliser notre recherche, nous examinerons les théories pédagogiques qui n’ont pas considéré les émotions de l’apprenant. Jusqu’à maintenant, aucun Système Tutoriel Intelligent destiné à l’enseignement n’a incorporé la notion de facteur émotionnel pour un apprenant humain. Notre premier objectif est d’analyser quelques stratégies pédagogiques et de détecter les composantes émotionnelles qui peuvent y être ou non. Nous cherchons à déterminer dans cette analyse quel type de méthode didactique est utilisé, autrement dit, que fait le tuteur pour prévoir et aider l’apprenant à accomplir sa tâche d’apprentissage dans des conditions optimales. Le deuxième objectif est de proposer l’amélioration de ces méthodes en ajoutant les facteurs émotionnels. On les nommera des « méthodes émotionnelles ». Le dernier objectif vise à expérimenter le modèle d’une théorie pédagogique améliorée en ajoutant les facteurs émotionnels. Dans le cadre de cette recherche nous analyserons un certain nombre de théories pédagogiques, parmi lesquelles les théories de Robert Gagné, Jerome Bruner, Herbert J. Klausmeier et David Merrill, pour chercher à identifier les composantes émotionnelles. Aucune théorie pédagogique n’a mis l’accent sur les émotions au cours du processus d’apprentissage. Ces théories pédagogiques sont développées en tenant compte de plusieurs facteurs externes qui peuvent influencer le processus d’apprentissage. Nous proposons une approche basée sur la prédiction d’émotions qui est liée à de potentielles causes déclenchées par différents facteurs déterminants au cours du processus d’apprentissage. Nous voulons développer une technique qui permette au tuteur de traiter la réaction émotionnelle de l’apprenant à un moment donné au cours de son processus d’apprentissage et de l’inclure dans une méthode pédagogique. Pour atteindre le deuxième objectif de notre recherche, nous utiliserons un module tuteur apprenant basé sur le principe de l’éducation des émotions de l’apprenant, modèle qui vise premièrement sa personnalité et deuxièmement ses connaissances. Si on défini l’apprenant, on peut prédire ses réactions émotionnelles (positives ou négatives) et on peut s’assurer de la bonne disposition de l’apprenant, de sa coopération, sa communication et l’optimisme nécessaires à régler les problèmes émotionnels. Pour atteindre le troisième objectif, nous proposons une technique qui permet au tuteur de résoudre un problème de réaction émotionnelle de l’apprenant à un moment donné du processus d’apprentissage. Nous appliquerons cette technique à une théorie pédagogique. Pour cette première théorie, nous étudierons l’effet produit par certaines stratégies pédagogiques d’un tuteur virtuel au sujet de l’état émotionnel de l’apprenant, et pour ce faire, nous développerons une structure de données en ligne qu’un agent tuteur virtuel peut induire à l’apprenant des émotions positives. Nous analyserons les résultats expérimentaux en utilisant la première théorie et nous les comparerons ensuite avec trois autres théories que nous avons proposées d’étudier. En procédant de la sorte, nous atteindrons le troisième objectif de notre recherche, celui d’expérimenter un modèle d’une théorie pédagogique et de le comparer ensuite avec d’autres théories dans le but de développer ou d’améliorer les méthodes émotionnelles. Nous analyserons les avantages, mais aussi les insuffisances de ces théories par rapport au comportement émotionnel de l’apprenant. En guise de conclusion de cette recherche, nous retiendrons de meilleures théories pédagogiques ou bien nous suggérerons un moyen de les améliorer. / A number of educational theories have been established for over 20 years. They use the learner’s reactions in a learning situation, but no educational theory could fully describe an educational process taking into account all the emotional reactions of a learner. We want to integrate the learner’s emotions in these learning processes, as they are important in the mechanisms of learning and memory. Recently we saw that emotional factor is considered to play an important role in cognitive processes. Modeling a learner’s emotional reactions during the learning process is a novelty for an Intelligent Tutorial System. To achieve our research, we will examine educational theories which did not consider the learner’s emotions. Until now, no Intelligent Tutorial System for teaching has incorporated the concept of emotional factor of a human learner. Our first objective is to analyze a few strategies and detect emotional components that may be there or not. We seek to determine what type of teaching method is used, in other words, what the tutor is doing to predict and assist the learner to accomplish his/her learning task under optimal conditions. The second objective is to improve these methods by adding the emotional factors. They are so called “emotional methods”. The final objective is to test the model of an improved educational theory by adding the emotional factors. As part of this research we analyze a number of educational theories, including theories of Robert Gagné, Jerome Bruner, Herbert J. Klausmeier and David Merrill, in seeking to identify the emotional components. No educational theory has focused on emotions during the learning process. These educational theories are developed taking into account several factors that can influence the learning process. We propose an approach based on emotion prediction that is linked to potential causes triggered by different factors in the learning process. We want to develop a technique that allows the tutor to deal with the learner’s emotional reaction at any given time during the learning process and to include it in a teaching method. To achieve the second objective of our research, we use a learning tutor model based on the principle of educating the learner’s emotions, model which first seeks the person’s personality and second the person's knowledge. If we know the learner’s personality, we can predict his/her emotional reactions (positive or negative) and we can ensure the proper disposal of the learner, his cooperation, communication and optimism necessary to resolve emotional problems. In order to achieve the third objective, we propose a technique that allows the tutor to solve an emotional reaction problem of the learner at a given moment during the learning process. We apply this technique to an educational theory. For this first theory, we study the effect of certain educational strategies of a virtual tutor about the learner’s emotional state, and to this end, we develop an online data structure with which a virtual tutor can induce positive emotions to the learner. We analyze the experimental results using the first theory and then we compare them with three other theories proposed for study. In doing so, we reach the third objective of our research, which is to test an educational theory model and then compare it with other theories in order to develop or improve the emotional methods. We analyze the advantages, but also the shortcomings of these theories compared to a learner’s emotional behaviour. In conclusion, we will keep the best educational theories or we will suggest a way to improve them.
18

The moral difference between premature infants and neonates compared to older patients

Janvier, Annie January 2007 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
19

Caractérisation des réservoirs basée sur des textures des images scanners de carottes

Jouini, Mohamed Soufiane 04 February 2009 (has links)
Les carottes, extraites lors des forages de puits de pétrole, font partie des éléments les plus importants dans la chaîne de caractérisation de réservoir. L’acquisition de celles-ci à travers un scanner médical permet d’étudier de façon plus fine les variations des types de dépôts. Le but de cette thèse est d’établir les liens entre les imageries scanners 3D de carottes, et les différentes propriétés pétrophysiques et géologiques. Pour cela la phase de modélisation des images, et plus particulièrement des textures, est très importante et doit fournir des descripteurs extraits qui présentent un assez haut degrés de confiance. Une des solutions envisagée pour la recherche de descripteurs a été l’étude des méthodes paramétriques permettant de valider l’analyse faite sur les textures par un processus de synthèse. Bien que ceci ne représente pas une preuve pour un lien bijectif entre textures et paramètres, cela garantit cependant au moins une confiance en ces éléments. Dans cette thèse nous présentons des méthodes et algorithmes développés pour atteindre les objectifs suivants : 1. Mettre en évidence les zones d’homogénéités sur les zones carottées. Cela se fait de façon automatique à travers de la classification et de l’apprentissage basés sur les paramètres texturaux extraits. 2. Établir les liens existants entre images scanners et les propriétés pétrophysiques de la roche. Ceci se fait par prédiction de propriétés pétrophysiques basées sur l’apprentissage des textures et des calibrations grâce aux données réelles. . / Cores extracted, during wells drilling, are essential data for reservoirs characterization. A medical scanner is used for their acquisition. This feature provide high resolution images improving the capacity of interpretation. The main goal of the thesis is to establish links between these images and petrophysical data. Then parametric texture modelling can be used to achieve this goal and should provide reliable set of descriptors. A possible solution is to focus on parametric methods allowing synthesis. Even though, this method is not a proven mathematically, it provides high confidence on set of descriptors and allows interpretation into synthetic textures. In this thesis methods and algorithms were developed to achieve the following goals : 1. Segment main representative texture zones on cores. This is achieved automatically through learning and classifying textures based on parametric model. 2. Find links between scanner images and petrophysical parameters. This is achieved though calibrating and predicting petrophysical data with images (Supervised Learning Process).
20

Modélisation mathématique de la dynamique de diffusion de bactéries résistantes aux antibiotiques : application au pneumocoque

Opatowski, Lulla 05 March 2009 (has links) (PDF)
L'objectif de cette thèse est de développer des outils de modélisation mathématique afin d'étudier la dynamique de transmission des souches de pneumocoque dans la communauté. La dynamique d'émergence et de diffusion de bactéries résistantes dans la population est difficile à anticiper : les phénomènes se produisent à différentes échelles (bactérie, hôte et population) et les bactéries circulent dans des environnements humains complexes (nombreux antibiotiques et vaccins). Dans ce cadre, la formalisation mathématique et la simulation peuvent contribuer à mieux comprendre et anticiper les phénomènes en jeu. Trois questions principales sont posées dans ce travail. Elles portent sur : l'effet d'une modification de l'exposition antibiotique sur la distribution des résistances du pneumocoque ; les conséquences de l'usage de vaccins conjugués sur les distributions de souches ; et l'étude de la dynamique d'incidence des méningites à pneumocoque. Pour y répondre, 4 modèles mathématiques compartimentaux spécifiques sont construits. Les résultats des simulations renforcent l'idée que l'exposition antibiotique est un facteur environnemental majeur pour la sélection des pneumocoques résistants aux antibiotiques. En particulier, ils mettent en évidence l'importance du choix des molécules antibiotiques utilisées et des doses prescrites sur la distribution des résistances dans la population. Ils suggèrent de plus que les virus hivernaux, la consommation antibiotique et l'épidémicité différenciée en fonction de la résistance pourraient expliquer en partie la dynamique des méningites à pneumocoque dans la population.

Page generated in 0.1147 seconds