Spelling suggestions: "subject:"sinogramme"" "subject:"sinograms""
1 |
L'intercompréhension en langues sinogrammiques : théories, représentations, enjeux, et modalités d'une didactique de la variation / The intercomprehension between Sinogramic languages : theory, representations, challenges and method for didactics of variationGoudin, Yoann 08 December 2017 (has links)
Cette thèse traite des fondements et modalités d'une didactique de l'intercompréhension entre les langues qui, au cours de leur histoire, ont été en contact avec la langue et l'écriture chinoises, et dont les lexiques contemporains conservent une trace profonde. Cette étude explore dans quelle mesure il est possible de concevoir un enseignement-apprentissage qui tiendrait compte des acquis d'une première expérience d'apprentissage d'une de ces langues pour en apprendre une autre. La thèse défendue repose sur une refondation didactique du sinogramme au moyen d'une réévaluation non plus seulement graphique mais surtout phonologique afin d'entraîner les apprenants à émettre des hypothèses quant à la réalisation de ces sinogrammes dans la langue-cible. Il y a trois parties. Premièrement, il s'agit d'une discussion épistémologique sur la connaissance de l'écriture chinoise en Europe, la réduction de ce système à sa seule dimension graphique - voire idéographique - et l'incapacité des savants européens à intégrer la culture phonologique très développée qui constitue selon cette thèse la matrice sur laquelle fonder l'intercompréhension entre les langues d'Asie Orientale à l'instar de la grammaire contrastive pour les langues romanes. Ensuite, après une recontextualisation des différentes approches didactique des sinogrammes, sont traitées les modalités mises en œuvre pour préparer à l'intercompréhension : tout d'abord, une refondation de l'enseignement-apprentissage du système sinogrammique non plus au moyen de la programmation des types les plus fréquents dans les lexiques contemporains, mais à travers une approche globale incluant la compréhension des principes de toute l'économie du système graphique . Enfin, il est procédé à la présentation de la transposition sinogrammique, ultime contribution de cette thèse et opération qui permet à l'apprenant de passer de la lecture d'un sinogramme dans une langue-pont à celle dans une langue-cible. / This doctoral thesis analyzes the current teaching and learning models among languages that were, and still are, in contact with the Chinese script, and that retain this influence in their modern lexicon : the sinogramic languages. This thesis asserts that such a course can be designed through a complete didactic reformulation of how to teach sinograms, not only in their graphic dimension, but also their phonological identity, in order for the student to imagine pronouncing a sinogram in the target-language according to his/her understanding of an already acquired 'bridge-language'. The thesis is divided into three parts. First, there is an epistemological discussion of the European approach to Chinese language and script, with the sole graphic - «ideographic» - focus, which shadowed traditional phonological practices. Next, the design of an alternative approach is proposed in which sinogram-based learning is not rooted in the so called concentrated approach, according to which sinogram types are selected in order of their frequency and adaptability within the contemporary lexicon. This alternative approach is discussed based on the training of the sinogramic system as a whole: the global approach. Finally, the main process for mutual understanding, which is called sinogramic transposition, is introduced to show how students can be trained to understand and produce readings of sinograms in the target-language.
|
2 |
L'intersinographie : une étude de l’acquisition de l’écriture des caractères chinois par des apprenants francophones / Intersinography : a study of the acquisition of Chinese character writing by Francophone learnersSong, Weiyi 31 October 2017 (has links)
Cette thèse porte sur l’intersinographie, notion construite sur le modèle d’« interlangue », pour caractériser les connaissances "intermédiaires" des apprenants en matière d’écriture en langue étrangère. Nous étudions la dynamique du développement des compétences graphiques chez des apprenants francophones du chinois comme langue étrangère. Nous abordons une question cruciale pour la didactique et l’apprentissage de la langue chinoise (mandarin). En effet, à la différence des langues à écriture alphabétique, le développement d’une compétence graphique en chinois a des spécificités qui ne se réduisent pas à la transcription de la langue parlée. Cela tient évidemment à la nature de l’écriture chinoise. La maîtrise de cette dernière requiert des processus pédagogiques particuliers. Peu de travaux ont été consacrés au développement d’une compétence graphique en langue étrangère et encore moins aux compétences liées à la sinographie. Cette thèse s’articule autour d’une étude de la maîtrise de l’exécution graphique. Afin de dresser une liste des productions graphiques non conformes, nous avons établi trois corpus auprès d’apprenants du chinois langue étrangère : un corpus graphique général, un test de la graphie de 100 caractères et un corpus relevé auprès d’adolescents apprenant le français. Suite à nos études quantitatives et qualitatives (suivi des évolutions individuelles), validées par des analyses statistiques, nous proposons une démarche d’enseignement dite d’« arborescence sinographique (字树, zìshù) ». A l’heure de la digitalisation de l’information et des savoirs, cette thèse propose des pistes de réflexion originales en matière de didactique des sinogrammes. / This thesis focuses on intersinography, a concept built on the "interlanguage" model, to characterize the learner’s "intermediate" knowledge of writing in a foreign language. We study the dynamics of the development of graphic competences in French-speaking learners of Chinese as a foreign language.We address a crucial question for didactics and learning Chinese (Mandarin). Unlike languages written in an alphabet system, the development of the graphic skills necessary for writing Chinese characters is partially distinct from the learning of spoken Chinese. This is obviously due to the nature of Chinese logograms. Mastery of reading and writing in Chinese requires specific pedagogical processes, distinct from those of oral language.Little work has been devoted to the development of graphic competence in a foreign language, in particular to sinography. This thesis is based on a study of the mastery of graphical execution.In order to draw up a list of non-conforming graphic productions, we have built three corpora among learners of Chinese as a foreign language: a corpus of writings from adolescents (the adolescent corpus), a test for diagnosing written competency (the 100-character test), and a general-use corpus of character writings (the general graphic corpus).Following our quantitative and qualitative studies (follow-up of individual evolutions), and validated by statistical analyzes, we propose a method of teaching called the "sinographic tree (字树, zìshù)". In the age of the digitization of information and knowledge, this thesis proposes unique reflection on the teaching of the sinograms.
|
3 |
Les algorithmes de haute résolution en tomographie d'émission par positrons : développement et accélération sur les cartes graphiquesNassiri, Moulay Ali 05 1900 (has links)
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul.
Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP.
Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes :
- Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement.
- Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées.
Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies. / Positron emission tomography (PET) is a molecular imaging modality that uses radiotracers labeled with positron emitting isotopes in order to quantify many biological processes. The clinical applications of this modality are largely in oncology, but it has a potential to be a reference exam for many diseases in cardiology, neurology and pharmacology. In fact, it is intrinsically able to offer the functional information of cellular metabolism with a good sensitivity. The principal limitations of this modality are the limited spatial resolution and the limited accuracy of the quantification. To overcome these limits, the recent PET systems use a huge number of small detectors with better performances. The image reconstruction is also done using accurate algorithms such as the iterative stochastic algorithms. But as a consequence, the time of reconstruction becomes too long for a clinical use. So the acquired data are compressed and the accelerated versions of iterative stochastic algorithms which generally are non convergent are used to perform the reconstruction. Consequently, the obtained performance is compromised.
In order to be able to use the complex reconstruction algorithms in clinical applications for the new PET systems, many previous studies were aiming to accelerate these algorithms on GPU devices. Therefore, in this thesis, we joined the effort of researchers for developing and introducing for routine clinical use the accurate reconstruction algorithms that improve the spatial resolution and the accuracy of quantification for PET.
Therefore, we first worked to develop the new strategies for accelerating on GPU devices the reconstruction from list mode acquisition. In fact, this mode offers many advantages over the histogram-mode, such as motion correction, the possibility of using time-of-flight (TOF) information to improve the quantification accuracy, the possibility of using temporal basis functions to perform 4D reconstruction and extract kinetic parameters with better accuracy directly from the acquired data. But, one of the main obstacles that limits the use of list-mode reconstruction approach for routine clinical use is the relatively long reconstruction time. To overcome this obstacle we :
developed a new strategy to accelerate on GPU devices fully 3D list mode ordered-subset expectation-maximization (LM-OSEM) algorithm, including the calculation of the sensitivity matrix that accounts for the patient-specific attenuation and normalisation corrections. The reported reconstruction are not only compatible with a clinical use of 3D LM-OSEM algorithms, but also lets us envision fast reconstructions for advanced PET applications such as real time dynamic studies and parametric image reconstructions.
developed and implemented on GPU a multigrid/multiframe approach of an expectation-maximization algorithm for list-mode acquisitions (MGMF-LMEM). The objective is to develop new strategies to accelerate the reconstruction of gold standard LMEM (list-mode expectation-maximization) algorithm which converges slowly. The GPU-based MGMF-LMEM algorithm processed data at a rate close to one million of events per second per iteration, and permits to perform near real-time reconstructions for large acquisitions or low-count acquisitions such as gated studies.
Moreover, for clinical use, the quantification is often done from acquired data organized in sinograms. This data is generally compressed in order to accelerate reconstruction. But previous works have shown that this approach to accelerate the reconstruction decreases the accuracy of quantification and the spatial resolution. The ordered-subset expectation-maximization (OSEM) is the most used reconstruction algorithm from sinograms in clinic. Thus, we parallelized and implemented the attenuation-weighted line-of-response OSEM (AW-LOR-OSEM) algorithm which allows a PET image reconstruction from sinograms without any data compression and incorporates the attenuation and normalization corrections in the sensitivity matrices as weight factors. We compared two strategies of implementation: in the first, the system matrix (SM) is calculated on the fly during the reconstruction, while the second implementation uses a precalculated SM more accurately. The results show that the computational efficiency is about twice better for the implementation using calculated SM on-the-fly than the implementation using pre-calculated SM, but the reported reconstruction times are compatible with a clinical use for both strategies.
|
Page generated in 0.0535 seconds