• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 384
  • 223
  • 80
  • 31
  • 17
  • 13
  • 10
  • 9
  • 8
  • 7
  • 4
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 800
  • 199
  • 122
  • 90
  • 90
  • 89
  • 82
  • 79
  • 71
  • 68
  • 61
  • 57
  • 56
  • 55
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
431

Conception et évaluation des plans de surveillance basés sur le risque. Limitation des incertitudes qualité avec des ressources limitées de maîtrise

Bettayeb, Belgacem 26 June 2012 (has links) (PDF)
La compétitivité d'une entreprise est conditionnée par l'aptitude de son organisation de trouver des solutions pour améliorer l'efficacité de son processus de fabrication en maîtrisant sa variabilité tout en garantissant des coûts bas, des délais réduits et, parfois, une certaine capacité de produire à des grands volumes. La maîtrise du processus de fabrication est un ensemble d'activités réalisées par un processus opérationnel de contrôle en suivant un plan de surveillance préétabli avec des objectifs précis en termes de maîtrise des risques. La mise en application du plan de surveillance est souvent mise à mal par : les aléas liées aux flux physiques et informationnels, l'interaction du processus de contrôle avec d'autres processus opérationnels de l'entreprise et les limitations en ressources de maîtrise. L'objectif de cette thèse était de répondre à cette problématique en proposant des approches nouvelles pour la conception des plans de surveillance. Pour cela, nous proposons une approche assurantielle permettant de définir un plan de surveillance qui limite l'exposition aux risques et optimise l'utilisation des ressources de maîtrise. Une formalisation simplifiée a permit d'expliquer cette approche à travers des exemples. Les résultats des expérimentations sur un cas industriel, montrent l'intérêt de l'approche pour la maîtrise des risques opérationnels dans un processus de fabrication. Par la suite, une formalisation généralisée de l'approche a été proposé concevoir le plan de surveillance généralisé d'un processus disposant d'un ensemble des moyens de contrôle interposé sur plusieurs couches le long du processus qui est assujetti à multiples risques. Mots clés : Plan de surveillance, Maîtrise des risques, Allocation des inspections, Capabilité, Capacité, Performances.
432

Modèles et méthodes numériques les études conceptuelles d'aéronefs à voilure tournante

Tremolet, Arnault 22 October 2013 (has links) (PDF)
La variété des concepts d'aéronef à voilure tournante n'a d'égal que l'étendue de leur hamp applicatif. Dès lors, se pose une question essentielle : quel concept est le plus adapté face à un certain nombre de missions ou de spécifications ? Une partie essentielle de la réponse réside dans l'étude des performances de vol et des impacts environnementaux de l'appareil. Le projet de recherche fédérateur C.R.E.A.T.I.O.N. pour " Concepts of Rotorcraft Enhanced Assessment Through Integrated Optimization Network " a pour but de mettre en place une plateforme numérique de calculs multidisciplinaires et multiniveaux capables d'évaluer de tels critères. La multidisciplinarité fait écho aux différentes disciplines associées à l'évaluation des giravions tandis que l'aspect multi-niveaux reflète la possibilité d'étudier un concept quelque soit l'état des connaissances sur ce dernier. La thèse s'inscrit dans ce projet. Une première implication est le développement de modèles de performances de vol et leur intégration dans des boucles de calcul multidisciplinaires. Au-delà de cet aspect de modélisation physique, la multidisciplinarité touche aussi le champ des mathématiques appliquées. Les méthodes d'optimisation multi objectifs multi paramètres, l'aide à la décision pour la sélection d'un optimum de meilleur compromis, l'exploration de bases de données, la création de modèles réduits sont autant de thématiques explorées dans cette thèse.
433

Synthèse d'Interface de Communication pour les Composants Virtuels

Coussy, Philippe 10 December 2003 (has links) (PDF)
Actuellement, des systèmes complets, contenant une partie logicielle et une partie matérielle, sont intégrés sur une même puce nommée Système-sur-Silicium (SoC). Pour faire face à la complexité d'intégration et maîtriser les contraintes, les équipes de recherche proposent de nouvelles méthodologies de conception qui reposent sur (1) la réutilisation de blocs logiciels ou matériels préconçus (Composant Virtuel VC, Intellectual Property IP), (2) sur l'élévation du niveau de description des applications (System-Level Design) et (3) sur l'orthogonalisation de différents aspects (fonctionnalité/architecture, calculs/communication, besoins/contraintes/choix d'implantation). Malheureusement la difficulté de réutilisation liée au niveau de description RTL (Register Transfer Level), auquel sont fournis les IPs, ne permet pas une intégration aisée et optimisée. Ainsi, les méthodologies d'intégration à base d'adaptateurs additionnels sont souvent inadaptées aux contraintes et à la spécificité des algorithmes utilisés dans le domaine du traitement du signal et de l'image (TDSI). Elles peuvent de ce fait aboutir à la violation des contraintes en terme de surface, consommation et performances du système. La synthèse de l'unité de traitement (UT) est réalisée à l'aide de l'outil GAUT (Générateur Automatique d'Unité de Traitement) dont l'ordonnancement est contraint par les paramètres temporel de l'intégrateur du composant virtuel. La synthèse de l'UT génère un ensemble de contraintes au E/S, modélisé sous la forme d'un IPERM (IP Execution Requirement Model). Ce dernier modélise (1) les dates de production et de consommation des données dans l'UT et (2) les bus sur lesquels elles transitent entre l'unité de communication et l'unité de traitement. Les modèles IPERM et IOCG sont finalement utilisés pour synthétiser l'unité de communication. Nous avons appliqué notre méthode à des algorithmes des domaines du TDSI et des Télécommunications. La première expérience est réalisée sur un exemple de Transformée de Fourrier Rapide (FFT). Pour les conditions d'expérimentation retenues, l'optimisation du nombre d'opérateurs est en moyenne de 20% et celle des registres de 7%, par rapport à une approche classique. La deuxième expérience utilise une Transformée en Cosinus Discrète (DCT) pour comparer les résultats, obtenus en appliquant l'approche d'intégration proposée dans ce manuscrit, avec les résultats des méthodes utilisant des adaptateurs. Pour l'exemple considéré, le gain sur les registres de communications varie de -2% à 88% à débit d'E/S constant. La dernière expérience, réalisée en partenariat industriel, démontre l'applicabilité de notre méthodologie sur un composant virtuel comportemental complexe (Maximum A Posteriori MAP) dans le contexte d'une application de Turbo décodage temps réel.<br /><br />Nous proposons dans ce mémoire une approche de réutilisation des IPs dans les applications orientées traitement du signal, de l'image et des télécommunications. Pour cela, nous basons notre approche sur la notion de composants virtuels de niveau algorithmique, définie dans le cadre des projets RNRT MILPAT (Méthodologie et Développement pour les Intellectual Properties pour Applications Telecom). Le flot de conception proposé s'inscrit dans la démarche Adéquation Algorithme Architecture du projet RNRT ALITPA (Définition et Application d'une méthodologie de développement pour les (IP) intellectual property de niveau comportemental dans les applications de télécommunication) et est basé sur l'utilisation de techniques de synthèse haut niveau sous contraintes d'intégration. Les unités fonctionnelles constituant l'architecture cible du composant sont (re)conçues en fonction des caractéristiques de l'architecture de communication du système et de la spécificité de l'application.<br /><br />Dans ce contexte, la spécification de l'IP est modélisée par un Graphe Flot de Signaux (SFG) qui, couplé aux temps de propagations des opérateurs et à la cadence d'itération, permet la génération d'un graphe de contrainte algorithmique ACG. Nous avons développé une d'analyse formelle des contraintes, qui repose sur les calculs de cycles, et permet de vérifier la cohérence entre la cadence, les dépendances de données de l'algorithme et les contraintes technologiques.<br /><br />Les contraintes d'intégration, spécifiées pour chacun des bus (ports) connectants l'IP aux autres composants du système, sont modélisées par un graphe de contraintes d'Entrée/Sortie IOCG (IO Constraint Graph) dont la sémantique est issue des travaux de Ku et De Micheli. Ce modèle supporte, entre autre, la modélisation (1) du type de transferts, (2) des varations temporelles des dates d'arrivées des données, (3) du séquencement des données échangées (4) des mécanismes liés aux protocoles. Les contraintes d'intégration et les contraintes algorithmiques de l'IP sont fusionnées pour fournir un graphe détaillé des contraintes GCG (Global Constraint Graph) exhibant les points de synchronisation entre l'environnement et le composant. Des optimisations pour l'implémentations sont proposées à partir de transformations formelles du graphe.<br /><br />La synthèse de l'unité de traitement (UT) est réalisée à l'aide de l'outil GAUT (Générateur Automatique d'Unité de Traitement) dont l'ordonnancement est contraint par les paramètres temporel de l'intégrateur du composant virtuel. La synthèse de l'UT génère un ensemble de contraintes au E/S, modélisé sous la forme d'un IPERM (IP Execution Requirement Model). Ce dernier modélise (1) les dates de production et de consommation des données dans l'UT et (2) les bus sur lesquels elles transitent entre l'unité de communication et l'unité de traitement. Les modèles IPERM et IOCG sont finalement utilisés pour synthétiser l'unité de communication.<br /><br />Nous avons appliqué notre méthode à des algorithmes des domaines du TDSI et des Télécommunications. La première expérience est réalisée sur un exemple de Transformée de Fourrier Rapide (FFT). Pour les conditions d'expérimentation retenues, l'optimisation du nombre d'opérateurs est en moyenne de 20% et celle des registres de 7%, par rapport à une approche classique. La deuxième expérience utilise une Transformée en Cosinus Discrète (DCT) pour comparer les résultats, obtenus en appliquant l'approche d'intégration proposée dans ce manuscrit, avec les résultats des méthodes utilisant des adaptateurs. Pour l'exemple considéré, le gain sur les registres de communications varie de -2% à 88% à débit d'E/S constant. La dernière expérience, réalisée en partenariat industriel, démontre l'applicabilité de notre méthodologie sur un composant virtuel comportemental complexe (Maximum A Posteriori MAP) dans le contexte d'une application de Turbo décodage temps réel.
434

Fabrication additive de pièces en polymères thermoplastiques hautes performances et en polyamide 12 par le procédé de frittage sélectif par laser

Dumoulin, Emmanuel 23 January 2014 (has links) (PDF)
Le frittage sélectif par laser (ou Selective Laser Sintering, SLS) des poudres polymères thermoplastiques est maintenant une technique répandue de fabrication additive. Néanmoins, ce procédé n'est industriellement mature que pour une seule famille de polymères, les polyamides. Pour que ce procédé soit employé dans la fabrication de pièces subissant des contraintes thermiques au-delà de 50 °C, il est ainsi nécessaire d'étendre la gamme des matériaux utilisables à des polymères hautes performances tels que les poly(aryl-éther-cétone) ou les poly(aryl-imide). Cette étude décrit la fabrication additive, couche par couche, de pièces aérospatiales complexes en polymères hautes performances. Pour cela, sept poudres en polymère ont été sélectionnées afin d'étudier l'influence de celles-ci sur les différentes phases du procédé et sur la qualité de la matière frittée/fondue. Ainsi, la morphologie de leurs particules, leurs microstructures ou encore leurs densités versées et tapées sont analysées, de même que leurs stabilités thermiques, leurs capacités à absorber l'eau ou à s'écouler. Dans un second temps, une étude paramétrique du procédé a été réalisée dans le but d'aboutir à la fabrication de pièces de bonne qualité matière, tout en portant un intérêt vis-à-vis des évolutions de la poudre cycle après cycle de fabrication. De plus, il est important, dans un souci d'optimisation, d'utiliser toutes les possibilités de forme qu'offre cette fabrication additive et d'en évaluer la résistance mécanique. C'est pourquoi une loi de comportement mécanique d'un polyamide 12 consolidé sélectivement par laser a été déterminée et implémentée dans un code de calcul par éléments finis (ZéBuLoN®). Cette loi de comportement, dans le domaine linéaire et non linéaire, représentative de l'anisotropie du matériau, a ensuite été validée expérimentalement sur des éprouvettes d'essais mécaniques et sur un démonstrateur aérospatial.
435

John Jacob Graas, Jr. : jazz horn performer, jazz composer, and arranger

Ormsby, Verle A. January 1988 (has links)
This paper is divided into two broad sections. The first section traces the life and career of John Graas through an examination of the contents of the John Graas Memorabilia and Memorial Library, which contains photo albums, newspaper clippings, records and tapes, approximately one hundred original compositions, and personal correspondence between the author and people who knew and worked with Graas.The second section is an examination and discussion of Graas's original compositions. This discussion traces Graas's compositional development and growth as an acknowledged jazz composer through the melodic analysis of selected original compositions.Findings1. John Graas was a classically-schooled horn player who studied with Max Pottag and Wilhelm Valkanier, and performed with the Indianapolis and Cleveland orchestras.2. He was best known for being the first horn player to achieve prominence in the jazz field. Graas acquired his jazz skills first as a performer with Thornhill, Beneke, and Kenton, and later as a composition student of Lennie Tristano, Shorty Rogers and Dr. Wesley LaViolette. 3. Numbering over one-hundred compositions, Graas’ works range from standard to innovative works for various-sized ensembles, including works for solo horn, solo piano, a television score, and his Jazz Symphony #1, written for full symphony orchestra and nine-piece jazz ensemble.Conclusions1. Graas was acknowledged as the first horn player to achieve prominence in the field of jazz, as recognized by such top, jazz polls as Down Beat, Metronome, and Playboy, from 1955 to 1961.2. His early improvisations helped to open the jazz field to future jazz hornists: Watkins, Amram, Ruff, Varner.3. Graas showed true pioneer spirit by working hard to expand limits placed on the horn by classical tradition, in order to reach a new and different standard of performance. / School of Music
436

De la physiologie à la répartition : adaptations climatiques et sensibilité thermique chez une relique glaciaire

Guillon, Michaël 23 April 2012 (has links) (PDF)
L'un des objectifs majeurs en écologie est de comprendre les déterminants de la distribution des organismes. La répartition des espèces est le produit d'une réponse dynamique face à l'environnement biotique et abiotique. Il est primordial d'élaborer des inférences solides sur les contraintes pour identifier les facteurs proximaux de la distribution des espèces. Chez les ectothermes, la température corporelle est directement dépendante de la température ambiante qui va affecter la physiologie, le budget d'activité et par conséquent la plupart de leurs traits d'histoire de vie. La prévalence des facteurs abiotiques (climat) sur la distribution des espèces est largement pressentie notamment sur les espèces spécialisées dans l'économie d'énergie. Seul un petit nombre d'espèces d'ectothermes est capable d'exploiter des milieux froids ce qui soulève des questions sur leurs spécificités physiologiques et leurs réponses face aux changements globaux. Nous avons étudié l'écophysiologie et la distribution d'une espèce boréale, la vipère péliade (Vipera berus) dont l'aire de répartition très vaste trouve sa limite sud de répartition en France, dans le Massif Central. Nous avons réalisé des suivis comparatifs avec la vipère aspic (Vipera aspis), espèce soeur à répartition parapatrique limitée au Sud-ouest de l'Europe. Nos travaux sur la thermorégulation, le métabolisme, la sensibilité hydrique et la phénologie de reproduction montrent que l'espèce boréale présente des adaptations spécifiques au froid qui la rendent particulièrement vulnérable aux températures élevées notamment en période estivale. Nos résultats de modélisation corrélative soulignent clairement que le climat est suffisant pour prédire la majeure partie de la répartition des espèces. En parallèle, les modèles de niches physiologiques démontrent l'importance de la dépendance thermique des coûts de maintenance et de la phénologie de la reproduction. En effet, les limites Sud de distributions des deux espèces seraient liées à des contraintes énergétiques et hydriques trop fortes alors que l'altération des performances reproductrices limiterait V aspis au Nord. Les variations climatiques passées (cycles glaciaire/interglaciaire) ont largement impacté la structuration génétique des populations de vipère péliade. Les scenarios de changements climatiques futurs pourraient avoir un impact majeur sur la persistance de l'espèce d'ici 2100 dans les landes et tourbières en zone amont de la Loire.
437

Management accounting as a tool to measure the viability of performance management for the acedemia [sic] in higher education in South Africa / Ana Cristina Gonçalves Weyers (neè Cunha).

Weyers, Ana Cristina Gonçalves January 2009 (has links)
The primary aim of a Performance Management System is the development of a process where goals are set based on the needs of the organisation, while taking the development needs of the individual into account. These goals are negotiated and finalised through a continuous process of communication between all interested parties. In Higher Education, students, other internal clients, managers/supervisors and functional experts evaluate performances against these set goals. A well-designed system, if applied correctly, will benefit employees at various levels. Individuals become involved in setting goals or objectives; this in turn becomes the basis of a performance agreement. Performance feedback is regularly given and in terms of specific scoreboards, these scoreboards, in turn, indicated to which extent the performance goals were met or not. Over-achievers are rewarded accordingly while individuals, who do not meet their performance goals, are assisted and development programmes are suggested to improve relevant performance. Higher Education Institutions, particularly in South Africa, have been very unenthusiastic in adopting and implementing Performance Management Systems, especially when it involves management and appraisal of academic staff at institutions of higher learning. A possible reason for this reluctance may be found with the high opinion placed on the concept of 'academic freedom', and specifically, the difficulties associated with 'measuring' excellence in academic outputs and pursuits, and 'measuring intellectual property'. The goal of this study is to address and solve the stated problem and to evaluate Performance Management Systems currently used in Higher Education, in an attempt to measure their contribution to the Human Resource Management process. This research study was undertaken with the aim of investigating current levels of satisfaction with Performance Management as applied to Higher Education Institutions. The Balanced Scorecard, a Management Accounting tool, was also examined with the idea of serving as a tool to measure the viability of Performance Management of academia in Higher Education Institutions. This research study formulated one main objective, and four secondary objectives. The main objective of this study was to determine, with Management Accounting as a tool, the viability of Performance Management for the academia in Higher Education in South Africa. The secondary objectives were summarised as follows: • A review of Performance Management Systems, • A comprehensive study of Performance Management Systems for academia in South Africa, • The impact of Performance Management on academic staff performance, and staff development, • An investigation into the Balanced Scorecard as a Management Accounting tool. A comprehensive literature review was conducted, and from the literature it became evident that Performance Management of academia in Higher Education Institutions is problematic. A questionnaire circulated to the academia of four Higher Education Institutions served as basis for the empirical section of this study. The empirical evidence gathered through the responses captured from the questionnaires suggested first hand that there is great dissatisfaction amongst academia regarding the Performance Management as applied to them. In this case the findings gathered from the empirical study corresponded with the findings from the literature review conducted for this study. Evidence gathered through the responses from the questionnaires suggested great dissatisfaction with the current Performance Management System and that academia is eager to investigate alternative methods of implementing Performance Management . The findings also suggested that the Balanced Scorecard, a Management Accounting tool, should be investigated further in an attempt to find an alternative method of Performance Management The findings of this study also identified areas for future possible research; there is a need for more extensive research studies to validate the use of the Balanced Scoreboard, a Management Accounting tool, as an alternative to the Performance Management Systems currently applied. / Thesis (Ph.D. (Management Accounting))--North-West University, Vaal Triangle Campus, 2010.
438

Management accounting as a tool to measure the viability of performance management for the acedemia [sic] in higher education in South Africa / Ana Cristina Gonçalves Weyers (neè Cunha).

Weyers, Ana Cristina Gonçalves January 2009 (has links)
The primary aim of a Performance Management System is the development of a process where goals are set based on the needs of the organisation, while taking the development needs of the individual into account. These goals are negotiated and finalised through a continuous process of communication between all interested parties. In Higher Education, students, other internal clients, managers/supervisors and functional experts evaluate performances against these set goals. A well-designed system, if applied correctly, will benefit employees at various levels. Individuals become involved in setting goals or objectives; this in turn becomes the basis of a performance agreement. Performance feedback is regularly given and in terms of specific scoreboards, these scoreboards, in turn, indicated to which extent the performance goals were met or not. Over-achievers are rewarded accordingly while individuals, who do not meet their performance goals, are assisted and development programmes are suggested to improve relevant performance. Higher Education Institutions, particularly in South Africa, have been very unenthusiastic in adopting and implementing Performance Management Systems, especially when it involves management and appraisal of academic staff at institutions of higher learning. A possible reason for this reluctance may be found with the high opinion placed on the concept of 'academic freedom', and specifically, the difficulties associated with 'measuring' excellence in academic outputs and pursuits, and 'measuring intellectual property'. The goal of this study is to address and solve the stated problem and to evaluate Performance Management Systems currently used in Higher Education, in an attempt to measure their contribution to the Human Resource Management process. This research study was undertaken with the aim of investigating current levels of satisfaction with Performance Management as applied to Higher Education Institutions. The Balanced Scorecard, a Management Accounting tool, was also examined with the idea of serving as a tool to measure the viability of Performance Management of academia in Higher Education Institutions. This research study formulated one main objective, and four secondary objectives. The main objective of this study was to determine, with Management Accounting as a tool, the viability of Performance Management for the academia in Higher Education in South Africa. The secondary objectives were summarised as follows: • A review of Performance Management Systems, • A comprehensive study of Performance Management Systems for academia in South Africa, • The impact of Performance Management on academic staff performance, and staff development, • An investigation into the Balanced Scorecard as a Management Accounting tool. A comprehensive literature review was conducted, and from the literature it became evident that Performance Management of academia in Higher Education Institutions is problematic. A questionnaire circulated to the academia of four Higher Education Institutions served as basis for the empirical section of this study. The empirical evidence gathered through the responses captured from the questionnaires suggested first hand that there is great dissatisfaction amongst academia regarding the Performance Management as applied to them. In this case the findings gathered from the empirical study corresponded with the findings from the literature review conducted for this study. Evidence gathered through the responses from the questionnaires suggested great dissatisfaction with the current Performance Management System and that academia is eager to investigate alternative methods of implementing Performance Management . The findings also suggested that the Balanced Scorecard, a Management Accounting tool, should be investigated further in an attempt to find an alternative method of Performance Management The findings of this study also identified areas for future possible research; there is a need for more extensive research studies to validate the use of the Balanced Scoreboard, a Management Accounting tool, as an alternative to the Performance Management Systems currently applied. / Thesis (Ph.D. (Management Accounting))--North-West University, Vaal Triangle Campus, 2010.
439

高中生同儕回饋對作文表現的影響 / The effect of peer feedback on high school students' writing performance

李榮哲, Lee, June Che Unknown Date (has links)
本研究的主要目的在探討研究者所發展的「同儕回饋」作文教學模式對於高中生作文表現之影響。「同儕回饋模式」主要根據寫作認知歷程模式與社會互動模式,並結合同儕互評之相關研究為核心所建構而成。 本研究以新竹縣某國立高中二年級三個班級為研究對象,採準實驗研究設計中的不等組前後測設計,教學實驗共實施十一週。第一類組與第二類組的班級採取「同儕回饋」作文教學,第三類組的班級為「範文寫作」教學;其中「同儕回饋」作文教學包含「接受回饋」與「給予回饋」兩種實驗處理。 資料蒐集後進行統計分析,並以學生作品作為分析之參照,分別簡述如下: 1.以前測為共變項,將前測差異影響予以排除後,進行共變數分析,以了解自變項對依變項後測的影響。 2.根據受試者在教學實驗後所知覺到的作文表現情況進行回饋問卷調查,並對不同組別在各問題進行平均數差異檢定。 本研究之結果如下: 1.接受回饋與給予回饋組之整體作文表現的提升顯著優於範文寫作組,且給予回饋組在自我知覺「作文表現能力的提升」亦高於範文寫作組。 2.同儕回饋中接受回饋組與給予回饋組在整體作文表現的提升無顯著之差異。 3.以班級而言,第一類組同儕回饋在作文表現的提升是最為顯著。 4.以作文表現「組織結構」而言,第二類組學生對於「給予回饋」的提升效果是優於「接受回饋」實驗處理。 研究結果顯示,在高中階段的作文教學中應用「同儕回饋」模式對於學生作文表現有正面之影響,良好的同儕互動與有品質的同儕回饋意見將促使學生投入學習活動之中,進而提升在作文上的表現。 關鍵字:同儕回饋、範文寫作、作文表現 / The main purpose of this study was to explore the effects of the “peer feedback writing instruction model” developed by the researcher on the writing performance of senior high school students. This peer feedback model was constructed based on the cognitive processing writing model and the the social interaction model, and some peer evaluation theories. The teaching experiment lasted for eleven weeks, in which the quasi-experimental nonequivalent pretest-posttest theories were applied. Participants were juniors in three different classes of a national senior high school in Hsin-Chu County. Students in Class One and Class Two participated as the peer-feedback group, which was further divided into two subgroups: the feedback-receiving group and the feedback-giving group. Students in Class Three participated as the control group, which was also the model-essay group. Listed below were analyses of the experimental data with reference to students' writings: 1.In the experiment, the pretest was set as covariance. To investigate the influence of independent variable on the dependent variable(posttest) , one-way ANCOVA statistics was conducted after exclusion of pretest-difference. 2.After the teaching experiment, a feedback-questionnaire survey on how the participatns perceived their writing performance is carried out. One-way ANOVA is applied for every question among different groups. The results of the study were as follows: 1.Overall writing performance of students in the feedback-receiving and feeback-giving groups was significantly better than the model-essay group. For self-perception of the improvement in writing ability, the feedback-giving group also scored higher than the model-essay group. 2.In terms of improvement in overall writing performance, no significant difference was found between the feedback-receiving and feedback-giving groups. 3.Classwise, Class One benefited most from peer-feedback and hence made the most improvement in writing performance. 4.As far as structure organization in writing is concerned, Class Two students in the feedback-giving group performed better than students in the feedback-receiving group. The study results showed that the peer feedback model has a positive effect on the writing performance of senior high school students. Peer interaction and peer feedback of good quality stimulate students into learning, and hence improve their writing performance. keywords:peer feedback、writing with model essay、 writing performances
440

Optimisation multi-niveau d'une application de traitement d'images sur machines parallèles

Saidani, Tarik 06 November 2012 (has links) (PDF)
Cette thèse vise à définir une méthodologie de mise en œuvre d'applications performantes sur les processeurs embarqués du futur. Ces architectures nécessitent notamment d'exploiter au mieux les différents niveaux de parallélisme (grain fin, gros grain) et de gérer les communications et les accès à la mémoire. Pour étudier cette méthodologie, nous avons utilisé un processeur cible représentatif de ces architectures émergentes, le processeur CELL. Le détecteurde points d'intérêt de Harris est un exemple de traitement régulier nécessitant des unités de calcul intensif. En étudiant plusieurs schémas de mise en oeuvre sur le processeur CELL, nous avons ainsi pu mettre en évidence des méthodes d'optimisation des calculs en adaptant les programmes aux unités spécifiques de traitement SIMD du processeur CELL. L'utilisation efficace de la mémoire nécessite par ailleurs, à la fois une bonne exploitation des transferts et un arrangement optimal des données en mémoire. Nous avons développé un outil d'abstraction permettant de simplifier et d'automatiser les transferts et la synchronisation, CELL MPI. Cette expertise nous a permis de développer une méthodologie permettant de simplifier la mise en oeuvre parallèle optimisée de ces algorithmes. Nous avons ainsi conçu un outil de programmation parallèle à base de squelettes algorithmiques : SKELL BE. Ce modèle de programmation propose une solution originale de génération d'applications à base de métaprogrammation. Il permet, de manière automatisée, d'obtenir de très bonnes performances et de permettre une utilisation efficace de l'architecture, comme le montre la comparaison pour un ensemble de programmes test avec plusieurs autres outils dédiés à ce processeur.

Page generated in 0.0772 seconds