• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 358
  • 270
  • 101
  • 98
  • 84
  • 34
  • 19
  • 14
  • 10
  • 10
  • 10
  • 9
  • 8
  • 7
  • 6
  • Tagged with
  • 1200
  • 189
  • 160
  • 158
  • 149
  • 137
  • 107
  • 104
  • 99
  • 94
  • 88
  • 85
  • 78
  • 77
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Impact des stratégies de communication, de marque et de certification sur la propension à payer pour la viande de porc

Legendre, Stéphane January 2014 (has links)
Résumé : Au Québec, la crise de l’industrie porcine a particulièrement affecté la coopérative La Coop fédérée. En réponse à cette crise, la marque de certification Porc certifié La Coop a été développée afin de personnaliser le produit et se différencier sur les marchés. Considérant le succès du Porc certifié La Coop sur les marchés d’exportation et les préoccupations grandissantes de consommateurs pour la qualité des aliments, La Coop fédérée envisage maintenant de mettre en valeur la marque de certification Porc certifié La Coop auprès de consommateurs québécois. Une résidence au sein de La Coop fédérée nous a permis d’identifier trois principaux enjeux liés à cette mise en valeur : la stratégie de communication, la stratégie de marque et la stratégie de certification. La stratégie de communication correspond au nombre et à la nature des signaux à mettre en valeur sur l’emballage (ex. : respect du bien-être animal, porc nourri à 100 % de grains végétaux et porc élevé sans antibiotiques), la stratégie de marque a trait à la présence ou non d’une marque sur l’emballage (ex. : Lafleur) et la stratégie de certification concerne la présence ou non d’une marque de certification (ex. : Porc certifié La Coop). La principale hypothèse de l’étude précise deux éléments. D’abord, la propension à payer pour la stratégie de communication comportant trois signaux est plus élevée que la propension à payer pour la stratégie de communication comportant un seul signal. La nature additive du modèle multiattributs permet de comprendre ce phénomène. Ensuite, la propension à payer est plus élevée lorsque la stratégie de marque utilise une marque réputée et une marque de certification réputée. Selon la théorie des signaux, il y a alors un lien de vulnérabilité à la marque réputée et un lien de vulnérabilité à la marque de certification réputée, ce qui renforce la crédibilité des signaux. Une expérimentation a été réalisée au moyen d’un panel Internet. L’échantillon final de l’étude est de 1 060 consommateurs québécois. Deux principaux résultats ressortent de l’étude. Premièrement, la propension à payer pour la stratégie de communication comportant trois signaux n’est pas toujours plus élevée que la propension à payer pour la stratégie de communication comportant un signal. Ce résultat s’explique par la dominance du signal bien-être animal au Québec. Deuxièmement, les résultats montrent l’absence d’effet modérateur des stratégies de marque et de certification. Il semble donc que le lien de vulnérabilité ne permet pas toujours de renforcer la crédibilité des signaux. Une autre variable est à considérer pour renforcer la crédibilité des signaux, soit la responsabilité sociale perçue. // Abstract : In Quebec, the crisis in the pork industry particularly affected La Coop fédérée cooperative. In response to this crisis, the certification mark “Porc certifié La Coop” was developed to customize the product and differentiate it in the marketplace. Given the success of the certification mark on the export market and the growing concerns of consumers about food quality, La Coop fédérée is now planning to promote the certification mark Porc certifié La Coop to Quebec consumers. A residency within La Coop fédérée has helped identify three main issues related to this campaign: the communication strategy, the branding strategy and the certification strategy. The communication strategy is the number and nature of the signals presented on the packaging (e.g., animal welfare, 100% grain-fed pork, pork raised without antibiotics), the branding strategy is the presence or absence of a brand on the packaging (e.g., Lafleur) and the certification strategy is the presence or absence of a certification mark on the packaging (e.g., “Porc certifié La Coop”). The main hypothesis of this study specifies two elements. First, the willingness to pay for the communication strategy with three signals will be higher than the willingness to pay for the communication strategy with only one signal. The additive nature of the multi-attribute model explains this phenomenon. Second, the willingness to pay will be higher when the branding strategy uses a reputed brand and the certification strategy uses a reputed certification mark. According to the signaling theory, there is then a vulnerable bond to the reputed brand and a vulnerable bond to the reputed certification mark, which strengthens the credibility of the signals. An experiment was conducted using an Internet panel. The final study sample totaled 1060 Québec consumers. Two main results emerged from the study. First, the willingness to pay for the communication strategy with three signals is not always higher than the willingness to pay for the communication strategy with one signal. This result is explained by the dominance of the animal welfare signal in Québec. Second, results show that the branding and the certification strategies have no moderating effect. This result seems to indicate that the vulnerable bond does not always strengthen the credibility of the signals. Another variable strengthens the credibility of the signals – that of perceived social responsibility.
302

Compilation certifiée de SCADE/LUSTRE / Certified compilation of SCADE/LUSTRE

Auger, Cédric 07 February 2013 (has links)
Les langages synchrones sont apparus autour des années quatre-vingt, en réponse à un besoin d’avoir un modèle mathématique simple pour implémenter des systèmes temps réel critiques. Dans ce modèle, le temps est découpé en instants discrets durant lesquels tous les composants du système reçoivent et produisent une donnée. Cette modélisation permet des raisonnements beaucoup plus simples en évitant de devoir prendre en compte le temps de calcul de chaque opération. Dans le monde du logiciel critique, la fiabilité du matériel et de son fonctionnement sont primordiaux, et on accepte d’être plus lent si on devient plus sûr. Afin d’augmenter cette fiabilité, plutôt que de concevoir manuellement tout le système, on utilise des machines qui synthétisent automatiquement le système souhaité à partir d’une description la plus concise possible. Dans le cas du logiciel, ce mécanisme s’appelle la compilation, et évite des erreurs introduites par l’homme par inadvertance. Elle ne garantit cependant pas la bonne correspondance entre le système produit et la description donnée. Des travaux récents menés par une équipe INRIA dirigée par Xavier Leroy ont abouti en 2008 au compilateur CompCert d’un sous-ensemble large de C vers l’assembleur PowerPC pour lequel il a été prouvé dans l’assistant de preuve Coq que le code assembleur produit correspond bien à la description en C du programme source. Un tel compilateur offre des garanties fortes de bonne correspondance entre le système synthétisé et la description donnée. De plus, avec les compilateurs utilisés pour le temps réel critique, la plupart des optimisations sont désactivées afin d’éviter les erreurs qui y sont liées. Dans CompCert, des optimisations elles aussi prouvées sont proposées, ce qui pourrait permettre ces passes dans la production de systèmes temps réel critiques sans en compromettre la fiabilité. Le but de cette thèse est d’avoir une approche similaire mais spécifique à un langage synchrone, donc plus approprié à la description de systèmes temps réel critiques que ne l’est le C. Un langage synchrone flots de données semblable à Lustre, nommé Ls, et un langage impératif semblable au langage C, nommé Obc y sont proposés ainsi que leur sémantique formelle et une chaîne de compilation avec des preuves de préservation de sémantique le long de cette chaîne. / Synchronous languages first appeared during the 80’s, in order to provide a mathematical model for safety-critical systems. In this model, time is discrete. At each instant, all components of the system simultaneously receive and produce some data. This model allows simpler reasonning on the behaviour of the system, as it does not involve the time required for each of the operations for every component. In safety-critical systems, safety is the rule, so a poor performance behaviour can be allowed if it improves safety. In order to improve safety, rather than conceiving directly the system, machines are used to automatically design the system from a given concise description. In the case of software, this machine is called a compiler, and avoids issues due to some human inadvertence. But it does not ensure that the produced system and the description specification really show the same behaviour. Some recent work from an INRIA team lead by Xavier Leroy achieved in 2008 the realisation of the CompCert compiler from a large subset of C to PowerPC assembly, for which it was proven inside of the Coq proof assistant that the produced system fits its source description. Such a compiler offers strong guarantees that the produced system and its given description by the programmer really fit. Furthermore, most current compiler’s optimizations are disabled when dealing with safety-critical systems in order to avoid tedious compilation errors that optimizations may introduce. Proofs for optimizations may allow their use in this domain without affecting the faith we could place in the compiler. The aim of this thesis is to follow a similar path, but this one on a language which would be more suited for safety-critical systems than the C programming language. Some dataflow synchronous programming language very similar to Lustre, called Ls is described with its formal semantics, as well as an imperative programming language similar to a subset of C called Obc. Furthermore some compilation process is described as well as some proofs that the semantics is preserved during the compilation process.
303

A Study of the Collective Bargaining Process After Issuance of the Certification of Representative and an Analysis of Similarities in Ratified Contracts

Pulich, Marcia Ann 05 1900 (has links)
This project explored the period immediately following the NLRB certification of the representation election wherein a Certification of Representative was actually issued. The intent was to examine the ultimate effects of the collective bargaining process after a labor organization was recognized as the official bargaining agent for a bargaining unit. The main purpose of this study was to investigate the collective bargaining process between two established dates: (1) the date the union was certified the collective bargaining agent, and (2) the date a collective bargaining agreement, if any, was obtained. Study data and findings were organized and presented by four research hypotheses. Hypothesis 1 (once a collective bargaining agent is certified as the collective bargaining representative by the NLRB, it will negotiate a collective bargaining agreement) was not supported by total elections for both fiscal years combined; however, responses received percentages resulted in a collective bargaining achievement. Hypothesis 2 (there will be no difference in the amount of time required to negotiate and ratify a collective bargaining agreement following a consent election as compared with stipulated consent or directed elections) was not supported by the research responses received. Hypothesis 3 (once a collective bargaining agreement is negotiated and ratified, it will be renewed at its expiration date) was supported, the majority of elections to account for in all three situations resulted in subsequent contracts negotiated. Hypothesis 4 (there will be no real difference in basic items negotiated in the collective bargaining agreements) was also supported, the categories mentioned would be most important to the union, and center around three main issues: wages, union security and grievance arbitration procedures.
304

Essais sur la certification des biens de confiance : une analyse théorique et empirique des marchés en asymétrie d'information / Essays on credence goods certification : a theorical and empirical analysis in market with asymetric information

Barry, Ibrahima 06 January 2017 (has links)
Cette thèse se situe en organisation industrielle appliquée à l’analyse des marchés des labels privés et des labels collectifs gérés au sein des coopératives. Dans un premier temps, nous analysons théoriquement, comment le pouvoir de négociation entre certificateurs de labels et firmes peut avoir un effet sur le niveau de qualité offert sur le marché. Nous montrons alors que la présence du pouvoir de négociation a pour effet de diminuer le niveau du standard de la certification privée. L’analyse montre également que la présence du pouvoir de négociation peut modifier l’efficacité des politiques de régulation environnementale telles que la taxe et la subvention. Dans unsecond temps, nous analysons empiriquement, comment que le paiement incitatif peut réduire le problème du passager clandestin et améliorer la réputation des labels collectifs gérés au sein des coopératives. Nous montrons donc que la rémunération en fonction de la qualité peut écarter l’option de frauder des membres d’une coopérative. Cette rémunération a un effet positif sur la performance de la coopérative. Ces deux grandes approches sont précédées d’un état de la littérature sur les labels certifiés par les certificateurs privés à but lucratif et sur les labels collectifs. / This thesis applies industrial organization to the analysis of private and collective label markets managed within cooperatives. First, we analyze theoretically how bargaining power between certifiers of labels and firms can have an effect on the level of quality offered on the market. We then show that the presence of bargaining power has the effect of lowering the standard of private certification. The analysis also shows that the presence of bargaining power can change the effectiveness of environmental regulation policies such as taxes and subsidies. Secondly, we analyze empirically how an incentive payment can reduce the free rider problem and improve the reputation of collective labels managed within cooperatives. We therefore show that quality-basedremuneration can exclude the option of defrauding members of a cooperative. Thisremuneration has a positive effect on the performance of the cooperative. These two major approaches are preceded by a review of the literature on labels certified privately for profit and collective labels.
305

Formal Guaranties for Safety Critical Code Generation : the Case of Highly Variable Languages / Garanties formelles pour la génération de code critique : L’affaire des langages fortement variables

Dieumegard, Arnaud 30 January 2015 (has links)
Les fonctions de commande et de contrôle sont parmi les plus importantes des systèmes embarqués critiques utilisés dans des activités telles les transports, la santé ou la gestion de l’énergie. Leur impact potentiel sur la sûreté de fonctionnement fait de la vérification de leur correction l’un des points les plus critiques de leur développement. Cette vérification est usuellement effectuée en accord avec les normes de certification décrivant un ensemble d’objectifs à atteindre afin d’assurer un haut niveau de qualité du système et donc de prévenir l’apparition de défauts. Cette vérification du logiciel est traditionnellement basée sur de nombreux tests et des activitiés de relectures de code, toutefois les versions les plus récentes des standards de certification permettent l’utilisation de nouvelles approches de développement telles que l’ingénierie dirigée par les modèles et les méthodes formelles ainsi que l’utilisation d’outil pour assister les processus de développement. Les outils de génération automatique de code sont exploités dans la plupart des processus de développement de systèmes embarqués critiques afin d’éviter des erreurs de programmation liées à l’humain et pour assurer le respect des règles de production de code. Ces outils ayant pour vocation de remplacer les humains pour la production de code, des erreurs dans leur conception peuvent causer l’apparition d’erreurs dans le code généré. Il est donc nécessaire de vérifier que le niveau de qualité de l’outil est le même que celui du code produit en s’assurant que les objectifs spécifiées dans les normes de qualification sont couverts. Nos travaux visent à exploiter l’ingénierie dirigée par les modèles et les méthodes formelles pour développer ces outils et ainsi atteindre un niveau de qualité plus élevé que les approches traditionnelles. Les fonctions critiques de commande et de contrôle sont en grande partie conçues à l’aide de langages graphiques à flot de données. Ces langages sont utilisés pour modéliser des systèmes complexes à l’aide de blocs élémentaires groupés dans des librairies de blocs. Un bloc peut être un objet logiciel sophistiqué exposant une haute variabilité tant structurelle que sémantique. Cette variabilité est à la fois liée aux valeurs des paramètres du bloc ainsi qu’à son contexte d’utilisation. Dans notre travail, nous concentrons notre attention en premier lieu sur la spécification formelle de ces blocs ainsi que sur la vérification de ces spécifications. Nous avons évalué plusieurs approches et techniques dans le but d’assurer une spécification formelle, structurellement cohérente, vérifiable et réutilisable des blocs. Nous avons finalement conçu un langage basé sur l’ingénierie dirigées par les modèles dédié à cette tâche. Ce langage s’inspire des approches des lignes de produit logiciel afin d’assurer une gestion de la variabilité des blocs à la fois correcte et assurant un passage à l’échelle. Nous avons appliqué cette approche et la vérification associée sur quelques exemples choisis de blocs issus d’applications industrielles et l’avons validé sur des prototypes logiciels que nous avons développé. Les blocs sont les principaux éléments des langages d’entrée utilisés pour la génération automatique de logiciels de commande et de contrôle. Nous montrons comment les spécifications formelles de blocs peuvent être transformées en des annotations de code afin de simplifier et d’automatiser la vérification du code généré. Les annotations de code sont vérifiées par la suite à l’aide d’outils spécialisés d’analyse statique de code. En utilisant des observateur synchrones pour exprimer des exigences de haut niveau sur les modèles en entrée du générateur, nous montrons comment la spécification formelle de blocs peut être utilisée pour la génération d’annotations de code et par la suite pour la vérification automatique des exigences. / Control and command softwares play a key role in safety-critical embedded systems used for human related activities such as transportation, healthcare or energy. Their impact on safety makes the assessment of their correctness the central point in their development activities. Such systems verification activities are usually conducted according to normative certification guidelines providing objectives to be reached in order to ensure development process reliability and thus prevent flaws. Verification activities usually relies on tests and proof reading of the software but recent versions of certification guidelines are taking into account the deployment of new development paradigms such as model-based development, and formal methods; or the use of tools in assistance of the development processes. Automatic code generators are used in most safety-critical embedded systems development in order to avoid human related software production errors and to ensure the respect of development quality standards. As these tools are supposed to replace humans in the software code production activities, errors in these tools may result in embedded software flaws. It is thus in turn mandatory to ensure the same level of correctness for the tool itself than for the expected produced code. Tools verification shall be done according to qualification guidelines. We advocate in our work the use of model-based development and formal methods for the development of these tools in order to reach a higher quality level. Critical control and command software are mostly designed using graphical dataflow languages. These languages are used to express complex systems relying on atomic operations embedded in blocks that are gathered in block libraries. Blocks may be sophisticated pieces of software with highly variable structure and semantics. This variability is dependent on the values of the block parameters and of the block's context of use. In our work, we focus on the formal specification and verification of such block based languages. We experimented various techniques in order to ensure a formal, sound, verifiable and usable specification for blocks. We developed a domain specific formal model-based language specifically tailored for the specification of structure and semantics of blocks. This specification language is inspired from software product line concepts in order to ensure a correct and scalable management of the blocks variability. We have applied this specification and verification approach on chosen block examples from common industrial use cases and we have validated it on tool prototypes. Blocks are the core elements of the input language of automatic code generators used for control and command systems development. We show how our blocks formal specification can be translated as code annotations in order to ease and automate the generated code verification. Code annotations are verified using specialised static code analysis tools. Relying on synchronous observers to express high level requirements at the input model level, we show how formal block specification can also be used for the translation of high level requirements as verifiable code annotations discharged using the same specialised tooling. We finally target the assistance of code generation tools qualification activities by arguing on the ability to automatically generate qualification data such as requirements, tests or simulation results for the verification and development of automatic code generators from the formal block specification.
306

An Investigation of Certification in Computer Science as a Teaching Field in Secondary Schools in the United States

Taylor, Harriet G. (Harriet George) 05 1900 (has links)
The purpose of this study was to investigate the status of computer science teacher certification in the United States. Methods used included a survey of chief teacher certification officers in all fifty states to determine the status of each state concerning the certification of high school computer science teachers and a survey of forty selected leaders in the field of computer science education to determine the current and future status of computer science education and to identify the courses most appropriate for computer science teacher training programs. Status reports on all fifty states were presented. Summaries for the states that offer certification in computer science as a field by itself and as a part of another subject field were provided. Five state-approved computer science certification programs were reviewed.
307

Conception d’un système international de management de la qualité dans les systèmes de surveillance épidémiologique / Conception of international quality management system : epidemiology - pharmacovigilance

Heureude, Catherine 18 July 2016 (has links)
Le nouveau Règlement Sanitaire International (RSI) de 2005 adopté par l’OMS a posé les règles d’une nouvelleorganisation et de règles pour une meilleure coopération entre les Etats et un renforcement des actions de l’OMS enfaveur de la lutte contre les maladies épidémiques.L’application du RSI est complexe pour les Etats et nécessite une organisation qui doit être soutenue par un guideméthodologique opérationnel.Nous avons analysé leurs organisations pour comprendre quels étaient les points de faiblesse et tenter d’y répondre parun référentiel de management simple, adapté et cohérent vis à vis des systèmes de surveillance.Pour obtenir ce résultat nous avons développé et déployé une méthodologie appliquée au niveau mondial. Cetteapproche méthodologique en 6 temps est basée sur une approche processus avec une cartographie des systèmes desurveillance, un positionnement dans les principes de l’amélioration de la performance et le PDCA tout en s’appuyant surla norme ISO 9001 comme référentiel d’étude.Cette méthodologie a permis l’analyse des systèmes de surveillance dans le monde entier et l’évaluation desconcordances avec les exigences du RSI. Nous avons fait un parallèle avec la norme ISO 9001 afin de voir s’il étaitpossible de positionner un système dématérialisé comme les systèmes de surveillance des maladies épidémiques surun référentiel connu et éprouvé.Ce travail nous a amené à proposer un modèle basé sur le management de la qualité par la performance, plus soupleque la norme ISO 9001, trop rigide pour des systèmes dématérialisé comme les systèmes de surveillance qu’il convientmaintenant de rédiger et de déployer. / The new International Health Regulations (IHR) 2005 adopted by WHO has set the rules of a new organization and therules for improved cooperation among states and for strengthening WHO's actions in fighting epidemics.Implementing IHR is complex and requires states to put in place systems that must be supported by an operationalmethodology guide. We analyzed their organizations to understand what were the weak points and to try to remedy by simple managementprocesses adapted and coherent with surveillance systems. To achieve this result we have developed and implemented a methodology applied worldwide. This methodological framework in 6 phases is based on a process approach with a map of surveillance systems, positioning in the principlesof performance improvement and the PDCA, while relying on ISO 9001 as a reference. This methodology has enabled the analysis of surveillance systems worldwide and assessing consistency with the IHR requirements. We made a parallel with ISO 9001 in order to determine if it was possible to introduce a dematerialized system as in the case of epidemic disease surveillance systems, using a known and proven reference framework. This work led us to propose a model based on quality performance management, more flexible than the ISO 9001, which is too rigid for dematerialized systems such as surveillance systems.
308

Réactions des marchés financiers aux annonces de fusions et acquisitions : trois essais empiriques / Market reactions to mergers and acquisitions announcements : three empirical studies

Delanghe, Marieke 24 October 2013 (has links)
Dans les deux premiers articles de cette thèse, nous explorons les réactions des marchés financiers aux annonces de fusions et acquisitions dans deux contextes différents. Nous nous intéressons en premier lieu, à la régulation des marchés de fusions et acquisitions par la Commission Européenne. Nous nous attachons à déterminer si la Commission Européenne présente toujours des comportements protectionnistes depuis la mise en place de la nouvelle régulation en 2004. Nos résultats suggèrent effectivement que la Commission Européenne agissait de façon protectionniste avant 2004 mais que ce phénomène disparait ensuite et même plus tôt, en 2002. Dans le second article de la présente thèse, nous testons la possible extension à long-terme de l’effet de certification dont bénéficient les entreprises lors de l’obtention d’un crédit syndiqué. Nous souhaitons déterminer si la certification bancaire concerne le projet financé spécifiquement ou plutôt la qualité de l’équipe dirigeante de l’entreprise. Pour cela, nous comparons les réactions des investisseurs à l’annonce d’opérations de fusion et acquisition mises en œuvre par des entreprises américaines avant et après l’annonce de l’obtention d’un prêt syndiqué. S’il existe un effet de long-terme de la certification bancaire, les réactions des investisseurs devraient être plus positives après l’octroi du crédit. Nos résultats ne supportent pas cette hypothèse et nous concluons que la certification bancaire concerne plus particulièrement le projet financé en lui-même. Ayant constaté l’importance de la qualité des données pour la réalisation d’études empiriques en finance, nous comparons, dans un troisième article, deux bases de données de fusions et acquisitions : SDC et Zephyr. Il apparait que ces bases présentent des différences notoires tant au niveau de la présentation que du contenu des données qui peuvent, dans certains cas, entrainer des différences de résultats lors d’analyses économétriques. / We study market reactions to mergers and acquisitions (M&A) announcements in different contexts in two papers. First, we explore the regulation of M&A markets by the European Commission. Our aim is to determine whether the European Commission has still protectionist tendencies towards European firms since the implementation of the new regulation in 2004. Our results confirm that the European Commission presented protectionist behaviors before the new regulation was set in place but this phenomenon does not appear anymore after 2004 and even before, from 2002. In the second paper, we test long-term effect of lender certification. We want to determine if lender certification relates to the financed project only or also sends a good signal about the quality of the management team of the firm. We compare market reaction to M&A announcements for operations carried out by US firms before and after the obtaining of a syndicated loan. If there is a long-term effect of lender certification, market reaction to M&A announcements should be more positive after the loan has been granted. Our results do not support this hypothesis and we conclude that lender certification relates to the financed project only. Since we noticed the great importance of data quality in empirical studies in finance, we compare in the third paper, two M&A databases: SDC and Zephyr. It appears that these databases present noticeable differences in the presentation as well as in the content of data provided which may lead, in some cases, to different results in empirical analysis
309

Management podniku a životní prostředí / Business Management and Environment

Hynková, Alice January 2008 (has links)
This diploma thesis is focused on the environmental management system (EMS). The company can benefit from this system, eg. competition advantage and image increase. The aim of my work is to describe and evaluate two systems of environmental management in Logica CEE company - one is already set up in the Czech Republic and the second one is being established in Slovakia recently. I would like to determine the benefits and impacts of these systems. In practical part of the diploma thesis I describe the complex system implementation and its certification and re-certification.
310

The Effects of Individualized Test Coaching on Teacher Certification Test Scores.

Hall, Kathryn Cowart 08 1900 (has links)
While student populations are growing, the gatekeeping devices of teacher certification examinations prevent many who want and are trained to teach from entering the profession. If failing these exams predicted failure to teach well, blocking students who do not pass certification exams from entering the profession might be a well-reasoned policy. However, many studies indicate that there is little correlation between certification test scores and quality of teaching. The present study investigated the effectiveness of a program to improve the scores of Texas elementary preservice teachers on a required certification exam. The program consisted of one-on-one coaching of preservice teachers upon the completion of coursework and prior to their taking the state's certification exam. Subjects' scores on a representative form of the certification test were used as pre-treatment measures. The content of the treatment program was individualized for each subject and determined by the specific items missed by each subject on the representative form. The post-treatment measure was the subject's score on the certification exam. Scores on the representative form and on the certification examination were compared to determine if there were significant differences between scores of preservice teachers who had been coached and those who were not coached. Since subjects voluntarily enrolled in the treatment, initial differences between coached and uncoached groups were controlled through analysis of covariance and pairwise matching. Descriptive statistics, t-tests for dependent samples, repeated measures analysis of variance, and univariate analyses of variance and covariance all indicated that there were statistically significant differences between the scores on the certification test of coached and uncoached students. Coached students showed greater improvement in scores than uncoached, with Hispanic subjects showing greater improvement than Caucasian subjects. Analyses that examined the differences between the coached and uncoached subjects on the domain and competency scores that make up the raw scores failed to indicate the sources of the differences in raw scores.

Page generated in 0.0787 seconds