• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 55
  • 16
  • Tagged with
  • 71
  • 71
  • 38
  • 20
  • 18
  • 17
  • 13
  • 12
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Métaévaluation des services rendus aux usagers par les ressources intermédiaires et les ressoures de type familial ainsi que les établissements de santé et services sociaux

Corriveau, Xavier 07 December 2020 (has links)
Suite à la parution du Cadre de référence RI/RTF, le système de contrôle de la qualité des services rendus à un usager par l’établissement et par la RI-RTF a été élaboré afin de s’assurer de la qualité des services rendus par le système de santé québécois aux usagers placés dans une ressource de type intermédiaire ou de type familial. Dans le cadre de cette métaévaluation basée sur le modèle synergique des qualités évolutives, les qualités singulières et transversales du système de contrôle ont été évaluées lors de l’implantation de ce système dans quatre établissements de santé et services sociaux. Les faiblesses du système identifiées concernent principalement les ressources financières nécessaires (identification et adéquation) ainsi que la durée de certaines étapes du processus (administration du questionnaire aux proches de l’usager, compilation des données, analyse des résultats). La clarté de certaines échelles de mesure a aussi été jugée problématique par les répondants (grille d’observation)
22

Performance dosimétrique et capacité matricielle du détecteur à fibre scintillante pour les contrôles de qualité en radiochirurgie stéréotaxique

Gagnon, Jean-Christophe 18 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2011-2012 / La radiochirurgie stéréotaxique est un mode de traitement délivrant la dose de prescription en une seule fraction. Pour ce faire des petits champs et des arcs non coplanaires sont utilisés de manière à diminuer la dose aux tissus sains. Afin de s'assurer que la dose planifiée est bien conforme à celle donnée lors du traitement, des mesures de contrôles de qualité s'imposent. Or, il n'existe pas encore de détecteur idéal permettant de connaître précisément la dose dans ces conditions de traitement. Afin de palier à cette lacune, nous avons développé un détecteur à fibre scintillante possédant des caractéristiques favorables pour la radiochirurgie stéréotaxique telle qu'une grande résolution spatiale, l'équivalence à l'eau et l'indépendance angulaire et énergétique. Pour ce faire, des mesures de facteurs de sortie brute (soit, plus rigoureusement, la multiplication du facteur collimateur avec le facteur fantôme) et de profils furent effectuées avec les collimateurs coniques utilisés en radiochirurgie stéréotaxique. Les films Gafchromic EBT2, la diode de radiochirurgie non blindée SFD, la diode blindée 60008, la micro-chambre à ionisation A16 (des détecteurs présents sur le marché) ainsi que le détecteur à fibre scintillante furent utilisés lors des mesures, de façon à comparer la réponse des différents dosimètres pour mettre à jour leurs forces et leurs faiblesses. Par la suite, un prototype composé de 49 détecteurs à fibre scintillante disposés en croix a été développé et construit afin de prendre des mesures de distributions de dose en deux dimensions. Finalement, une mesure d'un plan de traitement complet a été effectuée avec la fibre scintillante, la diode de radiochirurgie non blindée SFD et la micro-chambre à ionisation A16 afin d'évaluer la précision avec laquelle il était possible de faire une mesure de dose lors d'un contrôle de qualité avec ces différents détecteurs.
23

Évaluation de la qualité de la viande de lapin produite au Québec

Larivière-Lajoie, Anne-Sophie 11 October 2021 (has links)
L’objectif de ce projet de recherche était d’évaluer la qualité de la viande de lapin produite au Québec en prenant en considération l’impact des différentes gestions préabattage. Pour ce faire, cinq producteurs furent sélectionnés en collaboration avec le Syndicat des producteurs de lapins du Québec. Les lapins furent abattus dans deux abattoirs sous juridiction provinciale située au Québec et dans deux abattoirs sous juridiction fédérale, un situé au Québec et l’autre en Ontario. Le pH musculaire du Longissimus lumborum (LL) et du Biceps femoris (BF) fut mesuré après 1h (pH1h) et 24h (pHu) post-mortem pour les lapins abattus au Québec. Les pertes en eau (par exsudation et à la cuisson) furent mesurées sur le LL. Tous les pH1hBF et 97,6% des pH1hLL étaient >6. Les valeurs variaient entre 5,70 et 6,58 pour le pHuLL, entre 5,80 et 6,83 pour le pHuBF et entre 0,00 et 2,56% pour la perte de poids par exsudation du LL. Une analyse en cluster hiérarchique basée sur le pHu, la perte en eau à la cuisson et la luminosité de 200 LL fut effectuée pour regrouper les LL ayant une qualité similaire. Des quatre groupes créés par l’analyse en cluster hiérarchique, les groupes 3 et 4 présentaient la plus faible qualité et une viande à pH élevé comme retrouvé pour la viande DFD (40% des LL analysées). Les groupes 1 et 2 avaient la meilleure et la deuxième meilleure qualité de viande, respectivement. Pour les lapins abattus en Ontario, la meilleure gestion préabattage était celle où les mangeoires étaient gardées en place, mais avec les lumières ouvertes avant le long voyage (7h). Même si la majorité (60%) des LL analysés se retrouvait dans les groupes 1 et 2, en général, la qualité de la viande de lapin produite au Québec est variable au sein du secteur suggérant que plusieurs facteurs ne sont pas encore complètement contrôlés dans la chaîne de valeur. / The aim of this study was to characterize meat quality from rabbits commercially raised in Quebec, taking into account, notably, the impact of the various preslaughter management practices, transport distances and feed withdrawal efficiency. Five producers were selected for this study in collaboration with the provincial rabbit producers’ association. Rabbits were slaughtered in two provincially inspected plants both located in Quebec and two federally inspected plants, one located in Quebec and one in Ontario. Muscular pH of the Longissimus lumborum (LL) and the Biceps femoris (BF) muscles were measured 24 h (pHu) and also after 1 h (pH1h) post-mortem for animals slaughtered in the abattoirs located in Quebec. Drip loss and cooking loss were measured on the LL. All pH1hBF and 97.6% of pH1hLL were >6. Values ranged from 5.70 to 6.58 for pHuLL and from 5.80 to 6.83 for pHuBF. Values for rabbit meat drip loss ranged between 0.00 and 2.56%. Of the four clusters created by the hierarchical cluster analysis based on pHu, cooking loss and L* and on 200 rabbit loins, clusters 3 and 4 had the lowest meat quality and presents meat with high pH as seen, notably, with DFD meat (40% of the loins analysed). The clusters 1 and 2 were the best and the second-best meat quality groups, respectively. For rabbits slaughtered in Ontario, due to the long journey, preslaughter management that worked best was when the feeders were left in place, but with the lights on prior to transport (7h). Though the majority (60%) of the loins analyzed were grouped into the upper quality clusters 1 and 2, overall, rabbit meat quality produced in Quebec is rather variable among the sector suggesting that many factors are not yet fully controlled in the value chain.
24

Évaluation de la qualité des données géospatiales : approche top-down et gestion de la métaqualité

Lévesque, Johann 13 April 2018 (has links)
Depuis l'avènement du numérique, la demande de données par les utilisateurs des systèmes d'information géographique (SIG) ne fait qu'augmenter. Les organismes utilisateurs se retrouvent souvent devant plusieurs sources de données géographiques potentielles et ils doivent alors évaluer la qualité de chaque source en fonction de leurs besoins. Pour ce faire, ces organismes pourraient faire appel à un expert en qualité qui pourrait les aider à déterminer s'il y a adéquation (i.e. qualité externe) entre les données et leurs besoins. Pour utiliser le système MUM, l'expert en qualité doit recueillir de l'information sur les jeux de données. Dans le domaine de la géomatique, cette information se retrouve généralement sous la forme de métadonnées émises par les producteurs de données. Le système MUM, développé par Devillers et al. [2004b], a été conçu initialement en fonction d'une approche bottom-up, où on utilise des métadonnées fines pour extraire des indicateurs globaux de qualité, à l'aide d'opérateurs d'agrégation typiques des outils SOLAP. Il s'agit là d'une solution qui permet de faciliter l'analyse de la qualité, particulièrement dans des contextes de données hétérogènes. Par contre, comme le mentionnent les concepteurs de MUM, le manque de métadonnées fines est un obstacle à l'utilisation du système MUM dans sa forme actuelle. L'objectif de la présente recherche a donc été d'élaborer une méthode de génération des métadonnées dite top-down. Cette méthode permet de générer, lorsque possible, les métadonnées fines (au niveau des occurrences, voire des primitives géométriques) d'un jeu de données à l'aide des métadonnées grossières et des opinions d'experts touchant un ensemble d'occurrences. Cette méthodologie amène l'expert en qualité à utiliser dans certains cas des sources de données différentes. Ceci soulève alors un problème concernant l'hétérogénéité de la fiabilité des sources utilisées pour évaluer la qualité externe. Le concept de métaqualité a été introduit pour répondre à ce problème d'hétérogénéité. Il permet en effet de quantifier le risque lié à l'imperfection de l'information contenue dans les indicateurs de qualité. L'enrichissement du système MUM a donc été réalisé grâce à la conception du modèle E-QIMM (Extented Quality Information Management Model) qui est une extension du modèle QIMM de Devillers [2004] et qui permet d'intégrer la dimension ± Métaqualité ¿ dans le processus d'évaluation de la qualité.
25

Comparaison de différentes méthodes d'estimation de la charge pour les sédiments et l'azote à l'exutoire d'un petit bassin versant

Zamyadi, Arash 11 April 2018 (has links)
La charge en nutriments à l'exutoire d'un bassin versant est un élément-clé pour la gestion de la qualité de l'eau. Toutefois, à cause du peu de mesures de concentration, un estimé précis de la charge n'est pas possible. Cette étude a été effectuée pour déterminer la qualité d'estimation de la charge pour une combinaison de six fréquences d'échantillonnage (jour à mois), deux schémas (fixe et aléatoire) et sept méthodes de calcul (moyenne, rapport d'estimation, interpolation) pour les sédiments et trois composantes de l'azote pour un bassin versant du Québec. Des valeurs horaires de débit, azote total, nitrate, ammonium et sédiment ont été générées pour une période de deux ans avec le programme HSPF calibré pour ce bassin versant de 5.3 km2 . Il a été assumé que les estimés de charge basés sur l'accumulation massique des valeurs horaires représentent les valeurs réelles auxquelles les valeurs estimées par les autres méthodes peuvent être comparées en utilisant le biais, l'écart type et la racine carrée de l'erreur moyenne au carré (RMSE). Pour tous les paramètres de qualité de l'eau, RMSE augmente avec la diminution de la fréquence d'échantillonnage. L'échantillonnage fixe résulte toujours en un RMSE plus faible que pour l'échantillonnage aléatoire; ce qui peut être attribué à l'autocorrellation temporelle. L'autocorrellogramme des sédiments en suspension montre une périodicité de 24 heures, expliquée par la fonte nivale printanière et par les précipitations plus fréquentes durant la soirée et la nuit. Les évaluations de la charge ont presque toujours résulté en une sous-estimation, probablement dû aux crues de courte durée caractérisant ce bassin versant. Des sept méthodes de calcul étudiées, l'interpolation linéaire a systématiquement donné des RMSE plus faibles. Toutefois, les méthodes du rapport d'estimation (incluant la méthode de Beale) n'ont pas bien performé, avec la cinquième et sixième place. / The knowledge of nutrient mass load at the outlet of watersheds is a key tool in water quality management projects. However, because of the lack of frequent concentration measurements, a precise estimation of mass load is not possible. This study was conducted to determine the quality of mass load estimation for a combination of six sampling frequencies (daily to monthly), two sampling schemes (fixed and random), and seven calculation methods (averaging, ratio estimator, and interpolation) for sediment and three nitrogen components at the outlet of an agricultural watershed in the province of Québec. Hourly values of flow, total nitrogen, nitrate, ammonium and sediment were generated for a two-year period by the HSPF model calibrated for the 5.3 km2 watershed. Load estimates based on the mass accumulation of hourly values were assumed to represent the true loads to which loads estimated by other methods were compared using bias, standard deviation, and root mean square error (RMSE). For ail water quality parameters, the RMSE increased with the decrease of sampling frequency. Fixed sampling schemes always resulted in RMSE values lower than those of random schemes. This better performance of the fixed sampling scheme is attributed to the autocorrélation in time for ail water quality parameters. The sediment autocorrellogram showed a 24-hour periodicity that is explained by snowmelt and more frequent evening and night rainfalls. Ail load evaluations generally resulted in an underestimation of the true load, most likely due to the flashy hydrological response of the small watershed studied. Of the seven load calculation methods studied, linear interpolation, which is used to obtain an estimate of concentration for each available hourly flow value, systematically yielded the lowest RMSE value. However, ratio estimator methods did not fare well, ranking only 5 and 6 out of the 7 methods tested.
26

Contrôle de qualité des anodes de carbone à partir de méthodes statistiques multivariées

Paris, Adéline 27 November 2020 (has links)
L’aluminium primaire est produit à partir du procédé électrolytique Hall-Héroult qui nécessite des anodes de carbone pour véhiculer le courant et fournir la source de carbone pour la réaction. La qualité des anodes influence les performances dans les cuves. Or, l’augmentation de la variabilité des matières premières rend la fabrication d’anodes de bonne qualité de plus en plus difficile. L’objectif de ce projet est d’améliorer le contrôle de qualité des anodes avant la cuisson à l’aide de mesures de résistivité électrique. À partir de méthodes statistiques multivariées, les mesures ont été utilisées dans deux optiques différentes : prédictive et explicative. L’optimum de brai qui est défini comme étant la quantité optimale de brai menant aux meilleures propriétés de l’anode pour un mélange d’agrégats donné change plus fréquemment avec l’accroissement de la variabilité de la matière première. Le dépassement de l’optimum peut engendrer des problèmes de collage lors de la cuisson. Un capteur virtuel conçu à partir d’un modèle d’analyse en composantes principales a permis de montrer qu’un bris dans la structure de corrélation mesuré par l’erreur de prédiction (SPE) semble se produire lorsque les anodes ont un risque de coller lors de la cuisson. Son application sur des données d’optimisation de brai a aussi été réalisée. Afin d’améliorer la compréhension des paramètres influençant la résistivité de l’anode, un modèle par projection des moindres carrés partiels en blocs séquentiels (SMB-PLS) a été développé. Il a permis d’expliquer 54 % des variations contenues dans les mesures de résistivité à partir des données opératoires, de matières premières et de formulation. Son interprétation a montré que la variabilité de la résistivité de l’anode verte est principalement causée par les matières premières utilisées et que les relations observées sont conformes avec la littérature et les connaissances du procédé. / Primary aluminum is produced through the Hall-Héroult process. Carbon anodes are used in this electrolytic process to provide the carbon source for the reaction and to distribute electrical current across the cells. Anode quality influences cell performance. However,increasing raw material variability has rendered the production of high-quality anodes more difficult. The objective of this project is to improve carbon anode quality control before baking by using anode electrical resistivity measurements. Multivariate statistical methods were applied to create two types of models: predictive and explanatory. For a given aggregate, the optimum pitch demand (OPD) is the amount of pitch that yields the best anode properties. High raw material variability causes the OPD to change more frequently, which makes it difficult to add the correct amount of pitch. This can lead to post-baking sticking problems when the optimum is exceeded. A soft sensor was developed based on a principal component analysis (PCA). The integrity of the correlation structure,as measured by the Squared Prediction Error (SPE), appears to break down during high-risk periods for anode sticking. The soft sensor was also tested on data collected during pitch optimization experiments.A sequential multi-block PLS model (SMB-PLS) was developed to determine which parameters influence anode resistivity. Raw material properties, anode formulation and process parameters collectively explain 54 % of the variability in the anode resistivity measurements.The model shows that coke and pitch properties have the greatest impact on green anode electrical resistivity. In addition, the main relationships between process variables implied by the model agree with the relevant literature and process knowledge.
27

Adaptation et validation du questionnaire international de l'activité physique (IPAQ) chez les personnes saines et les survivants d'un accident vasculaire cérébral au Bénin

Honado, Sedonoude Aristide 18 October 2019 (has links)
La pratique de l’activité physique réduit considérablement le risque de survenue des accidents vasculaires cérébraux (AVC). Elle est aussi utilisée en tant que stratégie thérapeutique pour maximiser la récupération fonctionnelle pendant la réadaptation des survivants d’un AVC. Dès lors, il est important de suivre le niveau d’activité physique des personnes saines et des survivants d’un AVC. Le suivi du niveau d’activité physique dépend de la disponibilité d’outils valides et fiables pour la mesure et l’évaluation de l’activité physique. Malheureusement, le manque de pareils outils est observé au Bénin, un pays francophone de l’Afrique. Aussi dans les circonstances de pays à ressources financières limitées comme le Bénin, les questionnaires, méthodes subjectives de mesure de l’activité physique, sont les méthodes les plus utilisées en raison de leur faible coût et de leur facilité de mise en place. Le Questionnaire International de l’Activité Physique (IPAQ) est un outil fréquemment utilisé pour mesurer le niveau d’activité physique des sujets sains et de différents groupes de patients. Toutefois, ce questionnaire, à notre connaissance n’est pas validé dans le contexte de pays francophone d’Afrique comme le Bénin. Le but de ce mémoire de maîtrise était d’adapter et de valider IPAQ chez les personnes saines et les survivants d’un AVC au Bénin. En conséquence, nous avons procédé à l’adaptation du questionnaire IPAQ selon la culture et le français parlé au Bénin, en nous basant sur les méthodes reconnues. Ensuite, la validité convergente et la fidélité test-retest de la version expérimentale béninoise du questionnaire ont été examinées à partir d’un échantillon de 60 sujets sains et de 60 sujets post AVC recrutés au Bénin. Les résultats de l’étude démontrent une excellente validité convergente et une excellente fidélité test-retest de la version béninoise de IPAQ pour la mesure de l’activité physique des personnes saines et des survivants d’un AVC. / The practice of physical activity significantly reduces the risk of stroke. It is also used as a therapeutic strategy to maximize functional recovery during the rehabilitation of stroke survivors. Therefore, it is important to monitor the level of physical activity of healthy people and stroke survivors. Tracking the level of physical activity depends on the availability of valid and reliable tools for measuring and assessing physical activity. Unfortunately, the lack of such tools is observed in Benin, a French-speaking country in Africa. Also, in the circumstances of countries with limited financial resources such as Benin, questionnaires, subjective methods of measuring physical activity, are the most used methods because of their low cost and ease of implementation. The International Physical Activity Questionnaire (IPAQ) is a frequently tool used for measuring the level of physical activity of healthy subjects and different groups of patients. However, this questionnaire, to our knowledge, is not validated in the context of French-speaking African countries as in the context of Benin. The goal of this Master thesis was to adapt and validate IPAQ in healthy people and stroke survivors in Benin. Consequently, following well-established methods, we adapted the IPAQ according to the culture and specific linguistic aspects of French as spoken in Benin. Then, the convergent validity and test-retest reliability of the Beninese experimental version of the questionnaire were examined from a sample of 60 healthy subjects and 60 post-stroke subjects recruited in Benin. The results of the study show excellent convergent validity and excellent test-retest reliability of the Benin version of IPAQ for measuring the physical activity of healthy people and stroke survivors.
28

Multivariate latent variable modelling odf the pre-baked anode manufacturing process used in aluminum smelting = : Modélisation multivariée par variables latentes du procédé de fabrication des anodes précuites utilisées pour la production d'aluminium primaire / Modélisation multivariée par variables latentes du procédé de fabrication des anodes précuites utilisées pour la production d'aluminium primaire

Lauzon-Gauthier, Julien 18 April 2018 (has links)
L'aluminium est fabriqué par un procédé électrolytique. La réaction consomme des anodes de carbone dont la qualité a une grande influence sur l’opération optimale du procédé. Cependant, leurs propriétés sont mesurées hebdomadairement sur moins de 1% de la production. L'objectif de ce projet est d'améliorer le contrôle de la qualité du procédé de fabrication des anodes par la prédiction de leurs propriétés. Une méthode de régression multivariée appelée projection sur structures latentes est utilisée pour relier les propriétés des matières premières et les paramètres d’opération du procédé aux propriétés des anodes cuites recueillies à l'Aluminerie Alcoa de Deschambault. Plusieurs modèles sont étudiés pour les propriétés physiques et la réactivité aux gaz qui expliquent 20% à 68% des variations de celles-ci. Considérant le niveau de bruit élevé des données industrielles, il est jugé qu’une portion significative de la variabilité est modélisée. De plus, l’interprétation de ces modèles est cohérente par rapport aux connaissances du procédé. / Aluminum is manufactured by an electrolytic process. The reaction consumes carbon anodes. Anode quality has a great influence on the optimal operation of the reduction process. However, their properties are poorly characterized by weekly averages of anode sample laboratory analyses. The goal of this thesis is to improve quality control at the baked anode manufacturing plant by predicting anode properties. A multivariate latent variable regression method called Projection to Latent Structure (PLS) is used to relate the raw material and the manufacturing process data to the baked anode properties collected at the Alcoa Deschambault smelter. Several models are investigated for physical properties and gas reactivity. From 27% to 68% of the physical properties variance and 20% to 49% of the reactivity variations are captured. The models explained a significant amount of variability, considering that industrial data is typically very noisy. The interpretation of the models was found in agreement with process knowledge.
29

Travailler avec un interprète : représentations sociales de médecins de famille

Laforest, Karine 19 April 2018 (has links)
Cette étude vise à explorer les représentations sociales des médecins au sujet du travail avec un interprète. Des entrevues ont été conduites avec des médecins expérimentés (n=17), des résidents (n=15) et des étudiants (n=8) et des vignettes vidéo leur ont été présentées. Les données ont fait l'objet d'une analyse métaphorique et thématique afin d'en dégager les représentations sociales et de les comparer entre les catégories. Il semble que la perception des médecins du travail avec un interprète est une vision objectivante de l'interprète qu'ils voient comme neutre et détaché. Alors qu'il se dégage des ressemblances dans leur discours, leur perception semble se cristalliser au fil de leur cheminement autour d'un rapport de force où ils ont l'impression de perdre leur pouvoir. Les médecins pourraient bénéficier d'améliorer par le biais d'une formation leur capacité à travailler avec un interprète, ce qui risquerait d'améliorer la qualité des soins prodigués.
30

Évaluation et amélioration de l'échantillonnage par lot pour l'assurance de la qualité (LQAS) pour le suivi de programmes d'aide humanitaire

Diop, Awa 14 August 2018 (has links)
Introduit par Dodge and Romig [1959] et rendu populaire par Valadez [1991]), le Lot Quality Assurance Sampling (LQAS) est une méthode beaucoup utilisée par les organismes dans le suivi de leurs activités (Robertson and Valadez [2006]). Le LQAS est utilisé dans le contexte comme une approche simple et peu coûteuse pour prendre rapidement des décisions par rapport à l’allocation des ressources. L’approche proposée par Valadez consiste à réaliser le test usuel de la binomiale exacte sur une proportion où on contrôle à la fois les erreurs a et b pour choisir une taille n et un seuil critique c. Pour rendre accessible son utilisation, Valadez et al. [2002] ont développé un manuel des praticiens qui présente une méthodologie d’utilisation du LQAS plus complexe que l’approche proposée par Valadez. Plusieurs problèmes liés à l’utilisation du LQAS en pratique sont identifiés et nous avons évalué leurs impact sur les erreurs de type I et II. Nous avons proposé d’autres solutions comme le test exact de Fisher, le test exact de Barnard, un test basé sur l’approximation par la loi normale avec et sans transformation arcsin( p x) en contrôlant pour chacun de ces tests a et b. Nous avons aussi soulevé le problème de la comparaison multiple et nous avons proposé une correction, celle de Bonferroni. Au terme de l’étude, nous avons développé une application Shiny sur R (https://lqasdesign. shinyapps.io/app1/) pour faciliter la conception et l’analyse selon le LQAS. / Introduced by Dodge and Romig [1959] and popularized by Valadez [1991], Lot Quality Assurance Sampling (LQAS) is a method widely used by tremendous organizations to tracking their activities (Robertson and Valadez [2006]). It is a simple and economical approach which allow them to make quick decisions about resource allocation. The approach proposed by Valadez consists in carrying out the usual exact binomial test on a proportion where we control both the a and b errors to choose a n size and a critical c threshold. In this study, several issues related to the use of LQAS in practice have been identified and we assessed their impact on Type I and Type II errors. Then, we proposed several solutions such as Fisher’s exact test, Barnard’s exact test, as well as a test based on the normal approximation with and without transformation arcsin( p x) by checking for each of them a and b. We also raised the problem of multiple comparison and proposed a correction using the Bonferroni framework. Finally, we developed a Shiny application on R (https://lqasdesign.shinyapps.io/app1/) to facilitate the practical implementation of each these methods.

Page generated in 0.0561 seconds