• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 57
  • 16
  • Tagged with
  • 73
  • 73
  • 38
  • 20
  • 18
  • 17
  • 13
  • 12
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Extraction robuste de primitives géométriques 3D dans un nuage de points et alignement basé sur les primitives

Tran, Trung Thien 24 April 2018 (has links)
Dans ce projet, nous étudions les problèmes de rétro-ingénierie et de contrôle de la qualité qui jouent un rôle important dans la fabrication industrielle. La rétro-ingénierie tente de reconstruire un modèle 3D à partir de nuages de points, qui s’apparente au problème de la reconstruction de la surface 3D. Le contrôle de la qualité est un processus dans lequel la qualité de tous les facteurs impliqués dans la production est abordée. En fait, les systèmes ci-dessus nécessitent beaucoup d’intervention de la part d’un utilisateur expérimenté, résultat souhaité est encore loin soit une automatisation complète du processus. Par conséquent, de nombreux défis doivent encore être abordés pour atteindre ce résultat hautement souhaitable en production automatisée. La première question abordée dans la thèse consiste à extraire les primitives géométriques 3D à partir de nuages de points. Un cadre complet pour extraire plusieurs types de primitives à partir de données 3D est proposé. En particulier, une nouvelle méthode de validation est proposée pour évaluer la qualité des primitives extraites. À la fin, toutes les primitives présentes dans le nuage de points sont extraites avec les points de données associés et leurs paramètres descriptifs. Ces résultats pourraient être utilisés dans diverses applications telles que la reconstruction de scènes on d’édifices, la géométrie constructive et etc. La seconde question traiée dans ce travail porte sur l’alignement de deux ensembles de données 3D à l’aide de primitives géométriques, qui sont considérées comme un nouveau descripteur robuste. L’idée d’utiliser les primitives pour l’alignement arrive à surmonter plusieurs défis rencontrés par les méthodes d’alignement existantes. Ce problème d’alignement est une étape essentielle dans la modélisation 3D, la mise en registre, la récupération de modèles. Enfin, nous proposons également une méthode automatique pour extraire les discontinutés à partir de données 3D d’objets manufacturés. En intégrant ces discontinutés au problème d’alignement, il est possible d’établir automatiquement les correspondances entre primitives en utilisant l’appariement de graphes relationnels avec attributs. Nous avons expérimenté tous les algorithmes proposés sur différents jeux de données synthétiques et réelles. Ces algorithmes ont non seulement réussi à accomplir leur tâches avec succès mais se sont aussi avérés supérieus aux méthodes proposées dans la literature. Les résultats présentés dans le thèse pourraient s’avérér utilises à plusieurs applications. / In this research project, we address reverse engineering and quality control problems that play significant roles in industrial manufacturing. Reverse engineering attempts to rebuild a 3D model from the scanned data captured from a object, which is the problem similar to 3D surface reconstruction. Quality control is a process in which the quality of all factors involved in production is monitored and revised. In fact, the above systems currently require significant intervention from experienced users, and are thus still far from being fully automated. Therefore, many challenges still need to be addressed to achieve the desired performance for automated production. The first proposition of this thesis is to extract 3D geometric primitives from point clouds for reverse engineering and surface reconstruction. A complete framework to extract multiple types of primitives from 3D data is proposed. In particular, a novel validation method is also proposed to assess the quality of the extracted primitives. At the end, all primitives present in the point cloud are extracted with their associated data points and descriptive parameters. These results could be used in various applications such as scene and building reconstruction, constructive solid geometry, etc. The second proposition of the thesis is to align two 3D datasets using the extracted geometric primitives, which is introduced as a novel and robust descriptor. The idea of using primitives for alignment is addressed several challenges faced by existing registration methods. This alignment problem is an essential step in 3D modeling, registration and model retrieval. Finally, an automatic method to extract sharp features from 3D data of man-made objects is also proposed. By integrating the extracted sharp features into the alignment framework, it is possible implement automatic assignment of primitive correspondences using attribute relational graph matching. Each primitive is considered as a node of the graph and an attribute relational graph is created to provide a structural and relational description between primitives. We have experimented all the proposed algorithms on different synthetic and real scanned datasets. Our algorithms not only are successful in completing their tasks with good results but also outperform other methods. We believe that the contribution of them could be useful in many applications.
32

Optimisation spatiotemporelle de la surveillance de la dégradation de la qualité de l'eau potable dans les réseaux de distribution

Ardila Jimenez, Andres Felipe 10 May 2024 (has links)
La surveillance de la qualité de l'eau dans les réseaux de distribution est essentielle pour assurer la conformité réglementaire, identifier les problèmes liés à sa dégradation excessive et proposer des approches visant à limiter la présence de contaminants susceptibles d'affecter la santé des citoyens. Cependant, en raison de contraintes budgétaires, technologiques, et de gestion, les responsables de l'eau potable des municipalités ne sont pas en mesure de surveiller l'ensemble du réseau et doivent choisir des points et des moments de surveillance représentatifs pour déterminer la qualité de l'eau. Bien qu'il s'agisse d'un besoin évident et crucial, il n'existe aucune démarche réglementaire appuyée par la science permettant aux responsables de sélectionner des points optimaux de surveillance. La dégradation de la qualité de l'eau varie dans l'espace et dans le temps le long du réseau de distribution en raison de facteurs spécifiques au système, tels que le temps de séjour de l'eau (TDS), le matériau et le diamètre des conduites, les caractéristiques physicochimiques de l'eau, l'utilisation de désinfectants secondaires, etc. Il est donc difficile pour les opérateurs de déterminer où et quand effectuer des contrôles de la qualité de l'eau. L'objectif principal de cette thèse de doctorat est de proposer une nouvelle démarche méthodologique pour optimiser la localisation des points et la fréquence de surveillance dans le réseau de distribution qui tienne compte de la variabilité spatio-temporelle des indicateurs de qualité de l'eau. Cette nouvelle démarche vise à répondre aux besoins méthodologiques identifiés à travers une revue chronologique et critique de la littérature, qui comprend l'identification des concepts fondamentaux, des techniques d'optimisation, ainsi que des avantages et des limites des méthodologies spécifiquement axées sur l'optimisation de la dégradation de la qualité de l'eau dans les réseaux de distribution présentées précédemment par la communauté scientifique. Cette thèse présente une approche innovante basée sur la variabilité spatio-temporelle de la qualité de l'eau, applicable à une échelle réelle par les responsables des municipalités. La méthodologie propose l'identification d'une zone géographique qui peut être représentée par la qualité de l'eau mesurée dans un point de surveillance sélectionné. La démarche fait appel à la connaissance des caractéristiques hydrauliques du réseau (débits et sens d'écoulement) ainsi qu'à celles des conditions associées à une forte variabilité spatiale des indicateurs entre les points qui partagent une connexion hydraulique. Compte tenu de l'utilisation du modèle hydraulique, les nœuds du modèle sont considérés comme des points de surveillance potentiels dans le réseau de distribution, ce qui permet de parler de nœuds de surveillance et nœuds de surveillance optimaux. Ensuite, la population représentée par chaque nœud du réseau est estimée et utilisée dans l'optimisation de la sélection des points de surveillance. Une évaluation est effectuée sur la base du nombre d'individus que chaque nœud peut représenter et le nœud ayant la plus grande capacité de représentation est choisi. Lorsqu'un nœud est choisi, la population représentée par ce nœud est considérée comme surveillée et le meilleur nœud suivant est sélectionné. Cette procédure est répétée jusqu'à ce que l'ensemble de la population cible soit considérée comme surveillée. La démarche proposée est appliquée au réseau de distribution de la Ville de Québec (Québec, Canada) afin d'optimiser la surveillance de quatre indicateurs de la qualité de l'eau: le chlore libre résiduel (CLR), les bactéries hétérotrophes totales aérobies et anaérobies (BHAA), les trihalométhanes (THM) et les acides haloacétiques (AHA). Deux objectifs d'optimisation sont pris en compte: l'optimisation de la représentativité de la population globale et la surveillance de la population à risque en raison d'une forte dégradation de la qualité de l'eau. Les résultats montrent que la variabilité spatiale de l'indicateur de la qualité de l'eau a une forte influence sur la représentativité des nœuds, ce qui fait que les indicateurs à forte variabilité spatiale, tels que le CLR, nécessitent un grand nombre de points de surveillance pour représenter l'ensemble de la population cible. Malgré cela, la méthodologie permet d'identifier les nœuds ayant une forte capacité de représentativité. Ces nœuds devraient être priorisés parce qu'ils maximisent la population représentée en minimisant les points de surveillance sélectionnés. De même, les résultats montrent que la surveillance de tous les indicateurs dans le même point n'est pas pertinente, car les conditions de variabilité spatiale sont propres à chaque indicateur. Ces conditions déterminent le nombre et la localisation optimaux des points de surveillance pour chaque indicateur individuellement. L'impact du comportement hydraulique et de l'incertitude liée à la modélisation a été analysé en appliquant la démarche proposée pour différents scénarios. Pour ce faire, des scénarios temporels de surveillance intra-journalière, journalière et saisonnière ont été étudiés et comparés. Les résultats obtenus pour l'étude de cas considérée montrent qu'à l'échelle intra-journalière, la localisation des points de surveillance ne varie pas de manière significative étant donné que le comportement hydraulique global du réseau n'est pas affecté. Le même effet peut être observé en comparant un jour de forte demande en eau (débit journalier maximum) à un jour de consommation moyenne (débit journalier moyen). Cependant, l'échelle de temps saisonnière joue un rôle dans la détermination des points de surveillance optimaux. En effet, en raison de la plus faible variabilité spatiale des indicateurs de la qualité de l'eau en hiver, moins de mesures sont nécessaires pour surveiller la même proportion de la population qu'en été. En revanche, la localisation spatiale des nœuds ayant une capacité de représentativité plus élevée ne semble pas changer d'une saison à l'autre, ce qui permet d'identifier des points de surveillance optimaux tout au long de l'année. La démarche proposée est un outil innovant d'aide à la décision pour la sélection optimale des points de surveillance de la qualité de l'eau des réseaux de distribution. Cette méthodologie est originale par la prise en compte de la variabilité spatio-temporelle de la qualité de l'eau, ainsi que par son adaptabilité pour l'optimisation de la surveillance de tout type d'indicateur pour lequel des conditions de forte variabilité spatiale peuvent être définies. / Monitoring water quality in distribution networks is essential to ensure regulatory compliance, identify problems associated with excessive degradation, and propose approaches to limit the presence of contaminants that could jeopardize citizens' health. However, due to budgetary, technological and management constraints, municipal drinking water authorities are unable to monitor the entire network, and must select representative monitoring points and times to determine water quality levels. Although this is an obvious and crucial need, there is no science-based regulatory approach to enable managers to select appropriate monitoring points. Furthermore, water quality degradation varies spatially and temporally along the distribution network, due to system-specific factors such as water residence time (WRT), pipe material and diameter, physicochemical characteristics of the water, use of secondary disinfectants, etc. This makes it all the more difficult for operators to determine where and when to carry out water quality checks. The main objective of this PhD thesis is to propose a new methodological approach for optimizing the location of monitoring points and the frequency of monitoring in the distribution network, taking into account the spatio-temporal variability of water quality indicators. This new approach aims to meet the methodological needs identified through a chronological and critical review of the literature, which includes the identification of fundamental concepts, optimization techniques, as well as the advantages and limitations of methodologies previously presented by the scientific community. This thesis presents an innovative approach based on the spatio-temporal variability of water quality, which can be applied on a real scale by municipal managers. The methodology proposes the identification of a geographical area that can be represented by the measured water quality of a selected monitoring point. The approach calls on knowledge of the network's hydraulic characteristics (flow rates and direction of flow), as well as of the conditions associated with high spatial variability of indicators between points sharing a hydraulic connection. Given the use of the hydraulic model, the nodes in the model are considered as potential monitoring points in the distribution network, hence the term monitoring nodes and optimal monitoring nodes. Next, the population represented by each network node is estimated and used to optimize the selection of monitoring points. An evaluation is made based on the number of individuals each node can represent, and the node with the greatest representation capacity is chosen. Once a node has been chosen, the population represented by that node is considered as monitored, and the next best node is selected. This procedure is repeated until the entire target population is considered monitored. The proposed approach is applied to the distribution network of Quebec City (Quebec, Canada) to optimize the monitoring of four water quality indicators: free chlorine residual (FRC), heterotrophic plate counts (HPC), trithalomethanes (THM) and haloacetic acids (HAA). Two distinct optimization objectives are taken into account: optimizing the global representativeness of the population and monitoring the population at risk due to high water quality degradation. The results show that the specific spatial variability of the water quality indicator has a strong influence on the representativeness of the nodes, meaning that indicators with high spatial variability, such as FRC, require a large number of monitoring points to represent the entire target population. Despite this, the methodology enables us to identify nodes with a high representativeness capacity. These nodes should be prioritized as they maximize the population represented reducing the monitoring points needed. Similarly, the results show that monitoring all indicators as a whole at the same point is not relevant, as the conditions of spatial variability are specific to each indicator; these conditions determine the optimal number and location of monitoring points for each indicator individually. The impact of hydraulic behavior and modeling uncertainty was analyzed by applying the proposed approach to different temporal scenarios. Intraday, daily and seasonal monitoring scenarios were studied and compared. The results obtained for the case study under consideration show that on an intraday scale, the location of monitoring points does not vary significantly, as the overall hydraulic behavior of the network is not affected. The same effect can be observed when comparing a day of high water demand (maximum daily flow) with a day of average consumption (average daily flow). Finally, the seasonal timescale plays an important role in determining optimum monitoring points. Indeed, due to the lower spatial variability of water quality indicators in winter, fewer measurements are required to monitor the same proportion of the population as in summer. On the other hand, the spatial location of nodes with a higher representativeness capacity does not appear to change from one season to the next, enabling optimal monitoring points to be identified throughout the year. Finally, the proposed approach will serve as an innovative decision-making tool for the optimal selection of water quality monitoring points in distribution networks. The methodology is original in that it takes into account the spatio-temporal variability of water quality, and is adaptable to optimize the monitoring of any type of inditor for which conditions of high spatial variability can be defined.
33

Contrôle de qualité des anodes de carbone à partir de méthodes statistiques multivariées

Paris, Adéline 27 November 2020 (has links)
L’aluminium primaire est produit à partir du procédé électrolytique Hall-Héroult qui nécessite des anodes de carbone pour véhiculer le courant et fournir la source de carbone pour la réaction. La qualité des anodes influence les performances dans les cuves. Or, l’augmentation de la variabilité des matières premières rend la fabrication d’anodes de bonne qualité de plus en plus difficile. L’objectif de ce projet est d’améliorer le contrôle de qualité des anodes avant la cuisson à l’aide de mesures de résistivité électrique. À partir de méthodes statistiques multivariées, les mesures ont été utilisées dans deux optiques différentes : prédictive et explicative. L’optimum de brai qui est défini comme étant la quantité optimale de brai menant aux meilleures propriétés de l’anode pour un mélange d’agrégats donné change plus fréquemment avec l’accroissement de la variabilité de la matière première. Le dépassement de l’optimum peut engendrer des problèmes de collage lors de la cuisson. Un capteur virtuel conçu à partir d’un modèle d’analyse en composantes principales a permis de montrer qu’un bris dans la structure de corrélation mesuré par l’erreur de prédiction (SPE) semble se produire lorsque les anodes ont un risque de coller lors de la cuisson. Son application sur des données d’optimisation de brai a aussi été réalisée. Afin d’améliorer la compréhension des paramètres influençant la résistivité de l’anode, un modèle par projection des moindres carrés partiels en blocs séquentiels (SMB-PLS) a été développé. Il a permis d’expliquer 54 % des variations contenues dans les mesures de résistivité à partir des données opératoires, de matières premières et de formulation. Son interprétation a montré que la variabilité de la résistivité de l’anode verte est principalement causée par les matières premières utilisées et que les relations observées sont conformes avec la littérature et les connaissances du procédé. / Primary aluminum is produced through the Hall-Héroult process. Carbon anodes are used in this electrolytic process to provide the carbon source for the reaction and to distribute electrical current across the cells. Anode quality influences cell performance. However,increasing raw material variability has rendered the production of high-quality anodes more difficult. The objective of this project is to improve carbon anode quality control before baking by using anode electrical resistivity measurements. Multivariate statistical methods were applied to create two types of models: predictive and explanatory. For a given aggregate, the optimum pitch demand (OPD) is the amount of pitch that yields the best anode properties. High raw material variability causes the OPD to change more frequently, which makes it difficult to add the correct amount of pitch. This can lead to post-baking sticking problems when the optimum is exceeded. A soft sensor was developed based on a principal component analysis (PCA). The integrity of the correlation structure,as measured by the Squared Prediction Error (SPE), appears to break down during high-risk periods for anode sticking. The soft sensor was also tested on data collected during pitch optimization experiments.A sequential multi-block PLS model (SMB-PLS) was developed to determine which parameters influence anode resistivity. Raw material properties, anode formulation and process parameters collectively explain 54 % of the variability in the anode resistivity measurements.The model shows that coke and pitch properties have the greatest impact on green anode electrical resistivity. In addition, the main relationships between process variables implied by the model agree with the relevant literature and process knowledge.
34

Comparaison de différentes méthodes d'estimation de la charge pour les sédiments et l'azote à l'exutoire d'un petit bassin versant

Zamyadi, Arash 11 April 2018 (has links)
La charge en nutriments à l'exutoire d'un bassin versant est un élément-clé pour la gestion de la qualité de l'eau. Toutefois, à cause du peu de mesures de concentration, un estimé précis de la charge n'est pas possible. Cette étude a été effectuée pour déterminer la qualité d'estimation de la charge pour une combinaison de six fréquences d'échantillonnage (jour à mois), deux schémas (fixe et aléatoire) et sept méthodes de calcul (moyenne, rapport d'estimation, interpolation) pour les sédiments et trois composantes de l'azote pour un bassin versant du Québec. Des valeurs horaires de débit, azote total, nitrate, ammonium et sédiment ont été générées pour une période de deux ans avec le programme HSPF calibré pour ce bassin versant de 5.3 km2 . Il a été assumé que les estimés de charge basés sur l'accumulation massique des valeurs horaires représentent les valeurs réelles auxquelles les valeurs estimées par les autres méthodes peuvent être comparées en utilisant le biais, l'écart type et la racine carrée de l'erreur moyenne au carré (RMSE). Pour tous les paramètres de qualité de l'eau, RMSE augmente avec la diminution de la fréquence d'échantillonnage. L'échantillonnage fixe résulte toujours en un RMSE plus faible que pour l'échantillonnage aléatoire; ce qui peut être attribué à l'autocorrellation temporelle. L'autocorrellogramme des sédiments en suspension montre une périodicité de 24 heures, expliquée par la fonte nivale printanière et par les précipitations plus fréquentes durant la soirée et la nuit. Les évaluations de la charge ont presque toujours résulté en une sous-estimation, probablement dû aux crues de courte durée caractérisant ce bassin versant. Des sept méthodes de calcul étudiées, l'interpolation linéaire a systématiquement donné des RMSE plus faibles. Toutefois, les méthodes du rapport d'estimation (incluant la méthode de Beale) n'ont pas bien performé, avec la cinquième et sixième place. / The knowledge of nutrient mass load at the outlet of watersheds is a key tool in water quality management projects. However, because of the lack of frequent concentration measurements, a precise estimation of mass load is not possible. This study was conducted to determine the quality of mass load estimation for a combination of six sampling frequencies (daily to monthly), two sampling schemes (fixed and random), and seven calculation methods (averaging, ratio estimator, and interpolation) for sediment and three nitrogen components at the outlet of an agricultural watershed in the province of Québec. Hourly values of flow, total nitrogen, nitrate, ammonium and sediment were generated for a two-year period by the HSPF model calibrated for the 5.3 km2 watershed. Load estimates based on the mass accumulation of hourly values were assumed to represent the true loads to which loads estimated by other methods were compared using bias, standard deviation, and root mean square error (RMSE). For ail water quality parameters, the RMSE increased with the decrease of sampling frequency. Fixed sampling schemes always resulted in RMSE values lower than those of random schemes. This better performance of the fixed sampling scheme is attributed to the autocorrélation in time for ail water quality parameters. The sediment autocorrellogram showed a 24-hour periodicity that is explained by snowmelt and more frequent evening and night rainfalls. Ail load evaluations generally resulted in an underestimation of the true load, most likely due to the flashy hydrological response of the small watershed studied. Of the seven load calculation methods studied, linear interpolation, which is used to obtain an estimate of concentration for each available hourly flow value, systematically yielded the lowest RMSE value. However, ratio estimator methods did not fare well, ranking only 5 and 6 out of the 7 methods tested.
35

Adaptation et validation du questionnaire international de l'activité physique (IPAQ) chez les personnes saines et les survivants d'un accident vasculaire cérébral au Bénin

Honado, Sedonoude Aristide 18 October 2019 (has links)
La pratique de l’activité physique réduit considérablement le risque de survenue des accidents vasculaires cérébraux (AVC). Elle est aussi utilisée en tant que stratégie thérapeutique pour maximiser la récupération fonctionnelle pendant la réadaptation des survivants d’un AVC. Dès lors, il est important de suivre le niveau d’activité physique des personnes saines et des survivants d’un AVC. Le suivi du niveau d’activité physique dépend de la disponibilité d’outils valides et fiables pour la mesure et l’évaluation de l’activité physique. Malheureusement, le manque de pareils outils est observé au Bénin, un pays francophone de l’Afrique. Aussi dans les circonstances de pays à ressources financières limitées comme le Bénin, les questionnaires, méthodes subjectives de mesure de l’activité physique, sont les méthodes les plus utilisées en raison de leur faible coût et de leur facilité de mise en place. Le Questionnaire International de l’Activité Physique (IPAQ) est un outil fréquemment utilisé pour mesurer le niveau d’activité physique des sujets sains et de différents groupes de patients. Toutefois, ce questionnaire, à notre connaissance n’est pas validé dans le contexte de pays francophone d’Afrique comme le Bénin. Le but de ce mémoire de maîtrise était d’adapter et de valider IPAQ chez les personnes saines et les survivants d’un AVC au Bénin. En conséquence, nous avons procédé à l’adaptation du questionnaire IPAQ selon la culture et le français parlé au Bénin, en nous basant sur les méthodes reconnues. Ensuite, la validité convergente et la fidélité test-retest de la version expérimentale béninoise du questionnaire ont été examinées à partir d’un échantillon de 60 sujets sains et de 60 sujets post AVC recrutés au Bénin. Les résultats de l’étude démontrent une excellente validité convergente et une excellente fidélité test-retest de la version béninoise de IPAQ pour la mesure de l’activité physique des personnes saines et des survivants d’un AVC. / The practice of physical activity significantly reduces the risk of stroke. It is also used as a therapeutic strategy to maximize functional recovery during the rehabilitation of stroke survivors. Therefore, it is important to monitor the level of physical activity of healthy people and stroke survivors. Tracking the level of physical activity depends on the availability of valid and reliable tools for measuring and assessing physical activity. Unfortunately, the lack of such tools is observed in Benin, a French-speaking country in Africa. Also, in the circumstances of countries with limited financial resources such as Benin, questionnaires, subjective methods of measuring physical activity, are the most used methods because of their low cost and ease of implementation. The International Physical Activity Questionnaire (IPAQ) is a frequently tool used for measuring the level of physical activity of healthy subjects and different groups of patients. However, this questionnaire, to our knowledge, is not validated in the context of French-speaking African countries as in the context of Benin. The goal of this Master thesis was to adapt and validate IPAQ in healthy people and stroke survivors in Benin. Consequently, following well-established methods, we adapted the IPAQ according to the culture and specific linguistic aspects of French as spoken in Benin. Then, the convergent validity and test-retest reliability of the Beninese experimental version of the questionnaire were examined from a sample of 60 healthy subjects and 60 post-stroke subjects recruited in Benin. The results of the study show excellent convergent validity and excellent test-retest reliability of the Benin version of IPAQ for measuring the physical activity of healthy people and stroke survivors.
36

Multivariate latent variable modelling odf the pre-baked anode manufacturing process used in aluminum smelting = : Modélisation multivariée par variables latentes du procédé de fabrication des anodes précuites utilisées pour la production d'aluminium primaire / Modélisation multivariée par variables latentes du procédé de fabrication des anodes précuites utilisées pour la production d'aluminium primaire

Lauzon-Gauthier, Julien 18 April 2018 (has links)
L'aluminium est fabriqué par un procédé électrolytique. La réaction consomme des anodes de carbone dont la qualité a une grande influence sur l’opération optimale du procédé. Cependant, leurs propriétés sont mesurées hebdomadairement sur moins de 1% de la production. L'objectif de ce projet est d'améliorer le contrôle de la qualité du procédé de fabrication des anodes par la prédiction de leurs propriétés. Une méthode de régression multivariée appelée projection sur structures latentes est utilisée pour relier les propriétés des matières premières et les paramètres d’opération du procédé aux propriétés des anodes cuites recueillies à l'Aluminerie Alcoa de Deschambault. Plusieurs modèles sont étudiés pour les propriétés physiques et la réactivité aux gaz qui expliquent 20% à 68% des variations de celles-ci. Considérant le niveau de bruit élevé des données industrielles, il est jugé qu’une portion significative de la variabilité est modélisée. De plus, l’interprétation de ces modèles est cohérente par rapport aux connaissances du procédé. / Aluminum is manufactured by an electrolytic process. The reaction consumes carbon anodes. Anode quality has a great influence on the optimal operation of the reduction process. However, their properties are poorly characterized by weekly averages of anode sample laboratory analyses. The goal of this thesis is to improve quality control at the baked anode manufacturing plant by predicting anode properties. A multivariate latent variable regression method called Projection to Latent Structure (PLS) is used to relate the raw material and the manufacturing process data to the baked anode properties collected at the Alcoa Deschambault smelter. Several models are investigated for physical properties and gas reactivity. From 27% to 68% of the physical properties variance and 20% to 49% of the reactivity variations are captured. The models explained a significant amount of variability, considering that industrial data is typically very noisy. The interpretation of the models was found in agreement with process knowledge.
37

Travailler avec un interprète : représentations sociales de médecins de famille

Laforest, Karine 19 April 2018 (has links)
Cette étude vise à explorer les représentations sociales des médecins au sujet du travail avec un interprète. Des entrevues ont été conduites avec des médecins expérimentés (n=17), des résidents (n=15) et des étudiants (n=8) et des vignettes vidéo leur ont été présentées. Les données ont fait l'objet d'une analyse métaphorique et thématique afin d'en dégager les représentations sociales et de les comparer entre les catégories. Il semble que la perception des médecins du travail avec un interprète est une vision objectivante de l'interprète qu'ils voient comme neutre et détaché. Alors qu'il se dégage des ressemblances dans leur discours, leur perception semble se cristalliser au fil de leur cheminement autour d'un rapport de force où ils ont l'impression de perdre leur pouvoir. Les médecins pourraient bénéficier d'améliorer par le biais d'une formation leur capacité à travailler avec un interprète, ce qui risquerait d'améliorer la qualité des soins prodigués.
38

Évaluation et amélioration de l'échantillonnage par lot pour l'assurance de la qualité (LQAS) pour le suivi de programmes d'aide humanitaire

Diop, Awa 14 August 2018 (has links)
Introduit par Dodge and Romig [1959] et rendu populaire par Valadez [1991]), le Lot Quality Assurance Sampling (LQAS) est une méthode beaucoup utilisée par les organismes dans le suivi de leurs activités (Robertson and Valadez [2006]). Le LQAS est utilisé dans le contexte comme une approche simple et peu coûteuse pour prendre rapidement des décisions par rapport à l’allocation des ressources. L’approche proposée par Valadez consiste à réaliser le test usuel de la binomiale exacte sur une proportion où on contrôle à la fois les erreurs a et b pour choisir une taille n et un seuil critique c. Pour rendre accessible son utilisation, Valadez et al. [2002] ont développé un manuel des praticiens qui présente une méthodologie d’utilisation du LQAS plus complexe que l’approche proposée par Valadez. Plusieurs problèmes liés à l’utilisation du LQAS en pratique sont identifiés et nous avons évalué leurs impact sur les erreurs de type I et II. Nous avons proposé d’autres solutions comme le test exact de Fisher, le test exact de Barnard, un test basé sur l’approximation par la loi normale avec et sans transformation arcsin( p x) en contrôlant pour chacun de ces tests a et b. Nous avons aussi soulevé le problème de la comparaison multiple et nous avons proposé une correction, celle de Bonferroni. Au terme de l’étude, nous avons développé une application Shiny sur R (https://lqasdesign. shinyapps.io/app1/) pour faciliter la conception et l’analyse selon le LQAS. / Introduced by Dodge and Romig [1959] and popularized by Valadez [1991], Lot Quality Assurance Sampling (LQAS) is a method widely used by tremendous organizations to tracking their activities (Robertson and Valadez [2006]). It is a simple and economical approach which allow them to make quick decisions about resource allocation. The approach proposed by Valadez consists in carrying out the usual exact binomial test on a proportion where we control both the a and b errors to choose a n size and a critical c threshold. In this study, several issues related to the use of LQAS in practice have been identified and we assessed their impact on Type I and Type II errors. Then, we proposed several solutions such as Fisher’s exact test, Barnard’s exact test, as well as a test based on the normal approximation with and without transformation arcsin( p x) by checking for each of them a and b. We also raised the problem of multiple comparison and proposed a correction using the Bonferroni framework. Finally, we developed a Shiny application on R (https://lqasdesign.shinyapps.io/app1/) to facilitate the practical implementation of each these methods.
39

Quality control of complex polymer materials using hyperspectral imaging associated with multivariate statistical analysis

Ghasemzadeh-Barvarz, Massoud 23 April 2018 (has links)
Dans la première étape de ce travail, des composites formulés à partir d'anhydride maléique greffé polyéthylène (MAPE) et de différentes charges de fibres de chanvre (entre 0 et 60%) ont été produits et analysés par imagerie NIR. Trois méthodes chimiométriques ont été utilisées puis comparées pour la prédiction des propriétés mécaniques, cartographier la distribution des constituants et détecter les défauts physiques des matériaux: la calibration multivariée traditionnelle basée sur la régression PLS, la résolution multivariée de courbes (MCR) et l’analyse d’images et la régression sur les images multivariées (MIA/MIR). Dans la deuxième partie de ce projet, une série de films multicouches complexes (échantillons industriels) ont été étudiés par imagerie NIR combinée à l’analyse d’images multivariée. Le potentiel et l'efficacité de la méthode proposée pour détecter les défauts causés par la (les) couche(s) manquant(es) ont été étudiés pour des films non imprimés et imprimés. Dans la dernière partie, les composites hybrides polypropylène (PP) / fibre de verre / fibre de lin ont été étudiés. L'effet de la teneur en fibres (0 à 40% en volume) et de la composition sur les propriétés mécaniques ont été investigués, ainsi que l’effet de l’exposition à l’eau et la dégradation thermique et aux rayons UV (vieillissement accéléré des matériaux). Les images de microscopie électronique à balayage (MEB) des composites non vieillis ont été analysées en combinant des méthodes d’analyse de texture et des méthodes multivariées. Enfin, l'imagerie NIR a été mise en œuvre sur des composites non vieillis et vieillis afin de prédire leurs propriétés finales ainsi que pour modéliser les variations de composition chimique et celles dues au vieillissement accéléré. En résumé, les résultats montrent que la combinaison de l'imagerie hyperspectrale et des méthodes statistiques multivariées est un outil puissant pour le contrôle de la qualité des composites polymères complexes. De plus, la méthode proposée est rapide et non destructive, elle peut être mise en œuvre en ligne, pour le contrôle de la qualité des matériaux composites. D'autre part, il a été démontré que l'analyse de la texture des images peut être appliquée à la quantification de la dispersion et du degré d’homogénéité de la distribution des charges dans des matériaux composites. / In the first step of this work, maleic anhydride grafted polyethylene (MAPE)/hemp fiber composites with different filler concentration between 0 to 60% were analyzed by NIR imaging. Three chemometrics methods including Partial Least Squares (PLS), Multivariate Curve Resolution (MCR) and Multivariate Image Analysis/Multivariate Image Regression (MIA/MIR) were implemented and compared for predicting mechanical properties as well as mapping chemical compositions and material physical variations. In the second part of this project, a series of complex multilayer films (industrial samples) were investigated using NIR hyperspectral imaging and Multivariate Image Analysis (MIA). The potential and effectiveness of the proposed method for detecting defects caused by missing layer(s) were studied for unprinted and printed films. In the final part, polypropylene (PP)/glass/flax hybrid composites were studied. The effect of composition (fiber content between 0 and 40 vol%), as well as water, thermal and UV aging on mechanical properties was investigated. Then, Scanning Electron Microscopy (SEM) images of unaged hybrid composites were analyzed using texture analysis and multivariate methods. Finally, NIR imaging was implemented on unaged and aged composites to predict their final properties as well as to capture chemical composition and aging variations. In summary, the results show that combining hyperspectral imaging and multivariate statistical methods is a powerful tool for quality control of complex polymer composites. Since the proposed method is rapid and nondestructive, one can implement it for on-line quality control of finished plastic products. On the other hand, texture analysis and multivariate methods can be applied for quantifying the mixing aspects of composites.
40

Solutions manufacturées en grandes déformations hyper-élastiques

Chamberland, Éric 16 April 2018 (has links)
La vérification et la validation de logiciel sont des aspects essentiels au succès de tout développement informatique. La vérification de logiciel s'inscrit comme une première phase à accomplir suite à la production d'un nouveau code. La méthode des solutions manufacturées (MSM) est un outil de vérification de logiciel. Ce mémoire présente la MSM appliquée à la mécanique des solides en grandes déformations. Plusieurs discrétisations par éléments finis seront comparées à l'aide de cette méthode. La performance de ces discrétisations sera analysée en terme de convergence, dans une norme appropriée, par rapport à la taille des éléments, le nombre de degrés de libertés, le temps de calcul et la consommation mémoire. Quelques aspects intéressants des éléments mixtes sont présentés et discutés. Les cas test présentés peuvent aussi servir comme bancs d'essais non-triviaux et comme base de vérification de logiciel. / Software verification and validation are important phases in a successfull software developpement. The verification phase is the first to be done just after a new code has been produced. The method of manufactured solutions (MMS) is a software verification tool. In this work, the MMS is used to compare various finite element discretizations for the numerical solution of large deformation problems involving hyperelastic materials. The performance of these different discretizations is analyzed in terms of convergence in a suitable norm with respect to mesh size, computational cost and memory consumption. Some interesting features of mixed finite element discretizations are presented and discussed. The test cases presented can also serve as non trivial benchmark problems and as a basis for code verification.

Page generated in 0.0578 seconds