• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 285
  • 71
  • 1
  • Tagged with
  • 443
  • 443
  • 194
  • 174
  • 26
  • 17
  • 11
  • 11
  • 10
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
401

Effet du vent sur le taux d'accumulation de pollution à la surface des isolateurs de haute tension dans les conditions hivernales

Ravelomanantsoa, Naivonirina January 2012 (has links) (PDF)
L'objectif principal de cette recherche était d'étudier la variation du taux d'accumulation de pollution sur les isolateurs en fonction de la vitesse du vent sous des conditions hivernales. En particulier, cette recherche visait à accroître la connaissance du processus d'accumulation de pollution sur les isolateurs de haute tension durant l'hiver. Comme il n'existait pas encore de méthodes préétablies pour simuler l'accumulation de pollution hivernale sur les isolateurs, la réalisation de cette étude a nécessité le développement de nouvelles méthodes de simulation. Parmi les trois (3) catégories de méthodes de simulation connues, les développements d'une méthode de simulation numérique par ordinateur et d'une méthode d'accumulation artificielle en laboratoire furent retenus. Le modèle développé pour la simulation numérique par ordinateur est une adaptation d'un modèle en 2D d'accumulation de glace sur un câble. En tenant compte de certaines restrictions, il a été démontré que cette adaptation constituait une bonne approche à la modélisation de l'accumulation de pollution sous des conditions hivernales. Ainsi, les simulations numériques réalisées en utilisant ce modèle ont permis de mettre en évidence la forte corrélation positive entre le taux journalier d'accumulation de pollution hivernale et la vitesse du vent. Les résultats des simulations numériques ont permis aussi de trouver que la relation entre ces deux (2) variables est régie par une loi de puissance selon l'expression ESDD = aVb, où a et b sont des paramètres dont les valeurs sont conditionnées par la forme de l'isolateur, la taille des particules de pollution et la quantité totale de particules en suspension dans l'air. Toutefois, la relation obtenue était différente de la fonction cubique, caractéristique de la pollution marine, compte tenu de la valeur de b trouvée. Et, à l'issue de la comparaison des résultats numériques avec ceux obtenus sur le terrain, il a été possible de valider partiellement le modèle numérique, en se limitant à des vitesses de vent qui n'excèdent pas 5 m/s associées à des particules de pollution de 20um de diamètre volumique médian (MVD) et de quantité totale de particules en suspension (TSP) égale à 30 ug/m3. Pour l'accumulation artificielle en laboratoire, le développement du modèle expérimental était basé sur l'adaptation de la méthode de contamination « Dry-Mixing ». La réalisation du montage a nécessité la conception spéciale d'un générateur de pollution, composé d'un générateur d'aérosol solide et d'un système de gicleurs, afin de produire un mélange sec externe de polluants solides (poudre de kaolin), et de gouttelettes surfondues de saumure atomisée. Un écoulement d'air, produit par un ventilateur à vitesses variables à l'intérieur d'un tunnel de vent réfrigéré à circuit fermé ou ouvert, transportait les particules de pollution ainsi formées et les déposait à la surface d'un isolateur de test sous tension ou non, lequel a été installé à une distance spécifique de la buse du générateur de pollution. Des essais de contamination ont pu être effectués par la suite dans la soufflerie réfrigérée ainsi qu'à l'intérieur de la chambre climatique de la CIGELE. Les expériences en absence de source de tension se sont déroulées à la fois dans la soufflerie réfrigérée et dans la chambre climatique. Quant aux expériences en présence de source de haute tension AC, celles-ci se sont déroulées exclusivement dans la chambre climatique. Les résultats expérimentaux obtenus nous ont permis d'étudier les effets du vent sur le taux d'accumulation de pollution sous des conditions hivernales ainsi que d'analyser l'influence de la haute tension AC sur le processus d'accumulation. Il a été trouvé que YESDD est aussi une fonction de puissance de la vitesse du vent selon l'expression ESDD = aVb, où a et b sont des paramètres dépendants des conditions expérimentales telles que la durée de l'accumulation, la température, la pression d'air du gicleur, le débit et la concentration de la saumure ainsi que de la tension appliquée. Cependant, la relation est loin d'être une fonction cubique avec les valeurs de b obtenues. Par ailleurs, il a été constaté que la pollution s'accumulait plus rapidement sur la surface supérieure du disque que sur la surface inférieure. Et en présence de la haute tension AC, l'effet de la force diélectrophorétique était seulement notable sur la surface supérieure du disque pour des vitesses de vent faibles contrairement sur la surface inférieure où son effet était plus considérable pour des vents de grande vélocité. En outre, en comparant les résultats expérimentaux aux résultats obtenus sur le terrain, il a été possible d'obtenir, dans ce sens, une validation du modèle de la chambre climatique en présence de haute tension AC, mais uniquement pour la surface supérieure. En somme, les trois (3) modèles de simulation développés dans la présente étude concordaient sur le fait qu'en présence de conditions hivernales, il y a un accroissement rapide du taux d'accumulation de pollution sur les isolateurs lorsque la vitesse du vent est élevée et que généralement, la variation de YESDD en fonction de la vitesse du vent suit une loi puissance autre que la loi cubique V3. - The main objective of this research was to study the variation in the accumulation rate of pollution on insulators according to the speed of the wind under the winter conditions. More specifically, this research aimed to further knowledge on the pollution accumulation process on high voltage energized insulators during the winter. In absence of pre-established methods to simulate the accumulation of winter pollution on the insulators, this study required the development of new methods of simulation. Among the three categories of known methods of simulation, numerical simulation and artificial accumulation in laboratory were selected. The developed numerical simulation model was adapted from a 2D model of ice accretion on a cable. Taking certain restrictions into account, it was shown that this constituted a good approach for modeling pollution accumulation under winter conditions. Thus, the numerical simulations carried out using this model made it possible to show the strong positive correlation between the daily accumulation rate of winter pollution and wind speed. Numerical simulation results also made it possible to find the relation between these two variables which is governed by a power law according to the expression ESDD = aVb, where a and b are parameters whose values are determined by insulator shape, pollution particle size and total suspended particles in the air. However, the resulting equation was not a cubic function, characteristic of marine pollution, considering the value obtained for b. Finally, by comparing the numerical results to the experimental ones, it was possible to partially validate the numerical model, being limited to wind speeds not exceeding 5 m/s together with pollution particle size of 20 um median volume diameter (MVD), and total suspended particles (TSP) equals to 30 ug/m3. As for the artificial accumulation in laboratory, the developed model was based on the adaptation of the "Dry-Mixing" contamination method. This required setting up a specially designed pollution generator, which was composed of a solid aerosol generator and a nozzle system, in order to produce an external dry mixture of solid pollutants (kaolin powder), and supercooled atomized brine droplets. The air flow, produced by a variable speed fan inside a closed- or an open-loop refrigerated wind tunnel, carried the generated pollution particles and deposited them on the energized or unenergized surface of a test insulator, installed at a specific distance from the pollution generator nozzle. Then, contamination simulations were carried out in the CIGELE refrigerated wind tunnel and in a climate chamber. Experiments without applied voltage were carried out both inside the refrigerated wind tunnel and the climate chamber, whereas those with high voltage source were carried out exclusively inside the climate chamber. The obtained experimental results made it possible to study the effects of wind on the accumulation rate of pollution under winter conditions and also to analyze the influence of AC high voltage on the accumulation process. It was found that ESDD is also related to the wind speed power function, ESDD = aVb, where a and b are parameters depending on experimental conditions such as accumulation duration, temperature, nozzle air pressure, brine flow rate and concentration, as well as applied voltage. However, this is far from being a cubic function according to the obtained values of b. In addition, it was found that pollution accumulated faster on the top surface of the sheds than on the bottom surface. Also under AC high voltage, the effect of the dielectrophoretic force was only notable on the top surface of the sheds at low wind speed contrary to the bottom surface where its effect was more considerable at high wind speed. Moreover, by comparing the experimental results to the ones obtained in the field, it was possible to validate the model used inside the climate chamber under AC high voltage, but only for the top surface. In brief, the three simulation models developed in this study have this in common that under winter conditions there is a rapid increase of the pollution accumulation rate on the insulators subject to high wind speed, and that the variation of ESDD as function of wind speed is a power law different from the cubic law V3.
402

Influence des produits de dégradation sur la stabilité thermique et diélectrique des fluides isolants pour les transformateurs de puissance

Loiselle, Luc January 2013 (has links) (PDF)
De la centrale d'énergie jusqu'à la consommation de l'électricité résidentielle, commerciale et industrielle, il existe tout un réseau de transport constitué d'une variété de composantes. Parmi ces équipements, il y a le transformateur qui est l'équipement le plus onéreux. Les transformateurs de puissance sont des unités critiques sur les réseaux qui sont exposés à différentes contraintes tout au long de leur vie. Parmi ces phénomènes, il y a les contraintes électriques, thermiques et environnementales, qui réduiront la durée de vie des unités en service. Les investigations dans ce mémoire de maîtrise, visent à explorer les différents mécanismes de vieillissement thermique, électrique et chimique qui, par la suite, produisent en état de service, une variété de produits de décomposition (gaz, acides, cires et autres produits colloïdaux) qui attaquent (dégradent) les fibres de l'isolant solide (papier) à l'intérieur du transformateur. Les résultats sont analysés à la suite des différentes mesures effectuées sur différents huiles et fluides naturels et synthétiques dégradés selon des paramètres contrôlés en laboratoire à des fins de comparaison. Ces paramètres sont le vieillissement thermique dans un four à convection à température constante, la simulation d'un point chaud par courant constant, la stabilité sous contraintes électriques à tension fixe et pour terminer le vieillissement thermique en absence d'oxygène par inertage par l'azote. Ces différents fluides vieillis seront par la suite analysés via des techniques de mesure selon les standards imposés par les normes ASTM et via des techniques de mesure innovatrices qui détermineront l'état de la détérioration des fluides en question. Des techniques de mesure telles que la spectrophotométrie, la turbidité, la conductivité thermique, l'acidité, la tension interfaciale, la viscosité, le facteur de dissipation diélectrique ainsi qu'un traceur de radicaux libre ont été utilisés. L'absence d'oxygène réduit le processus de décomposition, il est montré que sans oxygène, le fluide générera moins de produits de décomposition. Il sera démontré que les radicaux libres des huiles minérales sont détectables par l'utilisation d'un traceur (DPPH), que les différents fluides à la suite des tests de stabilité ne se détériorent pas au même rythme et que les huiles minérales à la suite des tests thermiques produisent une quantité de gaz croissant tandis que les esters et les silicones produisent une quantité de gaz décroissant pour se stabiliser après quelques tests. On pourra voir que les produits de dégradation influencent la conductivité thermique de l'huile. En améliorant nos connaissances au sujet des mécanismes des processus de vieillissement et de détérioration des matériaux isolants, les opérateurs de système des réseaux électriques seront en meilleure position pour prendre des décisions appropriées permettant d'éviter des pannes majeures. - From the power plant to the residential, commercial and industrial, consumption of electricity, there is the power network consisting of a variety of components. Among these facilities, there are power transformers which are most expensive equipment. Power transformers which are critical units for networks are exposed to various stresses throughout their lives. Among these stresses, there are: electrical, thermal and environmental stresses, which will shorten the life of the units in service. The investigations performed in this master thesis aimed at exploring the different aging mechanisms: thermal, electrical and chemical that subsequently produce under service conditions, a variety of decomposition byproducts (gases, acids, waxes and other colloidal products). These products will attack (degrade) the fibers of the solid insulation (paper) inside the transformer. The investigations were performed on different oils, natural and synthetic fluids degraded under various conditions in laboratory conditions for comparison. These conditions consisted in thermal aging in an oven at constant temperature, simulation of a hot spot at constant current, the stability under electrical discharge and finally thermal ageing in an oven at constant temperature without oxygen. These different aged fluids were subsequently analyzed using ASTM standard measurement techniques and through innovative measurement techniques to assess the condition of fluids. Measurement techniques such as UV-vis spectrophotometry, the turbidity, thermal conductivity, acidity, interfacial tension, viscosity, dielectric dissipation factor and also a free radicals tracer have been used. The absence of oxygen slows down the process of decaying. It is shown that without oxygen the fluid will produce less decay product. It will be show that free radicals from mineral oils are attributable with a tracer (DPPH). It will be shown that different fluids under stability tests are not ageing at the same rate. It will be shown that the mineral oils produce an increasing quantity of gas from the thermal tests while esters and silicones produces a decreasing quantity of gas to reach a stability zone after few tests. It will be seeing that decay products influence the thermal conductivity of oil. By improving our knowledge about mechanisms of aging processes and deterioration of insulating materials, system operators will be in a better position to take appropriate decisions to avoid major outages.
403

L'expansion numérique du corps

Patarroyo, Jaime 06 1900 (has links) (PDF)
Nous sommes curieusement insatisfaits. Cela fait des années que nous essayons de transformer notre corps pour l’amplifier, ou simplement le questionner, et avec chaque nouvelle technologie nous découvrons de nouvelles possibilités pour le faire. Des casques avec des filtres de couleur pour transformer notre vision ou un costume qui marche comme une deuxième peau, sont des exemples de nos différents efforts. Et maintenant c’est au tour des technologies numériques. On a découvert en elles un média qui nous permet de créer un nombre infini de combinaisons : des couleurs qui peuvent être transformées en sons, un troisième bras contrôlé par les muscles de l’abdomen, etc. L’expansion numérique du corps est un projet de recherche création qui explore les transformations qui ont été faites par des artistes et designers à notre corps, et qui propose d’autres transformations avec l’aide des médias numériques. Ce mémoire d’accompagnement explique le parcours et la méthodologie dite de ‹ bricolage › de l’artiste, le choix des médias numériques, et introduit le processus de recherche théorique et pratique qui a conduit l’élaboration du projet. Pour finir, seront présentées les expositions Tensions et Extensions qui constituent le résultat final de ce projet.
404

Safety analysis using a Smart Safety Helmet embedded with IMU and EEG sensors applied in industrial facility

Li, Ping 08 1900 (has links) (PDF)
Some mental states, such as fatigue, or sleepiness, are known to increase the potential of accidents in industry, and thus could decrease productivity, even increase cost for healthcare. The highest rate of industrial accidents is usually found among shift workers due to fatigue or extended work hours. When using machine tool or interacting with robotic system, the risk of injury increases due to disturbance, lapse in concentration, vigilance decline, and neglect of the risk during prolonged use. Usually, to guarantee safety of worker, the conventional means is to stop the machine when human presence is detected in the safeguarding area of machine tool or robot workspace. The popular human detection technologies exploit laser scanner, camera (or motion tracker), infrared sensor, open-door sensor, static pressure sensitive floor as described in CSA Z434 standard. Of course, in the field of robotic, human and robot are not allowed to work together in the same workspace. However, new industrial needs lead research to develop flexible and reactive chain production for enabling small quantity production or fast modification in product characteristics. Consequently, more efficient human-machine or human-robot collaboration under a safety condition could improve this flexibility. Our research project aims at detecting and analyzing human safety in industry in order to protect workers. Comparing to the conventional human protection methods, our research exploits Artificial Intelligence approach to track and monitor human head motion and mental state using an instrumented safety helmet, labelled as Smart Safety Helmet (SSH) in the following. The contribution of this thesis consists in the design of data fusion algorithm for the recognition of head motion and mental state, which can be used to analyze the potential risky states of workers. A Smart Safety Helmet embedded with Inertial Measurement Unit (IMU) and EEG sensors will be used to detect and decode the human’s mental state and intention. The acquired information will be used to estimate the accident risk level in order to stop machine and then prevent accident or injury. In human-robot interaction (HRI) paradigm, the human’s intention could be used to predict the worker trajectory in order to control the robot moving trajectory and then to avoid fatal collision. Certains états mentaux, comme la fatigue ou la somnolence, sont connus pour augmenter le potentiel d'accidents dans l'industrie, et pourrait donc réduire la productivité, même augmenter les coûts des soins de santé. Le taux le plus élevé d'accidents au travail est habituellement trouvé parmi les travailleurs en rotation (travail posté) dues à la fatigue ou les heures de travail prolongées. Lors de l'utilisation d’une machine-outil ou lors d’une interaction avec un système robotique, le risque de lésion peut augmenter dû à une perturbation, un manque de concentration, une baisse de vigilance et la négligence du travailleur face au risque présent lors d'une utilisation prolongée (accoutumance au risque). Habituellement, pour garantir la sécurité des travailleurs, des moyens classiques sont l'arrêt complet de la machine lorsque la présence humaine est détectée dans une zone non sécuritaire, par exemple dans l’espace de travail d’un robot. Les technologies industrielles communes de détection humaine exploitent le scanner au laser, la caméra (par la capture de mouvement), le capteur infrarouge, l’interrupteur de porte ouverte, le tapis de capture de la pression statique ; tous ces capteurs sont décrits dans la norme CSA Z434. Jusqu’à tout récemment, dans le domaine de la robotique industrielle, les humains et les robots n’étaient pas autorisés à travailler ensemble dans le même espace. Toutefois, des besoins industriels émergents ont dirigé les recherches pour développer une production flexible et réactive pour favoriser la production de petites quantités ou modifier rapidement des caractéristiques du produit. Par conséquent, une collaboration plus efficace entre l'humain et le robot ou, de manière plus générale entre l'humain et la machine, sous des contraintes de sécurité, pourrait améliorer cette flexibilité et cette réactivité. Notre projet de recherche vise à détecter et à analyser la sécurité humaine dans l'industrie afin de protéger les travailleurs. En comparant les méthodes classiques de protection humaine, notre approche exploite l'intelligence artificielle pour identifier les mouvements de la tête et identifier l'état mental en utilisant un casque de sécurité instrumenté, nommé le Smart Safety Helmet (SSH) dans ce qui suit. La contribution de ce mémoire réside dans la conception de la fusion des données provenant de la reconnaissance de mouvement de la tête et de l'état mental, qui peut être utilisée pour analyser le potentiel de risque encouru par un travailleur. Dans le SSH, une unité de mesure inertielle (IMU) et capteurs EEG ont été intégrés. Ces deux capteurs seront utilisés pour détecter l'état mental de l’humain et décoder son intention. Les informations recueillies seront utilisées pour estimer le risque d'accidents afin d'arrêter la machine et d'empêcher un accident. Dans le paradigme de l’interaction humain-robot, l'intention de l'humain pourrait être utilisée modifier le comportement du robot (réduire sa rigidité ou modifier sa trajectoire).
405

Prédiction de gènes parallélisée de haute performance dans MATLAB

Rivard, Sylvain Robert 06 1900 (has links) (PDF)
Ce travail s’inscrit dans un cadre de recherche global du génome humain. Il s'intéresse particulièrement à l'identification de milliers de gènes qui demeurent toujours inconnus à ce jour. Afin de pouvoir effectuer cette tâche sur une plateforme informatique, les séquences d’acide désoxyribonucléique (ADN) seront traitées comme étant des signaux pour permettre l’usage des techniques en traitement numérique de signaux (TNS). Cette approche permettra de réduire les coûts et surtout, le temps que prennent les chercheurs à trouver un gène impliqué dans une maladie. Le projet est divisé en deux volets. Le premier volet de cette recherche consiste à réduire de façon importante les temps de calcul de certains algorithmes en bio-informatique. Cette recherche propose une méthode de mise en oeuvre des algorithmes de prédiction de gènes en parallèle avec le logiciel MATLAB. Les approches proposées sont basées soit sur l’algorithme de Goertzel ou de FFT en utilisant diverses procédures de parallélisme sur une unité centrale de traitement (CPU) et à une unité de processeur graphique (GPU). Les résultats montrent que l’utilisation d’une approche simple, c’est-à-dire sans modification de l’implémentation dans MATLAB, peut nécessiter plus de 4 h et demie pour le traitement de 15 millions de paires de bases (pb) alors qu’une implémentation optimisée peut effectuer la même tâche en moins d’une minute. Nous avons obtenu les meilleurs résultats avec l’implémentation sur GPU qui a pu compléter l'analyse en 57 s, ce qui est plus de 270 fois plus rapide qu’une approche conventionnelle. Ce premier volet de recherche propose deux stratégies pour accélérer le traitement des données du génome humain et s’appuie sur les différents mécanismes de parallélisation. Lorsque l'implantation se fait avec un CPU, les résultats indiquent qu'il serait préférable d'utiliser une fonction de bas niveau (MEX) afin d'augmenter la vitesse d’exécution. De plus, l'usage des boucles parallèles (PARFOR) doit être effectué dans un ordre précis pour bénéficier au maximum du parallélisme dans l’implantation de Goertzel. Lorsque l'implantation est exécutée sur le GPU, les données doivent être segmentées en plus petits blocs afin d'optimiser les temps de traitement. En effet, les blocs qui sont trop gros risquaient de dépasser la taille de la mémoire tandis que des blocs trop petits ne permettaient pas à l'usager de bénéficier pleinement du parallélisme. Dans le second volet, nous avons poursuivi avec l’implantation d’un second algorithme qui permet de cibler les régions susceptibles à la présence de gènes. Cet algorithme se base sur les hexamères qui sont de courtes séquences d’ADN composées de 6 nucléotides. De toutes les variations d’hexamères possibles (4096), seulement 40 de celles-ci se retrouvent plus souvent dans les régions codantes que non codantes. Les autres hexamères se retrouvent autant dans les introns que dans les exons. Il est donc possible de survoler les séquences d’ADN et, selon la présence ou l’absence de certains hexamères, de prédire quelles régions sont codantes. Lors de la superposition des deux approches, soit l’analyse en fréquence et l’analyse des hexamères, il est possible de mieux cibler les zones où l’on peut retrouver de nouveaux gènes. Les analyses effectuées avec les différents algorithmes présentent des valeurs qui témoignent de la probabilité de retrouver un gène dans une région donnée. Pour compléter le processus de prédiction, il est important de déterminer un critère à partir duquel le programme décide qu’il s’agit réellement d’un gène. Ce critère est basé sur trois paramètres, soient le seuil positif, le seuil négatif et taille de la fenêtre. Afin de déterminer les valeurs optimales, les trois paramètres ont été balayés et la meilleure combinaison a été identifiée. L’approche proposée dans ce mémoire permet d’analyser de grandes séquences d’ADN en peu de temps afin d’identifier des zones susceptibles de coder un gène. Ce processus est important puisqu’on estime qu’il reste encore quelques milliers de gènes inconnus qui peuvent être responsables de plusieurs maladies génétiques. Nous espérons que ce travail contribuera à la découverte de nouveaux gènes pour ainsi mieux diagnostiquer certaines maladies génétiques.
406

Détection de la fin de la compaction des anodes par le son

Sanogo, Bazoumana 04 1900 (has links) (PDF)
La production de l’aluminium primaire se fait dans une cuve d’électrolyse en utilisant des anodes en carbone, de l’alumine et du courant électrique comme principaux constituants de la réaction. La qualité des anodes affecte le produit final et peut engendrer des coûts de production supplémentaires. Par ailleurs, de mauvaises propriétés des anodes perturbent la stabilité du procédé d’électrolyse allant jusqu’au dysfonctionnement de la cuve. De ce fait, l’amélioration de la qualité des anodes constitue une préoccupation pour les industries d’aluminium qui sont sans cesse à la recherche de solutions meilleures par la mise en place des outils de contrôle de la qualité. C’est pourquoi leur mise en oeuvre requiert une bonne connaissance des matières premières, une maitrise des outils de production et surtout un paramétrage optimal des machines. Le temps de compaction fait partie des paramètres clés du vibrocompacteur qui influencent la mise en oeuvre des anodes en carbone. Un temps inadéquat est l’une des sources de mauvaises propriétés (basse densité, haute résistivité, etc.) et entraine les phénomènes de sous-compaction ou de sur-compaction, ce qui diminue le rendement de la réduction de l’alumine. L’objectif de ce projet était de développer un outil de contrôle en temps réel du temps de compaction en se servant du son généré par le vibrocompacteur pendant le formage des anodes crues. Ainsi, une application a été développée pour l’analyse des sons enregistrés. Des essais ont été réalisés avec différents microphones pour une meilleure qualité des mesures et un a été choisi pour la suite du projet. De même, différents tests ont été réalisés sur des anodes de laboratoire ainsi que des anodes à l’échelle industrielle afin de mettre en place une méthode pour la détection du temps optimal nécessaire au formage des anodes. Les travaux au laboratoire de carbone à l’Université du Québec à Chicoutimi (UQAC) ont consisté à l’enregistrement de son des anodes fabriquées sur place avec différentes configurations; et à la caractérisation de certaines anodes de l'usine. Les anodes fabriquées au laboratoire sont reparties en deux groupes. Le premier regroupe les anodes pour la validation de notre méthode. Ce sont des anodes produites avec des temps de compaction différents. Le laboratoire de carbone à l’UQAC est unique et il est possible de produire des anodes avec les mêmes propriétés que celles des anodes industrielles. Par conséquent, la validation initialement prévue à l'usine a été effectuée avec les anodes de laboratoire. Le deuxième groupe a servi à étudier les effets des matières premières sur le temps de compaction. Le type de coke et le type de brai ont constitué les différentes variations dans ce deuxième groupe. Quant aux tests et mesures à l’usine, ils ont été réalisés en trois campagnes de mesure. La première campagne en juin 2014 a servi à standardiser et à trouver le meilleur positionnement des appareils pour les mesures, à régler le logiciel et à faire les premières mesures. Une deuxième campagne en mai 2015 a fait l’objet d’enregistrement de son en classant les anodes selon différents temps de compaction. La troisième et dernière campagne en décembre 2015 a été le lieu de tests finaux à l’usine en fabriquant des anodes avec différents critères (variation du temps de compaction, taux de brai, arrêt manuel du compacteur, variation de la pression des ballons du haut du compacteur). Ces anodes ont été ensuite analysées au laboratoire à l’UQAC. En parallèle à ces travaux précités, l’amélioration de l’application d’analyse du son a été faite avec le choix des paramètres d’analyse et leur standardisation. Les résultats des premiers tests au laboratoire et ceux de la campagne de juin 2014 ont montré que la formation des anodes se fait suivant trois étapes : réarrangement des particules et du brai, compaction et consolidation et enfin la finition. Ces travaux ont montré en outre que le temps de compaction joue un rôle très important dans la définition des propriétés finales des anodes. Ainsi, en plus du type de brai, du taux de brai et du type de coke, il faut tenir compte du temps de sur-compaction et de sous-compaction. En effet, ceci a été démontré à travers les deux validations qui ont été réalisées. Les validations ont montré que les anodes compactées au temps optimal ont le meilleur rapport BAD/GAD (rapport de la densité cuite par la densité crue) avec une faible perte de masse contrairement aux anodes sur-compactées. De plus, elles acquièrent de bonne résistivité électrique cuite. De leur côté, les anodes sous-compactées résultent des densités faibles et des résistivités électriques élevées. Ces résultats viennent en plus, de ce qui est mentionné dans la littérature concernant l'importance du temps de compaction, souligner la nécessité de déterminer le temps optimal de compaction. En outre, les résultats du laboratoire et de la campagne de mai 2015 montrent que le suivi du formage des anodes par le son donne un gain sur le temps de compaction des anodes. Ce qui représente un atout pour les industries. Par ailleurs, les améliorations apportées au logiciel ont permis des analyses en temps réel, le stockage des données et la visualisation des graphes de façon simultanée. Les résultats de la caractérisation des échantillons (venant des anodes de la campagne de décembre 2015) ont montré qu’une anode compactée à un temps optimal acquiert une bonne résistance à la compression et sa résistivité électrique baisse. En outre, on note que le temps de compaction dans notre cas a baissé légèrement avec l’augmentation de la pression des ballons de haut du vibrocompacteur. Ce qui a eu pour effet d’augmenter la densité crue de l’anode. Toutefois, il faut s’abstenir de généraliser ce constat car le nombre d’anodes testées est faible dans notre cas. Par ailleurs, cette étude montre que le temps nécessaire pour le formage d’une anode croit avec l’augmentation du taux de brai et baisse légèrement avec l’augmentation de la pression des ballons. Primary aluminum production takes place in an electrolysis cell using carbon anodes, alumina and electric current as main constituents of the reaction. The quality of anodes is very important in the production process because it affects the final product quality and may increase the production costs. Furthermore, bad quality anodes disturb the stability of the electrolysis process and may cause the cell to dysfunction. Thereby, the improvement of anode quality has become a concern for aluminum industry. The industry is constantly looking for better solutions through the implementation of quality control tools. The green anode forming step is important because it affects the properties of anodes, hence, the rest of the production chain. Therefore, the fabrication of anodes requires a profound knowledge of raw materials, a good understanding of production tools, and above all, optimum operation parameters of each unit. The compaction time is one of the key parameters of the vibrocompactor that influence the carbon anodes formation. An improper compaction time is one of the sources of bad anode quality (low density, high electrical resistivity, poor mechanical properties, etc.) and causes either under-compaction or over-compaction. Both under-compaction and over-compaction decrease the yield of the reduction of alumina. The objective of this project was to develop a real-time monitoring tool for the compaction time by using the sound generated by the vibrocompactor during the forming of green anodes. Thus, an application has been developed for the analysis of data (recorded sounds). Tests have been carried out with different microphones for better quality measurements, and one was chosen to be used in the project. Similarly, different tests were carried out on laboratory anodes as well as anodes in industrial scale to establish a method for the detection of the optimal time required for forming the anodes. Experiments in the carbon laboratory at the University of Quebec at Chicoutimi (UQAC) consisted of recording the sound of vibrocompactor during anode formation under different configurations, and the characterization of some of these anodes. The anodes manufactured in the laboratory are divided into two groups. The first group included the anodes for the validation of the method developed. These are anodes produced with different compaction times. The carbon laboratory at UQAC is unique and it is possible to produce anodes with the same properties as those of industrial anodes. Therefore, the validation initially planned at the plant was carried out with the laboratory anodes. The second group was used to study the effects of raw materials on compaction time. The type of coke and the type of pitch constituted the different variations in this second group. Tests and measurements at the plant were carried out during three industrial measurement campaigns. The first campaign in June 2014 served to standardize and to find the best positioning of the devices for the measurements, to adjust the software and to make the first measurements. During the second campaign in May 2015, the sound of the vibrocompactor was recorded for the anodes produced using different compaction times. The third and last campaign in December 2015 was for final tests at the plant which were carried out during manufacturing anodes using different conditions (variation of the compaction time, pitch percentages, manual stop of the compactor, and variation of the pressure of the top balloons of the compactor). These anodes were then analyzed in the laboratory at UQAC. In parallel with these works, the sound analysis application was improved by adjusting the analysis parameters followed by their standardization. The results of the first laboratory tests and those of June 2014 campaign in the plant showed that the formation of the anodes goes through three stages: rearrangement of particles and pitch, compaction and consolidation, and completion. This work also showed that the compaction time plays a very important role in defining the final properties of anodes. Thus, in addition to the type of pitch, the percentage of pitch and the type of coke, the time of over-compaction and under-compaction must be taken into account. Indeed, this has been demonstrated with two validations that have been carried out. The results of validation tests showed that the anodes compacted at the optimum time had the best BAD / GAD (baked anode density divided by green anode density) ratio with a low mass loss in contrast to the over-compacted anodes. They also acquired good electrical resistivity. For their part, the under-compacted anodes resulted in low density and high electrical resistivity. In addition to what was mentioned in the literature; these results pointed out the necessity to determine the optimum compaction time. Moreover, the results of the laboratory tests and those of the campaign of May 2015 showed that the formation of the anodes using the sound method developed during this study shortened the compaction time of the anodes. This is an asset for the industries. In addition, the improved software allowed the real-time analysis and the storage of data simultaneously in addition to the visualization of graphs. The results of the characterization of the samples (coming from the anodes of the campaign of December 2015) showed that an anode compacted at an optimum time acquires good resistance to compression and its electrical resistivity decreases. Furthermore, it should be noted that the compaction time has decreased slightly with the increase in the pressure of the top balloons of the vibrocompactor for the cases studied. This also increased the green anode density. However, it is necessary to refrain from generalizing this observation because the number of industrial anodes investigated is low. Moreover, this study showed that the time required for the formation of an anode increases with the increase in pitch percentage and decreases slightly with the increase in balloon.
407

Reconnaissance d'algues toxiques par vision artificielle et réseau de neurones

Lepage, Richard January 2004 (has links) (PDF)
Depuis de nombreuses années, on cherche à identifier rapidement si des zones de pêches côtières ont été contaminées par des algues toxiques. Une volonté affirmée se développe quant à la conception d'un système automatisé de reconnaissance d'organismes cellulaires à traitement différé ou en temps réel; l'utilité d'un tel système étant avant tout de palier les délais d'analyse taxonomique qui prennent plusieurs jours à s'effectuer avant d'en arriver à une conclusion définitive. De ce fait, la prévention est tardive et les risques plus élevés de contamination toxique pour la population humaine et animal (huîtres, moules, poissons...). La situation, en ce qui a trait aux systèmes existants pour la reconnaissance automatisée du phytoplancton, est en plein développement. Il y a néanmoins des difficultés inhérentes quant à la précision de la classification et de la détection. L'objectif de ce projet de recherche est la reconnaissance automatisée d'une espèce spécifique de phytoplancton, soit l?Alexandrium tamarense. Un appareil, que l'on nomme FLOWCAM, fournit des données (images et informations cytométriques) provenant d'échantillons prélevés à des sites spécifiques. Ces données permettent à un système de reconnaissance de discriminer les espèces végétales contenant des toxines de celles qui sont inoffensives pour l'espèce humaine. On privilégie deux stratégies dans ce mémoire de recherche, la première est une fusion de données obtenues par traitement d'images associées à des paramètres cytométriques générés par le FLOWCAM et la seconde est d'utiliser la totalité des paramètres cytométriques sans procéder au calcul des moments d'ordre n<3 sur chacune des images. Pour les deux approches, la discrimination des classes est effectuée par un réseau de neurones dont l'optimisation a été calculée par la méthode des plans d'expériences de Taguchi. Dans les deux stratégies, nous avons émis l'hypothèse que les données présentaient une distribution normale. À partir de cette distribution, 33% des données provenant de la base de données #1 et #2 ont été choisies de manière aléatoire pour être présenté au réseau de neurones lors de l'étape d'apprentissage. Nous avons ensuite présenté les données provenant de la base de données #1 et #3 au système de reconnaissance pour les deux stratégies. Les résultats que nous avons obtenus permettent de conclure que le calcul des paramètres par la méthode des moments d'ordre n<3 dans la stratégie #1 est imprécise et inadéquate comparativement à la stratégie #2 dont la discrimination se base uniquement sur les paramètres existants du FLOWCAM. Une étude plus exhaustive sera donc nécessaire pour vérifier si la méthode des moments pour n>3 fournit des résultats plus probants.
408

Conception d'un contrôleur de courant pour une source DC alimentant des torches à plasma

Chériti, Amira January 2020 (has links) (PDF)
No description available.
409

Surveillance et diagnostic de charges électriques résidentielles

Hosseini, Seyedsaeid January 2020 (has links) (PDF)
No description available.
410

Caractérisation du signal par analyse des données de substitution

Caza-Szoka, Manouane January 2020 (has links) (PDF)
No description available.

Page generated in 0.3561 seconds