201 |
Modèles économétriques de l'emploi et de la croissance régionaleVandeville, Victor January 1973 (has links)
Doctorat en sciences sociales, politiques et économiques / info:eu-repo/semantics/nonPublished
|
202 |
Caractérisation orbitale et physique des astéroïdes binaires / Orbital and physical characterisation of binary asteroidsKovalenko, Irina 28 September 2016 (has links)
Cette thèse est consacrée à l'étude des objets binaires du Système solaire selon deux axes principaux. Premièrement, nous examinons les paramètres physiques, tels que la taille et l'albédo des binaires transneptuniens, obtenus à partir des mesures de flux thermique en infrarouge par les télescopes spatiaux Herschel et Spitzer. Avec ces paramètres, nous comparons les objets binaires avec les transneptuniens sans satellite. Cette analyse montre que les distributions de tailles dans les deux populations sont différentes. Nous supposons que cette tendance est liée à la prépondérance des petits binaires dans le groupe des objets \og froide \fg{}, qui est plus favorable à la survie des binaires, parmi les autre groupes.De plus, nous étudions les corrélations entre la taille et l'albédo et d'autres paramètres physiques et orbitaux pour la population des binaires. Cette étude montre les fortes corrélations suivantes: entre la taille et la masse, la taille et l'inclinaison héliocentrique, la taille et la différence de magnitudes des composantes. L'étude trouve également deux corrélations moins significatives -- la densité avec la taille et la densité avec l'albédo -- qui nécessitent des vérifications ultérieures avec des données complémentaires. Nous donnons une interprétation possible des résultats du point de vue des différents modèles de formation de tels objets.Deuxièmement, nous présentons une nouvelle méthode de détermination d'orbite mutuelle d'un système binaire. Cette méthode est basée sur la technique de Monte-Carlo par chaînes de Markov avec une approche bayésienne. L'algorithme, développé dans cette thèse, permet de déterminer où d'ajuster les paramètres d'une orbite képlérienne ou d'une orbite perturbée à partir des observations simulées et réelles. Nous montrons que la méthode peut être efficace même pour un petit nombre d'observations et sans condition initiale particulière. / This thesis is devoted to the study of binary objects in the Solar System and explores two main themes. First, we examined physical parameters, such as size and albedo of trans-Neptunian binaries, obtained from thermal flux measurements by the Herschel and Spitzer space telescopes. Within these parameters, we compared binary objects with simple trans-Neptunian objects without satellites. This analysis showed that the size distributions of two populations are different. We assume that this trend is related to the predominance of small binaries of cold classical group, which may be more favourable for the survival of binaries, among other groups.In addition, we studied the correlations between the size and albedo and other physical and orbital parameters of the binaries population. This study obtained the following strong correlation: size vs. system mass, size vs. heliocentric inclination, size vs. magnitude difference of components. We also found two less significant correlations -- bulk density vs. size and bulk density vs. albedo -- which require further verification with additional data. We then set out a possible interpretations of the results from the perspective of different formation models of such objects. Secondly, we have presented a new method of binary system mutual orbit determination. This method is based on the Monte Carlo Markov chain techniques with a Bayesian approach. The algorithm developed in this thesis is used for Keplerian or perturbed orbit fitting to simulated or real observations. We show that the method can be effective even for a small number of observations and without regard to particular initial conditions.
|
203 |
Epidémiologie des traumatismes: quelles contributions des (méthodes) statistiques aux approches descriptive et analytique?Senterre, Christelle 28 November 2014 (has links)
L’épidémiologie de terrain peut être définie comme un ensemble de méthodes de collecte et de traitement de l’information combinant successivement les approches de l’épidémiologie descriptive mais aussi celles de l’épidémiologie analytique. La finalité de l’analyse descriptive sera de décrire et de quantifier la survenue du phénomène étudié dans une population donnée, permettant ainsi la formulation d’hypothèses préalables à la phase analytique. Phase, qui se focalisera sur les "associations" entre des "facteurs de risque" et la survenue du phénomène étudié. Dans la réponse aux questionnements posés ces deux phases les méthodes statistiques seront des outils incontournables. Afin que les résultats produits par ces analyses soient non seulement utiles mais aussi valables et utilisables, une bonne identification et une application adéquate des méthodes d’analyse s’avèreront primordiales. <p>A côté de ce constat méthodologique, il y a, dans le champ des traumatismes, tant en Belgique, qu’en pays en développement, la quasi absence d’informations pertinentes et rigoureuses pour documenter l’importance de cette problématique dans le champ de la santé. Pourtant, selon l’Organisation Mondiale de la Santé, plus de 5 millions de personnes décèdent des suites d’un traumatisme chaque année, avec 90% de ces décès survenant dans les pays à faible revenu ou à revenu intermédiaire. En Europe, les données montrent qu’une personne décède toutes les deux minutes des suites d’un traumatisme, et que pour chaque citoyen européen qui en meure, 25 personnes sont admises à l’hôpital, 145 sont traitées en ambulatoire et plus encore se font soigner ailleurs. <p> Au vu du double constat, qui est, d’une part, que les méthodes statistiques ne sont pas toujours exploitées correctement, et d’autre part, qu’il y a un manque d’informations appropriées et rigoureuses pour documenter l’ampleur du problème des traumatismes; ce travail de thèse poursuit l’objectif majeur, de montrer l’intérêt qu’il y a à appliquer de manière pertinente, adéquate et complète, des méthodes statistiques (univariées, multivariables et multivariées) adaptées aux différentes sources de données disponibles, afin de documenter l’importance des traumatismes, et des facteurs qui y sont associés, tant en pays industrialisés (exemple de la Belgique) qu’en pays en développement (exemple du Cameroun).<p>La partie classiquement appelée "résultats", correspond dans ce travail à deux chapitres distincts. Le premier fait la synthèse de ce qui a été objectivé par la revue de la littérature en termes de sources de données exploitées et de méthodes d’analyse statistique utilisées. Le second correspond à l’exploitation de quatre bases de données :une "généraliste et populationnelle" (First Health of Young People Survey - Cameroun), une "généraliste et hospitalière" (Résumé Hospitalier Minimum - Belgique), une "spécifique et populationnelle" (données issue de compagnies d’assurances belges), et une " spécifique et hospitalière" (Service SOS Enfants du CHU St Pierre - Belgique). <p>Les constats majeurs à l’issue de ce travail sont qu’il est possible de trouver dans le panel des méthodes statistiques "classiques", les méthodes nécessaires pour répondre aux questionnements de surveillance "en routine" en termes d’occurrence et de facteurs associés. L’accent devrait être mis sur une (meilleure) utilisation (justifiée, correcte et complète) de ces méthodes et sur une meilleure présentation (plus complète) des résultats. L’utilisation adéquate s’assurant d’une part, par une meilleure formation en méthodologie statistique pour les praticiens mais aussi par l’intégration, à part entière, des statisticiens dans les équipes de recherches. En ce qui concerne les sources de données utilisées, le potentiel d’information existe. Chaque source de données a ses avantages et ses inconvénients mais utilisées conjointement elles permettent d’avoir une vision plus globale du fardeau des traumatismes. L’accent devrait être mis sur l’amélioration de la disponibilité, la mise en commun mais aussi sur la qualité des données qui seraient disponibles. Dès lors, en vue de s’intégrer dans une dynamique de "Système de Surveillance des Traumatismes", une réflexion sur une utilisation globale (qu’elle soit couplée ou non) de ces différentes sources de données devrait être menée. <p>En Belgique, de nombreuses données, contenant de l’information sur les traumatismes, sont collectées en routine, au travers des données hospitalières, et ponctuellement, au travers de données d’enquêtes. Actuellement, ces données, dont la qualité reste discutable pour certaines, sont sous-utilisées dans le champ qui nous intéresse. Dans le futur, "plutôt que de ne rien savoir", il est important de continuer à exploiter l’existant pour produire et diffuser de l’information, mais cette exploitation et cette diffusion doivent s’accompagner non seulement de réflexion mais aussi d’action sur la qualité des données. En ce qui concerne l’utilisation des méthodes statistiques, nous préconisons une double approche :l’intégration et la formation. Par intégration, nous entendons le fait qu’il faut d’une part considérer le statisticien comme un professionnel ayant à la fois des compétences techniques pointues sur les méthodes, qui pourront être mises à disposition pour garantir le bon déroulement de la collecte et de l’analyse des données, mais aussi comme un chercheur capable de s’intéresser plus spécifiquement à des problématiques de santé publique, comme la problématique des traumatismes par exemple. Par formation, nous entendons le fait qu’il est essentiel d’augmenter et/ou de parfaire non seulement les connaissances des futurs professionnels de la santé (publique) en cours de formation mais aussi celles des praticiens déjà actifs sur le terrain et dès lors premiers acteurs de la collecte de l’information et de son utilisation dans une démarche de prise de décision, de détermination de priorité d’action et d’évaluation. <p>L’objectif majeur de ce travail de thèse était de montrer l’intérêt qu’il y a à appliquer de manière pertinente, adéquate et complète, des méthodes statistiques adaptées aux différentes sources de données disponibles, afin de documenter l’importance des traumatismes, et des facteurs qui y sont associés. En ayant discuté de l’existence de plusieurs sources potentielles de données en Belgique et en ayant appliqué une série de méthodes statistiques univariées, multivariables et multivariées, sur quelques-unes de celles-ci, nous avons montré qu’il était possible de documenter le fardeau des traumatismes au-travers de résultats utiles mais aussi valables et utilisables dans une approche de santé publique.<p> / Doctorat en Sciences de la santé publique / info:eu-repo/semantics/nonPublished
|
204 |
Le vouloir et le valoir: pour une réflexion globale sur le projet muséalMairesse, François January 1997 (has links)
Doctorat en philosophie et lettres / info:eu-repo/semantics/nonPublished
|
205 |
Construction et validation des modèles de prédiction : étude des utilités / Prediction model building and evaluation : study of utilitiesCortet, Marion 29 October 2015 (has links)
La médecine est demandeuse de prédictions. Cette question de la prédiction se pose à différents moments de la prise en charge du patient, au moment du diagnostic, au moment de l'évaluation du pronostic et au moment du suivi, pour prendre les meilleures décisions possibles en termes de choix d'examens complémentaires et de choix de thérapeutique. La prédiction permet d'apporter une information au médecin et au patient pour prendre la décision. Pour construire ces modèles de prédiction, on dispose de bases de données qui nous permettent d'évaluer l'association entre des données cliniques ou biologiques et la probabilité de survenue d'un évènement. Pour quantifier ces associations, on utilise des modèles de régression logistique qui sont estimés d'après la méthode du maximum de vraisemblance. Pour évaluer ces modèles, on dispose de différents critères, qui quantifient leur adéquation, leur capacité de discrimination, leur calibration. Ces modèles vont nous permettre de prendre une décision. Les erreurs de prédiction vont mener à des erreurs de décision. Les conséquences de ces décisions sont quantifiables grâce à la théorie des utilités. C'est donc un critère quantifiant l'utilité du modèle qui nous permet de choisir le modèle le plus utile. La construction de modèles de prédiction est particulièrement importante dans le domaine clinique de l'obstétrique. En effet, il est important dans le cas des hémorragies de la délivrance de prévenir l'aggravation de la situation, et donc de distinguer les patientes qui vont s'aggraver très rapidement. Le taux de fibrinogène a été étudié, comme prédicteur d'une évolution grave de l'hémorragie. Les variables cliniques disponibles au moment du diagnostic ont ensuite été étudiées. Dans la situation de la rupture prématurée des membranes, il existe un choix à faire entre deux décisions qui induisent une morbidité néonatale et maternelle : la naissance prématurée et le risque de chorioamniotite. Des marqueurs du risque de chorioamniotite pourraient donc faciliter la prise de décision en augmentant l'information pour le clinicien. De plus en plus de modèles de prédiction sont développés dans toutes les situations cliniques. Il faut rester critique vis-à-vis de ces modèles. Leur évaluation doit tenir compte de leur utilisation, et doit donc tenir compte de leur utilité en situation de prise de décision / Medicine asks for prediction. Prediction is needed at different point in the management of a patient. To take the best decision as possible for complementary exams, or therapeutics. Prediction gives an information to the practitioner and the patient, to take a decision. To build these prediction models, we have data bases. The association between clinical or biological data and the outcome probability can be estimated thanks to these data bases. To measure these associations, logistic regression models are used. They are estimated with maximum likelihood method. To evaluate these models, different criteria exist. These criteria quantify adequacy, discrimination capacity, calibration. These models help to take a decision. Prediction errors lead to decision errors. Consequences of these decisions are measurable with utility theory. Therefore, it is a criteria that measure utility of a model that enables us to select the most useful model. Prediction model building is an important point in obstetrics. Indeed, in case of postpartum haemorrhage, it is important to prevent worsening of the clinical situation, and therefore, to identify patient who will worsen fastly. Fibrinogen level was studied as a predictor of severe postpartum haemorrhage. Clinical variables availables at diagnosis of postpartum haemorrhage was then studied. In case of preterm premature rupture of membranes, there is a decision to take, between two choices that may lead to maternal of neonatal morbidity: preterm birth and chorioamnionitis risk with pregnancy continuation. Markers of chorioamnionitis risk may help the practitioners for decision making, by increasing the information. More and more prediction models are developed in all clinical situations. We must be critical before using these models in real life. Their evaluation must take into account their use, and therefore, their utility in case of decision making
|
206 |
Enhanced representation & learning of magnetic resonance signatures in multiple sclerosis / Améliorer la représentation et l'apprentissage des signatures d'images par résonance magnétique dans la sclérose en plaquesKarpate, Yogesh 14 September 2015 (has links)
La sclérose en plaques (SEP) est une maladie auto-immune inflammatoire du jeune adulte causant des handicaps variables et progressifs irréversibles. Cette maladie est présente de manière prépondérante dans l’hémisphère nord. Cette thèse s’attache à la caractérisation et à la modélisation de signatures IRM multimodales des lésions de sclérose en plaques. L’objectif est d’améliorer les modèles de représentation de l’image et d’adapter les méthodes d’apprentissage pour la reconnaissance visuelle, dans le cas où des informations de haut niveau telles que les lésions SEP incluses dans l’IRM sont extraites. Nous proposons dans cette thèse un nouvel algorithme de normalisation d’intensité en IRM, particulièrement centré sur la normalisation d’images longitudinales multimodales, afin de produire des détections d’évolution de lésion robustes. Cette normalisation est centrée sur la modélisation de l’histogramme de l’image par un modèle de mixture de Gaussiennes robuste à la présence de lésions. Faisant suite à cet algorithme, nous proposons également deux nouvelles méthodes de détection de lésions SEP basées sur (1) une comparaison statistique du patient vis à vis d’une population de sujets contrôle et (2) un cadre probabiliste de détection basé sur un apprentissage d’une classe (tissus sains). Nous avons évalué les algorithmes proposés sur plusieurs jeux de données multi-centriques et vérifié leur efficacité dans la détection de lésions. / Multiple Sclerosis (MS) is an acquired inflammatory disease, which causes disabilities in young adults and it is common in northern hemisphere. This PhD work focuses on characterization and modeling of multidimensional MRI signatures in MS Lesions (MSL). The objective is to improve image representation and learning for visual recognition, where high level information such as MSL contained in MRI are automatically extracted. We propose a new longitudinal intensity normalization algorithm for multichannel MRI in the presence of MS lesions, which provides consistent and reliable longitudinal detections. This is primarily based on learning the tissue intensities from multichannel MRI using robust Gaussian Mixture Modeling. Further, we proposed two MSL detection methods based on a statistical patient to population comparison framework and probabilistic one class learning. We evaluated our proposed algorithms on multi-center databases to verify its efficacy.
|
207 |
Inférence des interactions entre processus évolutifs / Inference of the interactions between evolutionary processesBehdenna, Abdelkader 14 March 2016 (has links)
Au cours de cette thèse, nous avons développé un outil pour détecter la coévolution, c'est à dire l'évolution conjointe de différentes entités biologiques (nucléotides, acides aminés, fonctions biologiques), à différentes échelles (moléculaire, organe). Cet outil s'applique sur des arbres phylogénétiques sur lesquels des évènements évolutifs (mutations, gains/pertes de fonctions biologiques) sont placés. Nous nous plaçons dans un cadre abstrait dans le but de travailler sur les processus conduisant à l'apparition d'évènements évolutifs au sens large le long des lignées d'un arbre phylogénétique. Cet outil est constitué de deux parties distinctes, chacune ayant ses propres spécificités.D'une part, nous avons produit une première méthode simple, très efficace, permettant de détecter parmi un très grand nombre de tels processus, quelles paires d'évènements semblent apparaître de manière conjointe dans l'arbre. Grâce à un formalisme mathématique utilisant les propriétés de l'algèbre bilinéaire, des calculs exacts d'espérance, de variance et même de distributions de probabilités sont possibles et permettent d'associer à ces paires détectées des p-values exactes, rendant cette méthode très précise.D'autre part, nous avons développé un modèle de coévolution entre de tels processus évolutifs. Ce modèle mathématique limite considérablement le nombre de paramètres utilisés et nous a permis de calculer et d'optimiser une fonction de vraisemblance. Cette optimisation revient à rechercher les paramètres du modèles expliquant au mieux les données contemporaines observées, et nous permet ainsi, toujours selon notre modèle, d'établir le scénario le plus probable ayant mené aux données observées.Cette seconde méthode est plus gourmande en temps de calcul, ce qui invite à associer les deux méthodes dans un pipeline nous permettant de traiter efficacement un grand nombre de paires avant d'aller plus loin dans notre étude et tester les paires les plus encourageantes à l'aide de notre modèle mathématique, dans le but de décrire un scénario interprétable dans un contexte biologique. Nous avons testé cet outil à l'aide de simulations, avant de l'appliquer à deux exemples biologiques très différents : le lien entre intracellularité et perte de flagelle chez Escherichia coli, et l'étude de toutes les paires de nucléotides dans des séquences d'ARNr 16S d’un échantillon de gamma-entérobactéries. / In this thesis, we have developed a tool to detect co-evolution, ie the joined evolution of different biological entities (nucleotides, amino acids, organic functions), on different scales (molecular, organ). This tool is applied to phylogenetic trees on which evolutionary events (mutations, gain / loss of biological functions) are placed. We consider an abstract framework in order to work on the processes leading to the emergence of evolutionary events along the lineages of a phylogenetic tree. This tool consists of two separate parts, each with its own specificities.On the one hand, we have produced a first simple, highly effective method to detect from a very large number of such processes, which pairs events seem to appear jointly in the tree. Using a mathematical formalism using the properties of the bilinear algebra, exact calculations of expectancy, variance and even probability distributions are possible and allow to associate exact p-values to these pairs, making this method very precise.On the other hand, we have developed a model of coevolution between such evolutionary processes. This mathematical model severely limits the number of parameters used and allows us to calculate and maximize a likelihood function. This optimization is similar to searching the parameters of a model explaining the best the observed contemporary data, and allows us as well, according to our model, to determine the most likely scenario that led to the observed data.This second method requires more computing time, which invites to combine the two methods in a pipeline allowing us to efficiently process a large number of pairs before proceeding further in our study and test the most promising pairs using our mathematical model in order to describe a scenario interpreted in a biological context. We have tested this tool by using simulations, before applying it to two very different biological examples: the link between intracellularity and loss of flagellum in Escherichia coli, and the study of all the pairs of nucleotides in sequences 16S rRNA of a sample of gamma-Enterobacteria.
|
208 |
Détermination du niveau de brai dans une anode crue par analyse d’imagesAhoutou, Yao 05 1900 (has links) (PDF)
L’aluminium primaire est produit à partir de l’alumine (Al2O3) selon le procédé Hall-Héroult. Le procédé consiste à la réduction de l’alumine en aluminium par le carbone dans des cuves électrolytiques. L’anode de carbone représente donc un élément incontournable dans ce processus. Non seulement elle est source de carbone, mais elle joue le rôle de conducteur électrique. La qualité des anodes en carbone utilisées dans les cuves d’électrolyse représente ainsi l'un des paramètres les plus importants qui affectent la production de l'aluminium primaire. La pâte d’anode, qui est préparée en utilisant un mélange de coke de pétrole, de brai de houille et de matériaux recyclés, est compactée dans un vibro-compacteur pour former des anodes crues. Dans leur fabrication, le brai agit comme un liant. Sa bonne distribution aura forcément un impact positif sur leur qualité. Ces anodes sont cuites dans des fours de cuisson avant leur utilisation dans les cuves électrolytiques. La qualité de la matière première et les paramètres du processus de fabrication ont un impact significatif sur les caractéristiques de l’anode, notamment la composition chimique, la conductivité électrique, la résistance aux chocs thermiques, l’homogénéité et les réactivités à l’air et au dioxyde de carbone (CO2). Aussi, la qualité des anodes joue un rôle majeur dans la consommation d’énergie, le coût de production et les émissions de gaz à effet de serre. Les études développées pour déterminer le niveau de brai dans les anodes crues utilisent pour la plupart le microscope électronique à balayage ou le microscope optique. Ce qui donne de bons résultats au laboratoire sur de petits échantillons. Toutefois, ces méthodes ne sont pas pratiques sur les lignes de production qui exigent des résultats instantanés. Ainsi, la détection de la distribution du brai sur une surface d'anode est faite visuellement dans les usines. L’objectif de cette étude est de développer une méthode pour déterminer de façon instantanée la répartition du brai sur la face des anodes industrielles crues par l’analyse d’images. Pour ce faire, un logiciel d'analyse d'images a été mis au point et peut rapidement déterminer la répartition du brai sur la surface de l'anode. Le logiciel peut déterminer si la surface de l’anode est en sur-brai ou en sous-brai. Il permet aussi de déterminer la non-homogénéité de la répartition du brai. La mise en oeuvre de ce logiciel est basée sur le fait que toute couleur résulte de la combinaison des trois couleurs primaires que sont le rouge, le vert et le bleu (RGB). Ainsi, en se fixant des seuils pour ces différentes couleurs primaires, il est possible de trouver quelques critères pour identifier le haut niveau de brai. Par ailleurs, le niveau de brai influence l’état de surface des anodes. L’algorithme de Canny est utilisé pour déterminer les limites de particules, et le filtre de Gauss permet d’annuler les bruits générés par l’algorithme de Canny. Le logiciel d’analyse d’images développé est utilisé pour analyser les images d’anodes crues obtenues à l’aide d’un système de prise d’images. Ce système est constitué essentiellement d’un dispositif d'éclairage pour l'éclairage uniforme de surface de l'anode et d’une caméra numérique pour la capture des images. Pour mener à bien cette étude, il a été nécessaire de travailler à l'aluminerie et au laboratoire de l'UQAC pour collecter des données de niveau de brai des anodes crues dans des conditions d’opération différentes et de les analyser. Il s’agit aussi de colliger les résultats de ces différentes analyses d’images avec les caractéristiques des anodes. C’est dans ce sens que plusieurs anodes industrielles avec différentes spécificités ont été fabriquées pour être analysées. Par ailleurs, des anodes de laboratoire avec différentes spécifications couvrant le pourcentage de brai dans les recettes, la répartition granulométrique et différentes conditions de fabrication de l'anode crue ont été produites à l’UQAC. Une analyse chimique a permis de confirmer les résultats de l’analyse d’images. Il s’agit par ailleurs d’une analyse spectrophotométrique des échantillons prélevés dans les zones d’anodes industrielles et de laboratoire indiquées en sur-brai ou en sous-brai par le logiciel d’analyse d’images. Ces zones ont été préalablement sectionnées et moulinées. Les échantillons obtenus ont ensuite été immergés dans du solvant durant un temps bien déterminé pour dissoudre le brai avant l’analyse au spectrophotomètre. Certains résultats de l’analyse chimique de l’ensemble de ces anodes ont permis de parfaire le logiciel d’analyse d’images, et les résultats non utilisés de l’analyse chimique ont été comparés avec ceux de l’analyse d’images pour la validation du logiciel.
Primary aluminum is produced from alumina (Al2O3) using the Hall-Heroult process. The method consists of reducing alumina to aluminum using carbon in electrolytic cells. The carbon anode represents an essential element in this process. It is a source of carbon as well as an electrical conductor. The quality of the carbon anodes used in the electrolytic cells is one of the most important parameters that affect the production of primary aluminum. The anode paste, which is prepared by using a mixture of petroleum coke, coal tar pitch, and recycled material, is compacted in a vibro-compactor to form green anodes. These anodes are baked in furnaces before being used in the electrolytic cells. The quality of the raw material and the parameters of the manufacturing process have a significant impact on the anode properties such as the chemical composition, electrical conductivity, thermal shock resistance, homogeneity, and air and CO2 reactivities. The anode quality plays a major role in energy consumption, production cost, and emissions of greenhouse gases. During their manufacture, the pitch acts as a binder. A good distribution of pitch has a positive impact on anode quality. Most of published studies show the use of the optical or scanning electron microscope to determine the pitch distribution. This works well in the laboratory for small samples. The objective of this study is to determine the distribution of pitch on the surface of industrial green anodes by image analysis. To do this, an image analysis software using the Canny algorithm and the distribution of primary colors red, green and blue (RGB) has been developed that can rapidly determine the distribution of pitch on the surface of the anode. This software can determine if the surface of the anode is over-pitched or under-pitched. It can determine the non-homogeneity of the distribution of pitch on the anode surface. In addition, the Gauss filter is used to cancel the noise generated by the Canny algorithm. The developed image analysis software is used to analyze the images of green anode surfaces obtained using an image capture system. This system contains essentially a light for the uniform illumination of the anode surface and a digital camera for capturing images. This study was carried out partly in an aluminum smelter and partly in the carbon laboratory of the UQAC/AAI Chair in order to collect information on the pitch level of green anodes fabricated under different operating conditions, and the results were analyzed. These results from the image analyses were correlated with the characteristics of the anodes. For this purpose, a number of anodes with different properties were produced at the plant. In addition, laboratory anodes with different specifications, including the percentage of pitch, the distribution of particle size, and different green anode manufacturing conditions, were produced in the carbon laboratory at UQAC. A method based on chemical analysis was used to validate the results of the image analysis software developed in the current study. This involved the spectrophotometric analysis of samples taken from different parts of industrial and laboratory anodes that were identified as over-pitch and under-pitch by the image analysis software. The samples were crushed and then were soaked in solvent for a certain time to dissolve pitch before the analysis in the spectrophotometer. Some results of the chemical analysis of lab and industrial anodes helped further improve the image analysis software, and the remaining chemical analysis results allowed the validation of the software by comparing them with those of the image analysis.
|
209 |
Implantation et usages d’un réseau social d’entreprise : l’expérience d’AstralPortela, Audrey January 2012 (has links)
Cette recherche porte sur les réseaux sociaux d’entreprise. Nous mobilisons la sociologie des usages afin d’étudier les enseignements à tirer de l’implantation d’un réseau social au sein d’une grande entreprise média au Canada, au regard des usages qui se sont développés chez les employés au cours de la première année de déploiement. Nous avons effectué une étude de cas diachronique d’Astral qui a lancé en décembre 2010 son propre réseau social d’entreprise, Astralbook. Ainsi, nous avons analysé les statistiques d’utilisation du site et réalisé deux séries d’entrevues semi-dirigés, en mai et en novembre 2011, auprès de dix employés et d’un gestionnaire. Les résultats révèlent que malgré un engouement initial, l’intérêt pour le réseau social s’est essoufflé et son utilisation s’est considérablement réduite. En cherchant à comprendre les motifs qui sous-tendent les situations de non-usages d’un réseau social d’entreprise, nous avons pu approfondir les connaissances entourant le non-usage des technologies de communication.
|
210 |
Le sentiment d’appartenance à la communauté militaire : une étude sur l’auto-évaluation de la santé et de la perception du taux de criminalité dans le quartierOuellet, Eric January 2016 (has links)
Cette thèse porte sur le sentiment d’appartenance à la communauté comme indicateur de capital social afin de mesurer son impact sur l’auto-évaluation de la santé et de la perception du taux de criminalité dans le quartier. Notre regard se porte sur la communauté militaire, car nous croyons que ce groupe présente des caractéristiques sociales homogènes qui ont été institutionnalisées.
À la suite d’analyses statistiques de données secondaires provenant des Forces armées canadiennes (DGRAPM, 2010), nous suggérons qu’il y a une différence fondamentale entre le concept du Sentiment d’appartenance à la communauté et le concept du Sentiment d’appartenance au quartier : le premier influence une auto-évaluation de la santé positive et le second atténue la perception du taux de criminalité dans le quartier. Donc, bien que les concepts soient associés au capital social, ils n’interviennent pas de la même manière sur la qualité de vie des militaires.
|
Page generated in 0.0215 seconds