1571 |
Évaluation d'une bibliothérapie de l'insomnie avec sevrage des hypnotiques assisté chez des adultes souffrant d'insomnieBelleville, Geneviève 12 April 2018 (has links)
Cette thèse doctorale vise l’évaluation d’une intervention minimale de sevrage chez des utilisateurs réguliers d’hypnotiques. Les résultats d’un essai clinique randomisé incluant 53 utilisateurs chroniques d’hypnotiques souffrant d’insomnie ont montré qu’une intervention brève guidant l’individu dans l’arrêt graduel de sa médication hypnotique est efficace pour cesser l’emploi de cette médication. L’addition d’une bibliothérapie résumant des recommandations psychoéducatives, comportementales et cognitives de gestion du sommeil, une modalité de traitement facilement accessible et relativement peu coûteuse, produit des améliorations significatives du sommeil. Par ailleurs, une diminution de l’insomnie et de la détresse psychologique, une amélioration de la santé perçue et une augmentation de l’efficacité personnelle en cours de sevrage ont été associées à un arrêt complet des hypnotiques. D’autre part, le sevrage des hypnotiques n’a pas été associé à une diminution de la qualité de vie dans le présent échantillon. Au contraire, les aspects de santé générale et mentale, vitalité et fonctionnement social se sont vus améliorés suite au sevrage. Pour plusieurs utilisateurs chroniques d’hypnotiques, il est donc possible, et même souhaitable, d’effectuer un arrêt graduel de la médication hypnotique, lequel peut être réalisé avec un minimum d’encadrement clinique. / This doctoral dissertation aimed to evaluate the efficacy of a hypnotic taper program with minimal clinical supervision. Results from a randomized clinical trial including 53 chronic hypnotic users suffering from insomnia showed that a brief intervention providing a systematic withdrawal schedule efficiently help chronic users stop their hypnotic medication. The addition of a self-help cognitive-behavior treatment focusing on insomnia, a readily accessible and cost-effective alternative to individual psychotherapy, produced greater sleep improvement relative to the taper condition alone. Decrease of insomnia symptoms and psychological distress, improvement of perceived health and increase of self-efficacy during withdrawal have been associated to complete hypnotic cessation. Furthermore, there has been no worsening of quality of life during the hypnotic taper. On the contrary, general and mental health, vitality and social functioning indicators showed an improvement after the withdrawal. For many chronic hypnotic users, it seems possible, and even desirable, to engage in a systematic hypnotic taper, which can be effectively realized with minimal clinical guidance.
|
1572 |
Comportement anticipatoire de navigation durant la locomotion chez l'humainGérin-Lajoie, Martin 12 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / Une approche biomécanique a été utilisée pour analyser le comportement locomoteur naturel de contournement d’obstacles stationnaires et mobiles sous différents facteurs environnementaux incluant l’incertitude initiale associée au mouvement de l’obstacle, des distractions auditives, l’éclairage ambiant et le type d’environnement (physique/virtuel). De jeunes adultes, des personnes plus âgées et des athlètes d’élite ont été étudiés afin de mieux comprendre le contrôle adaptatif de la marche en lien avec l’environnement chez des populations ayant différentes capacités locomotrices. Une méthode basée sur la mesure du mouvement a été développée afin de quantifier l’espace personnel (EP) pour la première fois durant la locomotion. Les jeunes adultes maintiennent un EP elliptique de façon systématique lors du contournement d’obstacles à différentes vitesses de marche ainsi qu’un EP réduit généralement du côté dominant. La taille de l’EP est cependant ajustée en fonction de différents facteurs environnementaux. Entre autres, diriger de l’attention vers un message auditif pendant le contournement nécessite l’agrandissement de l’EP chez de jeunes adultes, avec un effet encore plus marqué chez des personnes plus âgées. Ces dernières doivent, outre la diminution de leur vitesse de marche, agrandir davantage leur EP afin de libérer des ressources attentionnelles pour effectuer la tâche auditive en parallèle. Ces résultats suggèrent que l’EP soit calculé en continu et utilisé pour contrôler la navigation durant la marche. Les résultats suggèrent aussi que les athlètes puissent traiter l’information visuo-spatiale plus rapidement que les non-athlètes puisque les deux groupes ont pris des décisions de navigation semblables, mais les athlètes ont navigué les nouveaux parcours d’obstacles complexes plus rapidement, et ce, avec l’accès à la même vitesse de marche maximale. Les scores chronométrés des athlètes ont été davantage affectés par l’éclairage diminué, suggérant l’utilisation d’informations à propos des obstacles distants lorsque celles-ci sont disponibles. Ces protocoles innovateurs jumelés aux mesures développées (EP, efficacité de navigation, etc.) ont d’importantes implications pour l’évaluation et le réentraînement des capacités locomotrices dans des environnements complexes et écologiques chez diverses populations. Comme le comportement lié à l’EP s’est avéré robuste dans l’environnement virtuel utilisé, la réalité virtuelle est proposée comme une plate-forme prometteuse pour le développement de telles applications. / A biomechanical approach was used to analyze the natural locomotor behavior employed to circumvent stationary and mobile obstacles under different environmental factors including the initial uncertainty related to the obstacle movement, auditory distractions, the ambient lighting and the type of environment (physical/virtual). Young and older adults as well as elite athletes were tested in order to better understand adaptive walking behavior in relation with the environment in populations with different locomotor capacities. A novel method, based on the measure of human movement, was developed to quantify personal space (PS) for the first time during locomotion. Results showed that young adults systematically maintain an elliptical PS during obstacle circumvention at different walking speeds as well as a reduced PS, generally on the dominant side. The size of PS, however, was adjusted according to different environmental factors. For instance, attending to an auditory message during circumvention requires the enlargement of PS in young adults, and to an even greater extent in older adults. In addition to decreasing their gait speed, older adults further enlarged their PS in order to “free up” attentional resources for the parallel processing of auditory messages. These results suggest that PS is calculated online and used to control navigation during walking. In addition, results suggest that trained athletes are able to process visuo-spatial information more rapidly than non-athletes since both groups took similar navigational decisions, but athletes navigated through new and complex obstacle courses faster even though both groups had access to the same unobstructed maximal speeds. The temporal scores of athletes were more affected by the reduction of ambient lighting, suggesting an anticipation strategy using information about distant obstacles when it is available. Such innovative protocols together with the developed measures (e.g. PS and navigation efficiency) have important implications for the evaluation and retraining of locomotor capacity within complex, ecological environments in various populations. Since the PS behavior was shown to be robust in the virtual environment used for this project, the virtual reality technology is proposed as a promising platform for the development of such applications.
|
1573 |
Égalisation aveugle et turbo égalisation dans les canaux sélectifs en fréquence invariants et variants dans le tempsBerdai, Abdellah 11 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / Nous étudions à travers ce travail de recherche les méthodes d'égalisation entraînée et aveugle dans les canaux de communications sélectifs en fréquence invariants et variants dans le temps. Ces méthodes d'égalisation trouvent leur place dans un grand nombre d'applications telles que les télécommunications sans fil, le traitement de la parole, etc. L'objectif de l'égalisation entraînée est d'identifier les données émises à partir des observations issues de l'antenne et des séquences d'apprentissage préalablement connues par le récepteur. Alors que l'égalisation aveugle consiste à identifier les données émises uniquement à partir des observations issues de l'antenne. Les méthodes aveugles n'ont donc connaissance a priori ni des signaux émis ni du canal de transmission. Dans le cadre de notre recherche, nous proposons trois modèles d'égalisation : deux modèles autodidactes (sans séquence d'apprentissage) pour l'égalisation dans les canaux sélectifs en fréquence et invariants, et un modèle entraîné (avec séquence d'apprentissage) pour l'égalisation dans les canaux sélectifs en fréquence et variants dans le temps. / In this research work, we study the blind and trained equalization methods over stationary and time varying frequency selective channels. These equalization methods find their place in a large number of applications such as wireless Systems, speech processing, etc. The objective of trained equalization is to identify the transmitted data from the received signals and from training sequences known beforehand by the receiver, whereas blind equalization identifies the transmitted data only from the received signals. Blind methods do not have a prior information about transmitted signals, nor the channel. Within the framework of our research, we propose three equalization models : two blind models (without training sequence) for the equalization over stationary frequency selective channels, and a trained model (with a training sequence) for the equalization over time varying frequency selective channels.
|
1574 |
Rehaussement des primitives de contours à l'aide d'une segmentation multi-échelle en arbre quaternaireBergeron, Vincent 13 April 2018 (has links)
Ce mémoire présente une approche permettant de rehausser la silhouette d'un objet multie-parties dans une image. L'entrée est une carte de CCPs (Constant Curvature Primitives) provenant d'une segmentation de l'image originale par le logiciel MAGNO. Ces CCPs sont en fait des arcs de cercle et des segments de droite. L'objectif est de rehausser la silhouette de l'objet, c'est-à-dire de conserver les CCPs se trouvant sur la silhouette de l'objet et d'éliminer les autres. L'approche retenue est d'utiliser l'image originale (avant la segmentation par le logiciel MAGNO) et de la diviser en utilisant l'algorithme de l'arbre quaternaire. Une fois l'image divisée en carrés, ces derniers sont superposés à la carte de CCPs et cinq critères permettent à la fois d'éliminer et de donner un poids à chacun des CCPs. Les CCPs ayant les plus grands poids sont plus susceptibles de se trouver sur la silhouette de l'objet
|
1575 |
Implantation d'un algorithme de reconstruction itératif 4D en tomodensitométrie à faisceau coniqueMascolo-Fortin, Julia 10 July 2024 (has links)
La tomodensitométrie avec faisceau conique (CBCT) est actuellement utilisée en radiothérapie externe pour visualiser le patient dans la salle de traitement. Le mouvement respiratoire des patients y est encore difficilement pris en compte et des avancées sur le sujet pourraient améliorer la précision des traitements. En ce sens, l’obtention d’une séquence imageant les mouvements dans la région d’intérêt serait souhaitable. Ce mémoire présente le développement d’un algorithme de reconstruction 4D pour CBCT qui tente de répondre à certains besoins cliniques, soit l’obtention d’une qualité d’image suffisante, une facilité de mise en place clinique et une rapidité de calcul. L’algorithme 4D développé se base sur l’algorithme itératif convexe avec sous-ensembles ordonnés et régularisation de variation totale. Cette méthode a été choisie pour sa rapidité d’exécution, procurée par l’utilisation de sous-ensembles et la parallélisation des calculs sur carte graphique, et pour sa capacité à diminuer les artéfacts de rayons, communs en imagerie 4D, procurée par la régularisation de variation totale. La méthode développée pour obtenir une image 4D à partir d’acquisitions CBCT standards a fait appel à l’algorithme Amsterdam Shroud pour déduire le mouvement respiratoire de l’ensemble de projections CBCT. Elle a été validée sur un fantôme numérique et sur des acquisitions cliniques. Les résultats obtenus démontrent le potentiel de l’algorithme, puisqu’une image de résolution spatiale et temporelle satisfaisante a été reconstruite en moins de 5 minutes. Un tel temps de calcul se compare avantageusement à d’autres méthodes disponibles et ouvre la porte à une visualisation rapide du mouvement respiratoire en salle de traitement. / Cone beam computed tomography (CBCT) is currently used to visualize patients directly in the treatment room. However, the respiratory movement is still hardly taken into account and new developments could improve the precision of treatment. To this end, obtaining a film imaging movements in the region of interest would be beneficial. This master’s thesis presents the development of a reconstruction algorithm for 4D CBCT which seeks to respond to particular clinical needs, namely sufficient image quality, clinical implementation simplicity and high computational speed. The developed 4D algorithm is based on the ordered subsets convex iterative algorithm combined with the total variation minimization regularization technique. This method was chosen for its fast execution time, enabled by the use of subsets and the parallelization on GPU, and for its capability to reduce streaking artifacts, common on 4D imaging, enabled by the total variation regularization. The method developed to reconstruct a 4D image from standard CBCT scans employed the Amsterdam Shroud algorithm to deduce respiratory movement of a CBCT projections’ set. Its validation was performed on a numerical phantom and on clinical datasets. Results demonstrate the potential of the algorithm, since an image with sufficient spatial and temporal resolution was reconstructed in less than 5 minutes. Such computational times can be compared favorably with other available methods and could allow for online applications.
|
1576 |
Comportement physique, chimique et mécanique du bois suite à la compression sous l'effet de la chaleur et de l'humiditéFu, Qilan 30 April 2024 (has links)
L'objectif principal de cette recherche est d'établir une meilleure compréhension du procédé de densification thermo-hygromécanique (THM) et du comportement physique, chimique et mécanique du bois dans des conditions thermiques et hygrométriques diverses. La densification THM est un procédé complexe impliquant simultanément, les phénomènes couplés de transfert de chaleur et de masse, plusieurs mécanismes de déformation instantanée et dépendante du temps ainsi que des changements physiques, chimiques et mécaniques dans le bois. Malgré de nombreuses recherches au cours des dernières décennies, les mécanismes fondamentaux du comportement en compression du bois soumis à une charge et à une variation de sa teneur en humidité demeurent en grande partie méconnus. La densification et la relaxation des contraintes sont deux phénomènes très complexes en raison de la nature des déformations réversibles et permanentes qui se produisent simultanément à diverses étapes du procédé de pressage. De plus, les déformations sont affectées par de nombreux facteurs physiques et le comportement de compression à son tour affecte l'ensemble du système physique. Dans cette étude, le procédé de densification THM a été optimisé en utilisant la méthode des surfaces de réponse (RSM) pour étudier les effets de la température et de la durée du traitement sur la dureté et le retour viscoélastique en épaisseur et analyser les interactions entre ces paramètres physiques. Plusieurs propriétés physiques et mécaniques, telles que le profil de densité, le retour viscoélastique en épaisseur, la dureté et la résistance à la flexion des échantillons témoins et du bois densifié THM ont été évaluées et comparées. Les modifications chimiques de surface des échantillons densifiés ont été examinées en utilisant la spectroscopie infrarouge par transformée de Fourier (FTIR), la spectroscopie photoélectronique X (XPS) et la pyrolyse-chromatographie en phase gazeuse-spectrométrie de masse (Py-GC/MS). Par ailleurs, les évolutions de la masse volumique anhydre, la perméabilité et la conductivité thermique pendant le procédé de densification THM ont été déterminées expérimentalement. Les résultats suggèrent que les conditions de densification optimales résultant en une dureté élevée et un faible retour viscoélastique en épaisseur ont été obtenues à une température de 180 °C, un temps de densification de 1004 s et un temps de post-traitement de 1445 s. La densité des échantillons densifiés a considérablement augmenté par rapport à l'échantillon témoin. La vapeur et la température ont des impacts importants sur les propriétés mécaniques, chimiques et la stabilité dimensionnelle du bois d'érable à sucre. Un pourcentage plus élevé de perte de masse a été trouvé à 220 °C, résultant en une diminution évidente de la masse volumique et de la dureté du bois, alors qu’un léger retour viscoélastique en épaisseur a été observé pour l'érable à sucre densifié à la même température. De plus, la haute température et la vapeur sont bénéfiques pour fixer la déformation de compression. La vapeur pourrait faciliter la dégradation avancée des polymères du bois. Le traitement de densification THM a entraîné des modifications chimiques importantes de la surface du bois. Les résultats des spectres ATR-FTIR ont confirmé la décomposition des hémicelluloses et l’augmentation de la teneur relative en cellulose et lignine de la surface du bois. Les résultats du Py-GC/MS et du XPS en terme d'augmentation du rapport O/C indiquent que des substances chimiques contenant une fonctionnalité oxygénée se sont formées après densification. Le traitement de densification a favorisé la dépolymérisation des hémicelluloses et de la cellulose, ce qui a entraîné une augmentation de la teneur en sucres anhydres (lévoglucosane) de la surface du bois. La densification a également facilité le clivage de la chaîne latérale de la lignine, ce qui a entraîné une augmentation de la teneur en unités phényle avec chaînes courtes. La masse volumique anhydre n'a pas augmenté avec la diminution de l'épaisseur. La perméabilité au gaz de l'échantillon témoin peut être 5 à 40 fois plus élevée que celle du bois densifié, ce qui indique que le volume des vides du bois diminue considérablement après le traitement de densification. La conductivité thermique augmente avec l'augmentation de la teneur en humidité de 0,5 à 1,5% par pourcentage d'augmentation de la teneur en humidité pour le bois densifié. La conductivité thermique des échantillons densifiés était plus petite que celle des échantillons de contrôle. / The main purpose of this research is to establish a better understanding of the thermo-hygromechanical (THM) densification process and physical, mechanical and chemical behavior of wood under diverse temperature and humidity conditions. THM densification is a complicated process involving simultaneous, coupled heat and mass transfer phenomena, several instantaneous and time-dependent deformation mechanisms as well as some physical, mechanical and chemical changes in wood. Despite numerous researches in the past decades, the basic mechanisms of compressive behavior of wood subjected to load and moisture variation are not completly understood. Wood densification and stress relaxation are very complicated, because both recoverable and permanent deformations occur at various stages of the pressing process. Moreover, deformations are affected by many physical factors, and the compressive behavior in turn affects the entire physical system. In this study, the THM densification process was optimized using response surface methods (RSM) to investigate the effects of temperature and treatment duration on hardness and compression set recovery (CSR) and further to analyze the interactions between these physical parameters. Several physical and mechanical properties such as density profile, compression set recovery, hardness and bending strength of control and THM densified wood were evaluated and compared. The surface chemical changes of densified samples were examined using Fourier transform infrared spectroscopy (FTIR), X-ray photoelectron spectroscopy (XPS) and Pyrolysis gas chromatography-mass spectrometry (Py-GC/MS), respectively. In addition, evolutions of oven-dry average density, permeability and thermal conductivity during the THM densification process were experimentally determined. The results suggested that the optimum densification conditions resulting in high hardness and low compression set recovery were obtained at a temperature of 180 °C, a densification time of 1004 s, and a post-treatment time of 1445 s. The density of the densified samples was dramatically increased compared to the control sample. Both steam and temperature have important impacts on mechanical, chemical properties and dimensional stability of sugar maple wood. A higher percentage of weight loss occurred at 220 °C, resulting in an important decrease in the density and hardness of wood. However, almost no compression set recovery was observed for the sugar maple wood densified at 220 °C. In addition, high temperature and steam are helpful to fix the compressive deformation. Steam could facilitate the advanced degradation of wood polymers. THM densification treatment resulted in significant chemical changes on the wood surface. The results of the ATR-FTIR spectra confirmed the decomposition of hemicelluloses and the relative content of cellulose and lignin on wood surface increased. The Py-GC/MS and XPS results in term of the O/C ratio increase indicated that chemical substances containing oxygenated functionality were formed after densification. Densification treatment favored the depolymerization of hemicelluloses and cellulose resulting in the content of anhydrous sugars (levoglucosan) increased on wood surface. Densification also facilitated the cleavage of lignin side chains, resulting in the increase of the content of phenyl units with short chains. The oven-dry density did not exactly increase with the decrease of its thickness, the permeability of the control sample could be 5 to 40 times higher than that of densified wood, which indicated that the voids of wood reduced notably after densification treatment. The thermal conductivity increased by 0.5 - 1.5 percent increase of one percent moisture content for densified sugar maple wood. The thermal conductivity of densified samples was lower than that of the control samples.
|
1577 |
Effets de l'administration de tétrahydrobioptérine en conditions physiologique et pathologiques : de la neurobiologie au comportementFanet, Hortense 05 April 2024 (has links)
"Thèse en cotutelle, Doctorat en sciences pharmaceutiques; Université Laval, Québec, Philosophiæ doctor (Ph. D.), Canada et Université de Bordeaux, Talence, France." / La tétrahydrobioptérine (BH4) est le cofacteur requis pour l'activité des enzymes responsables de la synthèse de la dopamine, la sérotonine et l'oxyde nitrique. Par conséquent, la BH4 est nécessaire au bon déroulement de nombreux processus physiologiques centraux et périphériques dont la neurotransmission, la réponse inflammatoire, la régulation du stress oxydatif, la fonction vasculaire et endothéliale et le métabolisme. Or la BH4 peut facilement être oxydée et dégradée. Ainsi des diminutions des niveaux centraux de BH4 ont été observées dans de nombreuses maladies neuropsychiatriques à composante inflammatoire dont la maladie d'Alzheimer et la dépression majeure. La diminution des niveaux de BH4 dans ces pathologies pourrait participer à la survenue de symptômes et à l'aggravation de ceux-ci. Malgré ces observations, les effets d'une administration de BH4 sur la fonction cérébrale en condition physiologique et pathologique et les comportements en s'y rapportant restent largement inexplorés. L'objectif de cette thèse a été de caractériser les effets d'une administration de BH4 périphérique sur la neurobiologie et le comportement chez la souris. Nous nous sommes intéressés aux effets de BH4 sur le système dopaminergique mésolimbique et la motivation en condition physiologique et lors d'une inflammation aiguë. Puis, dans un second temps, nous avons exploré le potentiel thérapeutique de la BH4 dans le traitement de la maladie d'Alzheimer. Nous avons tout d'abord démontré que la BH4 traversait la barrière hémato-encéphalique et qu'une injection périphérique permettait d'augmenter les niveaux centraux de BH4. Nos travaux ont montré qu'en condition physiologique, l'administration de BH4 potentialise la libération de dopamine stimulée dans le nucleus accumbens et les comportements motivés. En condition de neuroinflammation aiguë induite par le LPS, l'administration de BH4 permet d'atténuer la neuroinflammation. Par conséquent, la BH4 pourrait avoir des effets bénéfiques dans le traitement des troubles motivationnels induits par l'inflammation. Dans notre deuxième étude, nous avons démontré que l'administration chronique de BH4 permet de corriger les déficits mnésiques observés dans le modèle murin triple transgénique de la maladie d'Alzheimer. Le traitement en BH4 induit également une diminution d'un marqueur inflammatoire ainsi qu'une amélioration de la tolérance au glucose. Cependant, ces améliorations mnésiques, métaboliques et inflammatoires ne s'accompagnent pas d'une diminution des pathologies amyloïde et tau. L'ensemble de ces travaux a permis une meilleure caractérisation des effets neurobiologiques et comportementaux de la BH4 et renforce son potentiel thérapeutique. / Tetrahydrobiopterin (BH4) is the required cofactor for the activity of the enzymes involved in the synthesis of dopamine, serotonin and nitric oxide. BH4 is therefore necessary for many central and peripheral physiological processes including neurotransmission, inflammatory response, oxidative stress regulation, vascular and endothelial function, and metabolism. However, BH4 is prone to oxidation and degradation, and decreased BH4 brain level has been observed in many neuropsychiatric diseases including Alzheimer's disease and major depression. Consequently, the decrease in BH4 levels in these pathologies could contribute to the onset and aggravation of symptoms. Despite these observations, the effects of BH4 administration on brain function and related physiological and pathological behavior remain largely unexplored. The aim of this thesis was to characterize the effects of peripheral BH4 administration on brain function and related behaviors. We investigated the effects of BH4 on the mesolimbic dopaminergic system and motivation in physiological condition and during acute inflammation. Then, we explored the therapeutic potential of BH4 in the treatment of Alzheimer's disease. We first demonstrated that BH4 crossed the blood-brain barrier and that a peripheral injection of BH4 increased its cerebral levels. Under physiological condition, administration of BH4 potentiates dopamine release into the nucleus accumbens and motivated behaviors. In acute LPS-induced neuroinflammation, administration of BH4 reduced neuroinflammation. Therefore, BH4 may have beneficial effects on dopaminergic disorders induced by inflammation. In our second study, we demonstrated that chronic administration of BH4 reversed memory deficits observed in the transgenic triple murine model of Alzheimer's disease. We also observed a decrease in neuroinflammatory marker and an improvement in glucose tolerance. However, these memory, metabolic and inflammatory improvements were not accompanied by a decrease in amyloid and tau pathologies. This work contributes to a better characterization of the neurobiological and behavioral effects of the BH4 and reinforces its therapeutic potential.
|
1578 |
Traitement des effluents de fromageries fermières par biofiltrationMarin Uribe, Esteban 19 August 2024 (has links)
Au Québec, l’industrie laitière est un secteur important de l’économie provinciale. Au Canada, près de 60 % des unités de fabrication de fromage sont situées dans la province de Québec et plus de deux milliards de litres de lait sont transformés en fromage à chaque année. En 2015, le nombre de fermes laitières québécoises s’élevait à 5 766. En moyenne, une ferme possède un cheptel de 60 vaches et livre près de 500 000 litres de lait par année. De plus, la production d’une vache sur cinq devient du lait de consommation, qui est simplement homogénéisé et pasteurisé. Le reste est transformé principalement en fromage, crème, yogourt et beurre. Une production très importante de déchets issus de cette industrie a été mise en évidence dans certaines régions du Québec à cause de l’augmentation de la production de fromage. Ces déchets entraînent des problèmes de pollution de l’eau, comme l’eutrophisation des plans d’eau par de charges élevées de polluants organiques, de matière en suspension et de nutriments liés à ce type de rejets industriels. Une solution envisagée est de traiter les eaux usées avant de les épandre dans les sources d’eau afin d’en réduire la charge polluante. Une forme de traitement in-situ est d’installer, à la ferme, un système de traitement biologique des effluents de fromagerie. Pour ce faire, cette étude propose un système par biofiltration. L’objet de la présente étude consiste donc à évaluer la performance du traitement des effluents de fromageries fermières par l’utilisation d’un biofiltre. Plus spécifiquement, ce projet de maîtrise comprend le démarrage, le développement et l’opération d’un biofiltre pilote où le lactosérum (composante des déchets) est séparé des effluents de fromagerie, pour alimenter (affluent) le système de biofiltration. Un deuxième objectif est l’évaluation du procédé de traitement. Des performances épuratrices satisfaisantes en terme de réduction de la demande chimique en oxygène (DCO), des matières en suspension (MES) et de l’azote total (TN) ont été confirmées. L’enlèvement de la DCO total par le biofiltre pilote a varié entre 94 % et 99 %, pour les MES entre 97 % et 99 % et par rapport à l’azote total entre 70 % et 90 %. La biofiltration s’avère donc, une bonne technique présentant beaucoup de potentiel, simple et efficace pour traiter les effluents liquides des fromageries fermières. De plus, la mise en place du biofiltre pilote est facile et son fonctionnement est autonome sans besoin de l’assistance régulière d’un technicien. Mots-clés : Biofiltre, biofiltration, lactosérum, effluents de fromageries fermières / In Quebec, the dairy industry is an important sector of the provincial economy. In Canada, near to 60 % of cheese fabrication unities are located in the province of Quebec and more than two billions of liters of milk are converted into cheese every year. In 2015, the number of Quebec’s dairy farms rose the number of 5 766. On average, a farm has got a livestock of 60 cows and delivers around 500 000 liters of milk per year. Furthermore, a cow’s production over five becomes milk for consumption, which is simply homogenised and pasteurized. What is left is converted essentially into cheese, cream, yogurt and butter. A very important production of wastes coming from this industry has been put forward in some areas of Quebec, due to the rising cheese production. Those wastes carry water contamination problems, such as the eutrophication of water bodies by high loads of organic pollutants, suspended solids and nutriments linked to this kind of industrial waste. A considered solution is to treat wasted water before spreading them into water sources in order to reduce the contaminating loads. A form of treatment in-situ is to install, at the farm, a biological treatment system of cheese dairy effluents. To do this, the present study suggests a system by biofiltration. The purpose of this study is therefore to evaluate the performance of the treatment of effluents from cheese dairies by the use of a biofilter. More specifically, this master degree’s project involves the star-up, the development and the operation of a pilot biofilter where the whey (waste component) is separated from cheese dairy effluents to feed (affluent) the biofiltration system. A second objective is the treatment process evaluation. Satisfying removal performances were confirmed in terms of chemical oxygen demand (CDO), total suspended solids (TSS) and total nitrogen (TN). This biofilter is capable of operating with positive removal efficiencies of above 90 %. Biofiltration is therefore a good technique with a lot of potential, simple and effective to treat the liquid effluents of the cheese dairies. Moreover, the installation of the pilot biofilter is easy and its operation is autonomous without the need of the regular assistance of a technician. Key-words: biofilter, biofiltration, whey, cheese dairy effluents
|
1579 |
Adaptation et validation du questionnaire international de l'activité physique (IPAQ) chez les personnes saines et les survivants d'un accident vasculaire cérébral au BéninHonado, Sedonoude Aristide 28 March 2024 (has links)
La pratique de l’activité physique réduit considérablement le risque de survenue des accidents vasculaires cérébraux (AVC). Elle est aussi utilisée en tant que stratégie thérapeutique pour maximiser la récupération fonctionnelle pendant la réadaptation des survivants d’un AVC. Dès lors, il est important de suivre le niveau d’activité physique des personnes saines et des survivants d’un AVC. Le suivi du niveau d’activité physique dépend de la disponibilité d’outils valides et fiables pour la mesure et l’évaluation de l’activité physique. Malheureusement, le manque de pareils outils est observé au Bénin, un pays francophone de l’Afrique. Aussi dans les circonstances de pays à ressources financières limitées comme le Bénin, les questionnaires, méthodes subjectives de mesure de l’activité physique, sont les méthodes les plus utilisées en raison de leur faible coût et de leur facilité de mise en place. Le Questionnaire International de l’Activité Physique (IPAQ) est un outil fréquemment utilisé pour mesurer le niveau d’activité physique des sujets sains et de différents groupes de patients. Toutefois, ce questionnaire, à notre connaissance n’est pas validé dans le contexte de pays francophone d’Afrique comme le Bénin. Le but de ce mémoire de maîtrise était d’adapter et de valider IPAQ chez les personnes saines et les survivants d’un AVC au Bénin. En conséquence, nous avons procédé à l’adaptation du questionnaire IPAQ selon la culture et le français parlé au Bénin, en nous basant sur les méthodes reconnues. Ensuite, la validité convergente et la fidélité test-retest de la version expérimentale béninoise du questionnaire ont été examinées à partir d’un échantillon de 60 sujets sains et de 60 sujets post AVC recrutés au Bénin. Les résultats de l’étude démontrent une excellente validité convergente et une excellente fidélité test-retest de la version béninoise de IPAQ pour la mesure de l’activité physique des personnes saines et des survivants d’un AVC. / The practice of physical activity significantly reduces the risk of stroke. It is also used as a therapeutic strategy to maximize functional recovery during the rehabilitation of stroke survivors. Therefore, it is important to monitor the level of physical activity of healthy people and stroke survivors. Tracking the level of physical activity depends on the availability of valid and reliable tools for measuring and assessing physical activity. Unfortunately, the lack of such tools is observed in Benin, a French-speaking country in Africa. Also, in the circumstances of countries with limited financial resources such as Benin, questionnaires, subjective methods of measuring physical activity, are the most used methods because of their low cost and ease of implementation. The International Physical Activity Questionnaire (IPAQ) is a frequently tool used for measuring the level of physical activity of healthy subjects and different groups of patients. However, this questionnaire, to our knowledge, is not validated in the context of French-speaking African countries as in the context of Benin. The goal of this Master thesis was to adapt and validate IPAQ in healthy people and stroke survivors in Benin. Consequently, following well-established methods, we adapted the IPAQ according to the culture and specific linguistic aspects of French as spoken in Benin. Then, the convergent validity and test-retest reliability of the Beninese experimental version of the questionnaire were examined from a sample of 60 healthy subjects and 60 post-stroke subjects recruited in Benin. The results of the study show excellent convergent validity and excellent test-retest reliability of the Benin version of IPAQ for measuring the physical activity of healthy people and stroke survivors.
|
1580 |
Développement d'une technique numérique d'autocorrélation d'intensité pour la recherche de minilentilles gravitationnelles dans le radio et de faibles variations temporelles rapidesTrottier, Éric 10 May 2024 (has links)
Pour la première fois, on propose d’appliquer une technique numérique d’autocorrélation d’intensité pour rechercher des minilentilles gravitationnelles dans des observations radio de noyaux actifs de galaxies (NAGs), et aussi pour trouver de faibles variations temporelles rapides. Essentiellement, la technique consiste à détecter un signal (délai temporel) cosmique (ou artificiel) à partir des fluctuations temporelles d’intensité. La programmation des algorithmes est codée en Matlab sur un microordinateur et en C++ pour le traitement en parallèle multi-cœur sur un superordinateur. On valide la technique et les logiciels développés en montrant la détection de faibles signaux artificiels périodiques et non périodiques. On pourrait aussi trouver des variations temporelles très rapides puisque les données radioastronomiques interférométriques sont échantillonnées sur de très courts laps de temps (ex., 15.625 ns). Enfin, des simulations numériques permettent d’évaluer l’efficacité de détection de notre technique innovatrice. La transformée de Fourier (TF) peut aussi détecter des signaux périodiques. Cependant, l’autocorrélation d’intensité a l’avantage majeur de détecter des signaux non périodiques, alors que la TF ne le peut pas. De plus, notre technique permet de visualiser directement la forme des signaux, tandis qu’il est très difficile de voir la forme avec la transformée de Fourier. Une nouveauté de la démonstration de notre technique est qu’on utilise des données prises par des radiointerféromètres (ex., NRAO) déjà existants dans un format standard (ex., Mark 5B), de sorte que l’on n’a pas besoin d’instrumentation spécialisée. On a analysé 22 objets. Aucun signal cosmique n’a été détecté pendant les dix minutes d’observation VLBA du NRAO de chaque objet. À partir du résultat nul obtenu et d’une analyse statistique simplifiée par la binomiale, on a fait un estimé approximatif du paramètre actuel de densité cosmique de minilentilles compactes non-baryoniques, noté Ωl, 0, uniformément distribuées dans l’intervalle de masse, 10 – 107 masses solaires, lequel correspond à des délais de ~1 ms à ~600 s. Pour le modèle plat (actuellement favorisé) avec constante cosmologique λ0 = 0.7 (Ω0 = 0.3), la limite estimée est Ωl, 0 ≤ 0.2 – 0.3. Vu le faible échantillon-test, n = 22, les incertitudes (intervalles de confiance) obtenues sont trop élevées pour fixer une contrainte statistiquement significative: statistique de petit nombre. / For the first time, we propose to apply a digital autocorrelation of intensity technique to gravitational minilensing in active galactic nuclei (AGNs) radio observations, and also to search weak rapid time variations. Essentially, the technique consists of detecting a cosmic (or artificial) signal (time delay) using intensity fluctuations as a function of time. The programming algorithm is coded in Matlab on a microcomputer and in C++ for multi-core parallel processing on a supercomputer. We validate the technique and softwares by showing weak periodic and non-periodic artificial signals detections. We could also find very fast time variations because radioastronomical interferometric data are sampled over very short times (e.g., 15.625 ns). Finally, numerical simulations make it possible to evaluate the detection efficiency of our innovative technique. The Fourier transform (FT) can also detect periodic signals. However, the main advantage of the autocorrelation of intensity is that it can detect non-periodic signals, while the FT cannot detect these non-periodic signals. Moreover, our technique allows a direct visualization of the shape of the signals, while it is very difficult to see the shape with a Fourier Transform. A novelty of the demonstration of our technique is that we use data taken with existing radio-interferometers (e.g., NRAO) in a standard format (e.g., Mark 5B) and therefore no specialized instrumentation is needed. We analyzed 22 objects. No signal has been detected for the ten minutes of VLBA of the NRAO observation for each object. From the null result obtained and a simplified statistical analysis by the binomial, we made a rough estimate of the present cosmic density parameter of non-baryonic compact minilenses, named Ωl, 0, uniformly distributed in the mass range, 10 – 107 solar masses, corresponding to delays of ~1 ms to ~600 s. For a flat model (currently favored) with cosmological constant λ0 = 0.7 and with Ω0 = 0.3, the estimated limit is Ωl, 0 ≤ 0.2 – 0.3. Given the low test sample, n = 22, the uncertainties (confidence intervals) obtained are too high to set a statistically significant constraint: small number statistics.
|
Page generated in 0.4248 seconds