141 |
Fondements écosystémiques des coupes à rétention de bouquets sur la Côte-NordLachance, Edith 19 April 2018 (has links)
La coupe à rétention de bouquets est un type de coupe à rétention variable visant à atténuer l'impact de la coupe totale sur la diversité biologique et sur la qualité visuelle des paysages. Puisque l'utilisation des types de coupe associés à l'aménagement écosystémique est encore récente au Québec, très peu d'études ont été réalisées afin d'en vérifier l'impact réel sur les écosystèmes forestiers. La présente étude vise à déterminer si les bouquets réussissent à préserver des attributs qui sont perdus lors de coupes traditionnelles en comparant la structure et les communautés de plantes de sous-bois retrouvées dans ces deux milieux. Nos résultats indiquent que la diversité végétale des deux milieux est semblable. Cependant, l'approche par traits fonctionnels montre que la tolérance à l'ombre semble jouer un rôle significatif dans la répartition des espèces entre les deux environnements. À court terme, la coupe à rétention de bouquet devrait également préserver une plus grande quantité de bois mort qu'une coupe avec protection de la régénération et des sols (CPRS), ce qui pourrait avoir des effets bénéfiques à long terme pour le maintien de la biodiversité.
|
142 |
Impact des traitements thermiques sur la structure des protéines de lentilles et leur digestibilitéPana, Massama Esso 19 April 2018 (has links)
Les lentilles produites au Canada sont peu transformées et peu valorisées, bien qu’elles constituent une importante source de protéines dont les effets santé sont de plus en plus reconnus. Certains bénéfices potentiels ayant été répertoriés incluent la séquestration des acides biliaires, l'inhibition de l'enzyme convertissant l'angiotensine-1, l'abaissement du cholestérol, l'équilibre de la glycémie, et des effets préventifs contre la maladie artérielle périphérique, le diabète et le cancer. Cependant, leur faible digestibilité et biodisponibilité liées aux facteurs antinutritionnels limitent l’utilisation des lentilles. Ce projet vise à étudier l’impact du traitement à la chaleur sur la structure et la digestibilité des protéines de lentilles. Dans un premier temps, l’impact des traitements thermiques sur la dénaturation et la gélification des protéines de lentilles a été étudié en faisant varier les conditions du milieu, notamment le pH et la force ionique. Le mécanisme de formation des gels a été étudié par calorimétrie DSC, FTIR et par rhéologie à petites déformations à différents pH 3, 7 et 9 en absence et en présence de CaCl2. Les résultats de DSC ont montré qu’aux pH 3, 7 et 9, il n’y a pas de différence significative (0,05) de la température de dénaturation (Td) enregistrée. Par contre Td augmente en présence de CaCl2 mais reste significative (p ˂ 0,05) à 50 mM de CaCl2. Avec le FTIR, nos résultats ont montré une intensité plus importante des bandes d’agrégation dans les conditions en présence de CaCl2. Cependant, la rhéologie dynamique à petite déformation a montré qu’à pH 9 en présence et en absence de CaCl2, le module d’élasticité (G’) reste plus élevé que les autres pH dans les mêmes conditions. Dans un deuxième temps, l’impact du traitement à la chaleur sur la digestibilité des protéines de lentilles a été étudié in vitro. La sensibilité aux enzymes digestives des protéines natives et dénaturées à la chaleur a été étudiée et comparée à celle des protéines gélifiées. Les résultats de la deuxième partie ont montré que les protéines dénaturées avaient une sensibilité plus élevée à l’hydrolyse par les enzymes protéolytiques que les protéines natives. Les protéines gélifiées à pH 9 ont générées des peptides avec un poids moléculaires environ 3 kDa et moins, plus petits par rapport aux gels à pH 3 et 7. De même, la présence de CaCl2 (50 mM) dans les différentes conditions de pH n’a pas ii modifié la sensibilité à la dégradation des gels formés. Bien que le CaCl2 favorise l’agrégation des protéines de lentilles, la chaleur semble nécessaire à l’exposition des sites d’attaques des enzymes protéolytiques, comparé à l’hydrolyse protéique des échantillons sans traitement thermique. / Most lentils produced in Canada are not processed and valorized, although they constitute an important source of proteins, the health benefits of which are now well recognized. These health benefits include the sequestration of bile acids, inhibition of angiotensin-converting-enzyme-1, lowering of cholesterol, maintaining blood sugar levels, and preventive effects against peripheral arterial disease, diabetes and cancer. However, the low digestibility and bioavailability deriving from anti-nutritional factors limit the use of lentils. This project aims to study the impact of heat treatment on the structure and digestibility of lentils’ proteins. Initially, the impact of heat treatment on the denaturation and gelation of the proteins of lentils was studied by varying environmental conditions such as the pH and ionic strength. The mechanism of formation of gels was studied by DSC, FTIR and small deformation rheology at pH 3, 7 and 9, in absence and presence of CaCl2. The results obtained from DSC indicate that at pH 3, 7 and 9, there is no significant difference (p ˂ 0.05) between the denaturation temperatures (Td). However, the Td increases in the presence of CaCl2 and is significantly higher (p ˂ 0.05) when the concentration of CaCl2 reaches 50 mM. Furthermore, FTIR results show a higher intensity of the aggregation bands in the presence of CaCl2. On the other hand, small deformation rheology indicates that at pH 9, in the presence or absence of CaCl2, the elastic modulus (G’) is the highest. The impact of heat treatment on the digestibility of lentils’ proteins was then studied in vitro. The effects of digestive enzymes on native, heat denatured and gelled proteins were evaluated. The data indicate that the denatured proteins are more sensitive to proteolytic hydrolysis than the native proteins. At pH 9, the gelled proteins generate peptides with a molecular weight around 3 kDa or less, which are much smaller compared to that obtained at pH 3 and pH 7. Similarly, the presence of CaCl2 (50 mM) in different pH conditions does not affect the degradation of the gels. Although CaCl2 promotes the aggregation of lentil proteins, heat treatment is necessary to reveal the target sites of proteolytic enzymes.
|
143 |
Le problème de décision CSP : homomorphismes et espace logarithmiqueLamontagne, Éric 19 April 2018 (has links)
Ce mémoire porte sur le problème de décision CSP (de l'anglais Constraint Satisfaction Problem, c'est-à-dire problème de satisfaction de contraintes), soit le problème pour lequel nous devons assigner des valeurs à des variables de telle sorte que toutes les conditions portant sur ces variables soient remplies. De surcroît, ce mémoire porte sur les problèmes de détection d'homomorphisme entre structures relationelles qui sont équivalents à CSP. Pour être plus précis, nous nous intéressons à l'algorithme de cohérence d'arc pour les instances de CSP, soit ArcjConsistency. Celui-ci suffit à solutionner un certain sous-ensemble de CSP. Or nous étudions quelques-unes de ses variantes qui sont des algorithmes plus coûteux, mais plus puissants, c'est-à-dire que le sous-ensemble de CSP qu'ils solutionnent est plus grand. La nouveauté de ce mémoire est de décrire et d'étudier une variante de ArcjConsistency, soit NLjCohérence, qui est un algorithme moins puissant mais plus efficace. L'objectif pour nous est de trouver des caractéristiques intéressantes au sujet de ce nouvel algorithme, qui se veut être une version « espace logarithmique » de ArcjConsistency. De plus, nous travaillons sur un sous-ensemble de CSP dit implicatif. Nous démontrons que NL_Cohérence solutionne les instances de ce sous-ensemble en espace logarithmique non-déterministe.
|
144 |
Instrumentation optimisée de code pour prévenir l'exécution de code malicieuxLemay, Frédérick 18 April 2018 (has links)
Les systèmes informatiques occupent une place grandissante dans notre société actuelle hautement informatisée. À mesure que les systèmes transactionnels traditionnels sont informatisés, une composante de confidentialité vient s'ajouter aux systèmes informatiques. Ces systèmes gagnant en complexité, la vérification manuelle par des êtres humains devient rapidement impraticable. Nous présentons des methods traditionnelles de verification automatique de la conformité d'un programme à une propriété de sécurité. Ensuite, nous présentons une approche originale de Hugues Chabot et al. utilisant des omega-automates, qui permettent de verifier des programmes pour lesquels une execution peut ne jamais se terminer. Nous proposons quelques optimisations puis procédons a son implantation pour en mesurer la performance. Nous présentons finalement une approche alternative, base sur la théorie des transactions logicielles, qui permet de corriger un programme deviant plutôt que de le rejetter. Nous terminons en posant un regrard critique sur le travail accompli.
|
145 |
Développement de modèles in silico pour la simulation de parois bactériennesSghairi, Amina 18 April 2018 (has links)
L'émergence de pathogènes multi-résistants ne cesse d'augmenter et présente un problème majeur dans le secteur alimentaire et de santé. La recherche d'une nouvelle classe d'agents antimicrobiens considérée comme solutions de rechange aux antibiotiques conventionnels est rendue quasi-obligatoire et d'une importance cruciale. Une des alternatives prometteuses est l'utilisation des peptides antimicrobiens (PAM). L'utilisation des PAM d'origine bactérienne, appelés bactériocines, comme une option prometteuse dans la lutte contre ce phénomène de résistance est d'un intérêt potentiel à l'heure actuelle. Des études ont mis en évidence la relation structure-fonction de ces molécules anti-pathogènes. Cependant, les modèles utilisés dans les études d'activités antimicrobiennes contre des souches bactériennes à Gram négatif et à Gram positif, s'avèrent insuffisants. La présente étude vise à développer des modèles in silico simulant les caractéristiques physicochimiques et structurales des membranes bactériennes d'Escherichia coli, Salmonella typhimurium, Staphylococcus aureus et Listeria monocytogenes. Pour ce faire, les données relatives à la composition de la membrane de chaque bactérie ont été rassemblées, ensuite les composantes sélectionnées ont été construites grâce au logiciel «Chemdoodle» et regroupées dans une bibliothèque tridimensionnelle constituée des différentes unités nécessaires au développement des modèles. Une étape d'assemblage a été effectuée à l'aide du logiciel «Molsoft icm-pro». Ces modèles permettront d'étudier les interactions bactériocines-membranes ainsi que de prédire et sélectionner les séquences peptidiques ayant une activité antimicrobienne optimale.
|
146 |
Irrigation spatio-temporelle de la laitue romaine en sol organiquePériard Larrivée, Yann 20 April 2018 (has links)
Au Canada, 84 % de la production de laitue provient du Québec et s'effectue essentiellement sur des sols organiques. Toutefois, elle possède des risques importants de stress hydrique (brûlure de la pointe) lors de périodes à forte demande d'évapotranspiration qui peuvent être accentuées par une variabilité spatiale importante des propriétés physiques du sol. Une étude visant à évaluer la performance (consommation en eau et en énergie, lessivage et rendements) de deux échelles de gestion de l'irrigation de la laitue et à étudier les mécanismes de transport de l'eau dans le sol et leurs implications dans l'apparition de symptômes de brûlure de la pointe a été réalisée. Les résultats ont démontré la pertinence d'une gestion fine de l'irrigation, se soldant par un gain de rendement de l'ordre de 17 % lorsque le potentiel matriciel de départ de l'irrigation est maintenu à - 15 kPa lors de période à forte demande d'évapotranspiration.
|
147 |
Diabète gestationnel : le risque et la prévention du diabète de type 2St-Yves, Annie 19 April 2018 (has links)
Les femmes ayant eu un diabète gestationnel (DbG) sont considérées à risque de développer le diabète de type 2 (DbT2). Chez les femmes avec un antécédent de DbG de notre étude, un gain de poids durant la période de procréation a été associé à la détérioration de la sensibilité à l’insuline ainsi qu’au risque accru de DbT2. Il s’est avéré que l’alimentation n’était pas optimale chez ce groupe à risque afin de prévenir ou retarder le DbT2. Par l’application de la théorie du comportement planifié, il a été ressorti qu’une intervention afin d’augmenter l’intention d’adopter la saine alimentation chez les femmes avec un antécédent de DbG devrait porter sur l’importance de la saine alimentation pour le contrôle du poids, favoriser la capacité à surmonter le manque d’information sur la saine alimentation et favoriser la capacité à surmonter l’influence de la disponibilité des aliments de type « gâterie ». / Women with prior gestational diabetes (GDM) are at risk of type 2 diabetes (T2D). Weight gain during childbearing-age period was associated with deteriorated insulin sensitivity and higher risk of T2D among women with prior GDM of our study. Healthy eating was not optimal in order to prevent T2D among these women. Application of the theory of planned behavior suggest that an intervention to increase intention to adopt healthy eating among women with prior GDM would need to focus on straightening the perception of its beneficial effect on weight control and on providing information on healthy eating and coping with availability of non-healthy foods in order to prevent future development of T2D among these women.
|
148 |
Deux fois trop : roman ; suivi de l'essai Écrire, c'est choisirJoubert, Marie-Claude 18 April 2018 (has links)
Roman Deux fois trop Deux fois trop raconte une histoire qui prend racine lors de la Seconde Guerre mondiale et se dénoue en deux mille dix. Le roman passe d'une époque à une autre, alternant entre deux personnages féminins. Le lecteur fait d'abord la connaissance d'Evelyne, de Montréal, et découvre avec elle qu'une inconnue a mandaté un détective privé pour la retracer. Emily, qui habite l'île du Cap-Breton, entre en scène dans le chapitre suivant. Du début à la fin du roman, les histoires des deux femmes s'entrelacent. Le lecteur apprend que l'une est la mère de l'autre, ce qui soulève plusieurs questions. Pourquoi Evelyne, qui se prénommait autrefois Eveleen, a-t-elle été confiée à un couple de Québécois? Pourquoi sa soeur aînée et son frère cadet n'ont-ils pas été séparés de leur mère? Les indices sont disséminés dans le roman, mais les réponses n'arrivent qu'à la fin d'un voyage à travers le temps qui transporte le lecteur de la Nouvelle-Ecosse au Québec, en passant par l'Ontario. Essai Ecrire, c'est choisir Tout au long du processus de création, le romancier effectue des choix. Il commence par opter pour le régime hétérodiégétique ou le régime homodiégétique. Il choisit un type de focalisation. Il décide de raconter son histoire dans l'ordre chronologique ou non. Il détermine quel temps verbal convient le mieux. Plusieurs possibilités s'offrent aussi à lui en ce qui concerne la langue. Quel niveau de langage doit-il employer? Doit-il puiser dans les canadianismes et les régionalismes ou pas? Comment doit-il livrer les dialogues entre personnages qui s'expriment dans une autre langue que le français? Le romancier a également la liberté de coller à la réalité ou de s'en détacher. Si son oeuvre de fiction se situe dans le passé, par exemple, il peut respecter les faits historiques ou, au contraire, ne leur accorder aucune importance. Écrire, c'est choisir fait l'inventaire des choix qui s'offrent à l'auteur de fiction. Cet essai invite à réfléchir sur les dessous de l'écriture romanesque en s'appuyant sur plusieurs ouvrages théoriques, puis en comparant le roman Deux fois trop à d'autres, dont Tous ces mondes en elle, de Neil Bissoondath, J'ai épousé un communiste, de Philip Roth, et Les heures, de Michael Cunningham.
|
149 |
Séparation automatisée des actinides par chromatographie d'extractionGuérin, Nicolas 19 April 2018 (has links)
Les actinides sont les éléments du tableau périodique compris entre l'actinium et le lawrencium. Tous ces éléments sont radioactifs et peuvent constituer un risque pour la santé d'où l'importance d'en faire la mesure. Leur détermination est cependant ardue, car ces éléments ne sont trouvés dans l'environnement qu'à l'état d'ultra-traces et que leur mesure ne peut se faire que par des instruments hautement sensibles tels que le spectromètre alpha ou 1TCP-MS. Or, ces instruments sont susceptibles à de nombreuses interférences et pour les lever, il est nécessaire de séparer les actinides en fractions distinctes. À cette fin, on utilise principalement la chromatographie d'extraction. Pour que cette technique puisse être efficace, il est nécessaire d'ajuster préalablement les états d'oxydation des actinides, ce qui est complexe dû aux nombreux états d'oxydation que peuvent avoir les actinides en solution de façon simultanée. Dans un premier temps, un rappel des notions concernant les propriétés nucléaires et chimiques des actinides a été fait. Les méthodologies permettant leurs mesures ont été expliquées ainsi que les procédés pour en faire la séparation. Les états d'oxydation de neptunium et plutonium ont d'abord été étudiés pour permettre une meilleure séparation des actinides. Fondée sur ces résultats, une méthode de séparation multidimensionnelle des actinides dans des échantillons environnementaux a été développée. Un aspect important de cette séparation a ensuite été amélioré par la réduction sélective de Np(IV) en Np(III) sur la résine TEVA avec chrome(II). Finalement, la méthode proposée a été automatisée en utilisant un système d'injection pressurisé basé sur un modèle mathématique, ce qui a permis de réduire le nombre d'étapes et la possibilité d'erreurs. L'emploi de cette méthode permettrait de diminuer la contamination des travailleurs à de hauts niveaux de radioactivité.
|
150 |
Étude d'un algorithme pour 2-SAT via les opérations de majorité-minorité généraliséesKharrat, Ons 18 April 2018 (has links)
Les problèmes de satisfaction de contraintes sont parmi les problèmes fréquents qu'on trouve dans des domaines variés tels que la recherche opérationnelle et l'intelligence artificielle. Dans un problème de satisfaction de contraintes, on cherche à assigner aux variables des valeurs de telle sorte que toutes les contraintes fournies en entrée soient satisfaites. Chaque contrainte est une paire contenant un tuple de variables et une relation définissant les combinaisons de valeurs autorisées pour ce tuple. Ce problème est NP-complet, donc il est important d'identifier des cas particuliers résolubles en temps polynomial. Dans ce travail, on s'intéresse à une approche dite algébrique pour découvrir des classes de problèmes de satisfaction de contraintes traitables efficacement. On se base sur le résultat prouvé par Dalmau "en 2006" qui donne un algorithme polynomial pour une classe assez vaste de problèmes. On analyse et implémente un cas particulier de cet algorithme qui permet de résoudre des instances de 2-SAT. Cette implementation nous aidera à faire des expérimentations et à en apprendre plus sur la nature de l'algorithme de Dalmau et son comportement en pratique.
|
Page generated in 0.0254 seconds