• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 484
  • 71
  • 41
  • 4
  • 3
  • Tagged with
  • 627
  • 228
  • 154
  • 79
  • 73
  • 69
  • 68
  • 64
  • 57
  • 56
  • 51
  • 46
  • 44
  • 43
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Développement de la pensée critique chez des élèves-professeurs de première année sciences naturelles

Zaïm-Idrissi, L. Khadija 25 April 2018 (has links)
Québec Université Laval, Bibliothèque 2015
192

Mise au point d'un système de multi-minibioréacteurs pour la culture de cellules animales

Sánchez-Aguilar, Ricardo 11 April 2018 (has links)
Le développement de bioprocédés pour la culture des cellules animales est d'une grande importance pour la biotechnologie, dû aux nombreuses applications biomédicales de ces cellules. Dans ce travail, la mise au point d'un système de contrôle ainsi que la conception, la caractérisation et l'utilisation de minibioréacteurs à échelle réduite (30-100 mL), entièrement équipés et automatisés pour la culture cellulaire, sont présentées. Les paramètres des contrôleurs ont de plus été optimisés pour des bioréacteurs de différentes tailles (500 mL et 15 L) avec différents volumes de travail (0,3, 0,5, 5, 10 et 15 L). Les temps de réponse de chaque sonde ainsi que le kLa dans les bioréacteurs ont aussi été évalués. Un système de contrôle en langage LABVIEW National Instruments, incluant une interface-usager numérique a été finalisé. Ce programme est capable de saisir, contrôler et surveiller les paramètres d'opération (pH, DO, pCO2, T) de huit bioréacteurs de façon simultanée et indépendante par le biais des modules de conversion Numériques/Analogues Field Point National Instruments. Finalement, le système a été testé par trois cultures de cellules HEK 293S dans les minibioréacteurs (100 et 300 mL). Les résultats ont été comparés à une culture statique dans un T-Flask de 25 cm2 . On a ainsi démontré que le système développé est robuste, précis et efficace.
193

Fractionnement d'un hydrolysat de protéines de soya : comparaison des technologies baro-membranaire (UF) et électro-membranaire (ÉDUF) pour la collecte de fractions bioactives

Roblet, Cyril Roland 18 April 2018 (has links)
Depuis plusieurs décennies, de nombreuses recherches ont porté leur attention sur les bioactivités des constituants du soya, depuis les isoflavones jusqu'aux protéines, en passant par les peptides. L'objectif principal de ce travail de thèse était de démontrer qu'à partir de l'hydrolyse enzymatique de protéines de soya par la pepsine et la pancreatine, il était possible d'isoler et de concentrer des peptides bioactifs plus efficacement par la technique d'électrodialyse avec membranes d'ultrafiltration (ÉDUF) que par l'emploi des méthodes traditionnelles d'UF. Au cours de ces travaux, les premiers résultats ont démontré que l'utilisation de l'UF (seuil de coupure de 10 kDa, facteur de concentration 2X, pression trans-membranaire de 173 kPa) permettait de concentrer les peptides bioactifs, soit dans le perméat soit dans le rétentat, dépendamment de la bioactivité recherchée. En parallèle, cette étude a également permis de mettre en évidence que la configuration membranaire des diverses membranes disponibles commercialement, jouait un rôle important sur la séparation des peptides (comparaison des configurations de membrane spiralée et de membrane à fibres creuses). Ainsi, l'étude de la capacité des fractions collectées à moduler la captation du glucose a montré que seul le rétentat de la membrane spiralée (SWR) donne des résultats significativement améliorés. Selon l'analyse de la composition en acides aminés des différentes fractions, cette bioactivité serait due à une plus forte concentration en lysine. Par la suite, l'étude en ÉDUF des effets du pH sur les paramètres électrodialytiques (conductivité, taux de migration, résistance membranaire, etc.) ainsi que sur les bioactivités des fractions collectées (traitement de 4 h à 5 V avec des membranes d'un seuil de coupure de 10 kDa, pH 3, 6 et 9) a démontré l'impact du colmatage potentiel des membranes plus ou moins conséquent selon le pH sur la migration des peptides anioniques. Cependant, aucune des fractions collectées n'a démontré de capacités à stimuler la captation du glucose in vitro. Par la suite, il a pu être démontré qu'un traitement de 6 h à 50 V avec des membranes présentant un seuil de coupure de 100 kDa à pH 6 permettait l'isolement et la concentration de peptides dont la capacité à moduler la captation du glucose était de 22% supérieure à celle de l'hydrolysat complet et de 33% par rapport à celle induite par la fraction SWR. L'ensemble de ces travaux nous a donc permis de démontrer que l'hydrolyse enzymatique utilisée permettait de libérer des peptides bioactifs à partir des protéines du soya, mais également, que par l'optimisation des paramètres d'ÉDUF, il est possible d'isoler ces peptides bioactifs de manière plus sélective que par l'utilisation des techniques traditionnelles.
194

L'évaluation de l'aptitude à gérer ses biens et sa personne chez une clientèle âgée atteinte de déficits cognitifs : un outil d'évaluation

Giroux, Dominique 18 April 2018 (has links)
La protection des personnes inaptes est une préoccupation présente dans toutes les sociétés. Au Québec, l'adoption de la Loi sur le Curateur Public (loi 145), qui est toujours en vigueur, a entraîné des changements importants au regard de la protection des personnes inaptes (Deleury & Goubau, 2008). En mars 2009, la curatrice publique a amorcé une vaste réflexion portant sur la protection légale des personnes inaptes (Curateur public du Québec, 2009). Les changements démographiques, économiques et sociaux dans la société québécoise ont motivé cette démarche. Or, les professionnels de la santé et des services sociaux québécois se disent peu outillés pour procéder à l'évaluation de l'aptitude des personnes âgées à gérer leur personne et leurs biens (Tremblay, 2007). Les objectifs de la présente étude sont de recenser les outils d'évaluation disponibles pouvant aider à mieux se prononcer sur l'aptitude des personnes âgées à gérer leur personne et leurs biens et d'élaborer un modèle de prise de décision destiné à soutenir cette évaluation. Les résultats indiquent qu'aucun outil ou modèle de prise de décision n'est actuellement disponible pour évaluer l'aptitude de façon complète et exhaustive. La recension des écrits scientifiques, l'analyse de trois formations portant sur l'évaluation de l'aptitude offertes aux ergothérapeutes, ainsi que des focus-groups, servent de base à l'élaboration d'un modèle de prise de décision, le Processus d'Évaluation de l'Aptitude (PÉA). Il sert à guider l'évaluation de l'aptitude d'une personne âgée atteinte de déficits cognitifs à gérer sa personne et ses biens. Le PÉA est sous-jacent à l'Outil d'Évaluation de l'Aptitude (OÉA), qui inclut l'ensemble des indicateurs à documenter, une analyse de la situation globale de la personne, ainsi qu'une étape de réflexion éthique. L'outil élaboré est très prometteur et contribuera à mieux protéger les droits des personnes âgées. Mots-Clé : aptitude, personne âgée, législation, protection, démence, éthique, outil d'évaluation, modèle de prise de décision
195

Évaluation des incertitudes sur les données expérimentales prises dans la soufflerie trisonique de RDDC Valcartier

Lim, Chin 13 April 2018 (has links)
Le but de ce projet est d'obtenir et d'appliquer une méthodologie disponible dans la littérature pour quantifier les incertitudes sur les données expérimentales prises dans la soufflerie trisonique de Recherche et Développement pour la Défense Canada - Valcartier (RDDC Valcartier). La motivation de cette étude vient du fait que la qualité des mesures expérimentales joue un rôle très important dans le processus de développement de tout missile ou système d'armes à RDDC Valcartier. Nous constatons l'importance du sujet par les conférences organisées par des instituts de renommée dans le domaine de l'aérodynamique tels que l'American Institute of Aeronautics and Astronautic (AIAA) et l'Advisory Group for Aerospace Research & Development (AGARD). Ces organismes exigent que les résultats expérimentaux présentés incluent un estimé de leurs incertitudes. La présente étude est basée sur des essais existants dans la base de données de RODC Valcartier en prenant en compte l'instrumentation disponible au moment des essais et revue en fonction de ce qui est disponible ou des améliorations apportées au système au cours des années. Par cette analyse, il a été décidé d'appliquer la méthodologie choisie à un essai réalisé à Mach 3,5, considérant la grande disponibilité des données existantes. En relevant des données des essais antérieurs, nous avons observé que le fait d'avoir remplacé le système de séchage d'air par un autre plus performant faisait augmenter le nombre de Mach en régime supersonique. Cette variation du nombre de Mach est probablement due à la réduction de la condensation l'humidité dans l'air pendant son expansion dans la section d'essai et ce fait sera également exposé dans cette étude. En nous fondant sur des recommandations dans les références telles que [AIAA, 1990] et [Association Française de Normalisation (AFNOR), 2005], nous avons remarqué que l'incertitude estimée sur quelques grandeurs mesurables était anormalement élevée, et par conséquent, les paramètres calculés à partir de ces grandeurs aussi. Cette étude aura aussi révélé que la balance aérodynamique est l'élément critique qui apporte les plus grandes incertitudes expérimentales sur les paramètres aérodynamiques et qu'elle n'était pas adéquate pour la mesure de quelques composantes de force pour l'essai étudié. Enfin, nous avons donné plusieurs recommandations afin de réduire les incertitudes des mesures expérimentales à des niveaux plus acceptables.
196

La recherche de déterminants génétiques dans l'asthme : contribution de deux méthodes génomiques

Madore, Anne-Marie 17 April 2018 (has links)
L'asthme est un trait complexe dont le phénotype est régulé par l'interaction de nombreux gènes et de l'environnement. Étant donné sa variabilité phénotypique, plusieurs individus asthmatiques ne répondent pas à la médication disponible. La recherche de nouvelles voies biologiques impliquées dans l'asthme est donc nécessaire. Les études d'expression génomique et les études d'association génomique (GWAS) permettent d'avoir une vue d'ensemble sur les gènes impliqués dans le développement d'un phénotype sans être biaisé par les connaissances actuelles et pourraient permettre la découverte de ces nouvelles voies. Ainsi, dans la première partie de cette thèse, une étude d'expression génomique a été utilisée pour caractériser les macrophages alvéolaires des individus asthmatiques en comparaison aux individus témoins. Cette étude a permis de cibler la famille des heat shock proteins (HSP), et plus particulièrement le gène HSPD1. De plus, la comparaison des données obtenues d'une étude d'expression génomique antérieure avec celles d'une étude récente a permis de démontrer que les études d'expression génomique sont un outil de sélection pertinent pour cibler de nouveaux gènes d'intérêt. La deuxième partie de cette thèse fait suite à la première GWAS effectuée dans l'asthme. Deux études présentées dans cette thèse ont permis de valider l'association des variants de la région 17q21 avec l'asthme dans un échantillon indépendant. Elles ont également permis d'initier la compréhension du mécanisme d'action par lequel ces variants régulent l'expression de certains gènes de cette région. Des études pour définir l'implication de HSPD1 dans les fonctions du macrophage alvéolaire ainsi que pour valider l'implication des gènes GSDMB, ORMDL3 et ZPBP2 dans l'asthme sont nécessaires afin de valider leur intérêt dans la recherche sur cette pathologie. Finalement, les différents éléments présentés dans cette thèse démontrent l'intérêt des techniques génomiques pour cibler de nouvelles voies biologiques liées au développement d'un phénotype en particulier.
197

Évaluation de la valeur de biens et services écologiques liés à l'agroforesterie : une approche expérimentale

Roy-Vigneault, Frédéric 16 April 2018 (has links)
L'étude suivante évalue de façon expérimentale la valeur que des individus accordent aux biens et services écologiques rattachés à l'aménagement de haies brise-vent et de bandes riveraines en milieu agricole. L'approche adoptée pour cette tâche permet d'attaquer des problématiques méthodologiques et scientifiques soulevées par les techniques d'évaluation du consentement à payer (CAP) pour des biens publics. En particulier, nous avons examiné si la méthode de l'évaluation contingente, méthode déclarative où les préférences sont obtenues dans des situations hypothétiques, présente un biais comparativement à une situation concrète de collecte de fond. Les résultats présentés démontrent la présence d'un biais hypothétique dans l'évaluation de bien public. Les données suggèrent que ces différences observées entre le contexte hypothétique et réel sont sensibles au degré de perception quant à la ±conséquence¿ de l'enquête pour les répondants. Également, les résultats indiquent qu'il n'y a pas de différence de CAP entre différents échantillons de la population du Québec lorsque les variables sociodémographiques sont prises en compte. Cela suggère que la localisation géographique du répondant n'a pas d'incidence sur son CAP.
198

Specimen theoriae novae de mensura complexus : Mesures objectives de la complexité = Objective measures of complexity / Mesures objectives de la complexité / Objective measures of complexity

Pronovost, Sylvain 24 April 2018 (has links)
Mesures Objectives de la Complexité pour la Prise de Décision Dynamique. La gestion efficace de systèmes sociotechniques complexes dépend d’une compréhension des interrelations dynamiques entre les composantes de ces systèmes, de leur évolution à travers le temps, ainsi que du degré d’incertitude auquel les décideurs sont exposés. Quelles sont les caractéristiques de la prise de décision complexe qui ont un impact sur la performance humaine dans l’environnement moderne du travail, constamment en fluctuation et sous la pression du temps, exerçant de lourdes demandes sur la cognition ? La prise de décision complexe est un concept issu de la macrocognition, impliquant des processus et des fonctions de bas et haut niveaux de description tels que la métacognition, soit pour un individu de penser à propos de son propre processus de pensées. Dans le cas particulier de la prise de décision complexe, ce phénomène est nommé la pensée systémique. L’étude de la prise de décision complexe en dehors de l’environnement traditionnel du laboratoire, permettant un haut niveau de contrôle mais un faible degré de réalisme, est malheureusement difficile et presque impossible. Une méthode de recherche plus appropriée pour la macrocognition est l’expérimentation basée sur la simulation, à l’aide de micromondes numérisés sous la forme de jeux sérieux. Ce paradigme de recherche est nommé la prise de décision dynamique (PDD), en ce qu’il tient compte des caractéristiques de problèmes de prise de décision complexe telles que des séquences complexes de décisions et de changements d’états d’un problème interdépendants, qui peuvent changer de façon spontanée ou comme conséquence de décisions préalables, et pour lesquels la connaissance et la compréhension du décideur peut n’être que partielle ou incertaine. Malgré la quantité de recherche concernant la PDD à propos des difficultés encourues pour la performance humaine face à des problèmes de prise de décision complexe, l’acquisition de connaissances à propos de systèmes complexes, et à savoir si le transfert de l’apprentissage est possible, il n’existe pas de mesure quantitative de ce en quoi un problème de décision est considéré comme étant complexe. La littérature scientifique mentionne des éléments qualitatifs concernant les systèmes complexes (tels que des interrelations dynamiques, une évolution non-linéaire d’un système à travers le temps, et l’incertitude à propos des états d’un système et des issues des décisions), mais des mesures quantitatives et objectives exprimant la complexité de problèmes de décision n’ont pas été développées. Cette dissertation doctorale présente les concepts, la méthodologie et les résultats impliqués dans un projet de recherche visant à développer des mesures objectives de la complexité basées sur les caractéristiques de problèmes de prise de décision dynamique pouvant expliquer et prédire la performance humaine. En s’inspirant de divers domaines d’application de la théorie de la complexité tels que la complexité computationnelle, la complexité systémique, et l’informatique cognitive, un modèle formel des paramètre de la complexité pour des tâches de prise de décision dynamique a été élaboré. Un ensemble de dix mesures objectives de la complexité a été développé, consistant en des mesures de la complexité structurelle, des mesures de la complexité informationnelle, la complexité de la charge cognitive, et des mesures de la difficulté d’un problème, de la non-linéarité des relations, de l’incertitude concernant l’information et les décisions, ainsi qu’une mesure de l’instabilité d’un système dynamique sous des conditions d’inertie. Une analyse des résultats expérimentaux colligés à partir de cinq scénarios de PDD révèle qu’un nombre restreint de candidats parmi des modèles de régression linéaires multiple permet d’expliquer et de prédire les résultats de performance humaine, mais au prix de certaines violations des postulats de l’approche classique de la régression linéaire. De plus, ces mesures objectives de la complexité présentent un degré élevé de multicolinéarité, causée d’une part par l’inclusion de caractéristiques redondantes dans les calculs, et d’autre part par une colinéarité accidentelle imputable à la conception des scénarios de PDD. En tenant compte de ces deux considérations ainsi que de la variance élevée observée dans les processus macrocognitifs impliqués dans la prise de décision complexe, ces modèles présentent des valeurs élevées pour le terme d’erreur exprimant l’écart entre les observations et les prédictions des modèles. Une analyse additionnelle explore l’utilisation de méthodes alternatives de modélisation par régression afin de mieux comprendre la relation entre les paramètres de la complexité et les données portant sur performance humaine. Nous avons d’abord opté pour une approche de régression robuste afin d’augmenter l’efficience de l’analyse de régression en utilisant une méthode réduisant la sensibilité des modèles de régression aux observations influentes. Une seconde analyse élimine la source de variance imputable aux différences individuelles en focalisant exclusivement sur les effets imputables aux conditions expérimentales. Une dernière analyse utilise des modèles non-linéaires et non-paramétriques afin de pallier les postulats de la modélisation par régression, à l’aide de méthodes d’apprentissage automatique (machine learning). Les résultats suggèrent que l’approche de régression robuste produit des termes d’erreur substantiellement plus faibles, en combinaison avec des valeurs élevées pour les mesures de variance expliquée dans les données de la performance humaine. Bien que les méthodes non-linéaires et non-paramétriques produisent des modèles marginalement plus efficients en comparaison aux modèles de régression linéaire, la combinaison de ces modèles issus du domaine de l’apprentissage automatique avec les données restreintes aux effets imputables aux conditions expérimentales produit les meilleurs résultats relativement à l’ensemble de l’effort de modélisation et d’analyse de régression. Une dernière section présente un programme de recherche conçu pour explorer l’espace des paramètres pour les mesures objectives de la complexité avec plus d’ampleur et de profondeur, afin d’appréhender les combinaisons des caractéristiques des problèmes de prise de décision complexe qui sont des facteurs déterminants de la performance humaine. Les discussions concernant l’approche expérimentale pour la PDD, les résultats de l’expérimentation relativement aux modèles de régression, ainsi qu’à propos de l’investigation de méthodes alternatives visant à réduire la composante de variance menant à la disparité entre les observations et les prédictions des modèles suggèrent toutes que le développement de mesures objectives de la complexité pour la performance humaine dans des scénarios de prise de décision dynamique est une approche viable à l’approfondissement de nos connaissances concernant la compréhension et le contrôle exercés par un être humain face à des problèmes de décision complexe. / Objective Measures of Complexity for Dynamic Decision-Making. Managing complex sociotechnical systems depends on an understanding of the dynamic interrelations of such systems’ components, their evolution over time, and the degree of uncertainty to which decision makers are exposed. What features of complex decision-making impact human performance in the cognitively demanding, ever-changing and time pressured modern workplaces? Complex decision-making is a macrocognitive construct, involving low to high cognitive processes and functions, such as metacognition, or thinking about one’s own thought processes. In the particular case of complex decision-making, this is called systems thinking. The study of complex decision-making outside of the controlled, albeit lacking in realism, traditional laboratory environment is difficult if not impossible. Macrocognition is best studied through simulation-based experimentation, using computerized microworlds in the form of serious games. That research paradigm is called dynamic decision-making (DDM), as it takes into account the features of complex decision problems, such as complex sequences of interdependent decisions and changes in problem states, which may change spontaneously or as a consequence of earlier decisions, and for which the knowledge and understanding may be only partial or uncertain. For all the research in DDM concerning the pitfalls of human performance in complex decision problems, the acquisition of knowledge about complex systems, and whether a learning transfer is possible, there is no quantitative measure of what constitutes a complex decision problem. The research literature mentions the qualities of complex systems (a system’s dynamical relationships, the nonlinear evolution of the system over time, and the uncertainty about the system states and decision outcomes), but objective quantitative measures to express the complexity of decision problems have not been developed. This dissertation presents the concepts, methodology, and results involved in a research endeavor to develop objective measures of complexity based on characteristics of dynamic decision-making problems which can explain and predict human performance. Drawing on the diverse fields of application of complexity theory such as computational complexity, systemic complexity, and cognitive informatics, a formal model of the parameters of complexity for dynamic decision-making tasks has been elaborated. A set of ten objective measures of complexity were developed, ranging from structural complexity measures, measures of information complexity, the cognitive weight complexity, and measures of problem difficulty, nonlinearity among relationships, information and decision uncertainty, as well as a measure of the dynamical system’s instability under inertial conditions. An analysis of the experimental results gathered using five DDM scenarios revealed that a small set of candidate models of multiple linear regression could explain and predict human performance scores, but at the cost of some violations of the assumptions of classical linear regression. Additionally, the objective measures of complexity exhibited a high level of multicollinearity, some of which were caused by redundant feature computation while others were accidentally collinear due to the design of the DDM scenarios. Based on the aforementioned constraints, and due to the high variance observed in the macrocognitive processes of complex decision-making, the models exhibited high values of error in the discrepancy between the observations and the model predictions. Another exploratory analysis focused on the use of alternative means of regression modeling to better understand the relationship between the parameters of complexity and the human performance data. We first opted for a robust regression analysis to increase the efficiency of the regression models, using a method to reduce the sensitivity of candidate regression models to influential observations. A second analysis eliminated the within-treatment source of variance in order to focus exclusively on between-treatment effects. A final analysis used nonlinear and non-parametric models to relax the regression modeling assumptions, using machine learning methods. It was found that the robust regression approach produced substantially lower error values, combined with high measures of the variance explained for the human performance data. While the machine learning methods produced marginally more efficient models of regression for the same candidate models of objective measures of complexity, the combination of the nonlinear and non-parametric methods with the restricted between-treatment dataset yielded the best results of all of the modeling and analyses endeavors. A final section presents a research program designed to explore the parameter space of objective measures of complexity in more breadth and depth, so as to weight which combinations of the characteristics of complex decision problems are determinant factors on human performance. The discussions about the experimental approach to DDM, the experimental results relative to the regression models, and the investigation of further means to reduce the variance component underlying the discrepancy between the observations and the model predictions all suggest that establishing objective measures of complexity for human performance in dynamic decision-making scenarios is a viable approach to furthering our understanding of a decision maker’s comprehension and control of complex decision problems.
199

Les obstacles de la connaissance quantitative et leur impact sur le raisonnement physique

El Haddati, M'Hamed 25 April 2018 (has links)
Québec Université Laval, Bibliothèque 2014
200

Production of bioactive lactobionic acid using a novel catalytic method

Vlad-Cristea, Mirela Simona 12 April 2018 (has links)
La faisabilité de l'oxydation du lactose vers l'acide lactobionique en milieu alcalin en présence d'un catalyseur bimétallique hétérogène Bi-Pd supporté sur la silice mesostructurée, SBA-15, a été étudiée dans un réacteur discontinu agité. Les objectifs étaient : (i) la formulation du catalyseur bimétallique avec la charge optimale des métaux sur le support, (ii) l'optimisation des conditions de réaction: la température, le débit d'air, le rapport métal/lactose, le pH; (iii) l'évaluation de la stabilité du catalyseur et de sa performance dans des études à plus grande échelle. Les réactions ont été effectuées à des températures comprises entre 38 et 80°C et le pH situé entre 7 et 9. Le catalyseur 1.02% Pd 0.64% Bi/SBA-15 avec un rapport molaire de Bi:Pd=0.3 a montré une activité et une sélectivité envers l'acide lactobionique les plus élevées. Les conditions optimales du procédé ont été déterminés à 65°C et à un pH de 9 avec un contrôle strict de l'oxygène dissous (<1% à la concentration d'équilibre de l'oxygène à la température de la réaction). Après 3 heures de réaction, le nouveau catalyseur a montré une très bonne stabilité à la lixiviation des métaux. L'activité et la sélectivité du nouveau catalyseur sont reliés à l'alliage Bi|.75Pd trouvé. / The feasibity of microaerial oxidation of lactose to lactobionic acid (LBA) in alkaline medium over heterogeneous bimetallic Bi-Pd catalyst supported on mesostructured silica material, SBA-15 in an agitated batch reactor was studied. The objectives were: (i) formulation of the bimetallic catalyst with optimum metal loading on the support, (ii) optimization of reaction conditions, metal/lactose ratio, temperature, airflow, pH of the reaction and (iii) evaluation of catalyst stability and its performance in scale-up studies. Reactions were carried out in a range of temperature (38 - 80°C) and pH (7-9). The 1.02%Pd 0.64%Bi/SBA-15 catalyst with Bi:Pd=0.3 molar ratio showed the highest activity and selectivity towards lactobionic acid. The optimal conditions were found at 65°C and pH 9 with a systematic control of dissolved oxygen (<1% of 02 equilibrium concentration at reaction temperature). After 3 hours of reaction, the novel catalyst has shown to have a very good stability against metals leaching. The activity and selectivity of the novel catalyst appear to relate to Bii.75 Pd alloy.

Page generated in 0.0404 seconds