• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 45
  • 9
  • 6
  • 6
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 96
  • 22
  • 11
  • 10
  • 10
  • 10
  • 9
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

A heterogenous three-dimensional computational model for wood drying

Truscott, Simon January 2004 (has links)
The objective of this PhD research program is to develop an accurate and efficient heterogeneous three-dimensional computational model for simulating the drying of wood at temperatures below the boiling point of water. The complex macroscopic drying equations comprise a coupled and highly nonlinear system of physical laws for liquid and energy conservation. Due to the heterogeneous nature of wood, the physical model parameters strongly depend upon the local pore structure, wood density variation within growth rings and variations in primary and secondary system variables. In order to provide a realistic representation of this behaviour, a set of previously determined parameters derived using sophisticated image analysis methods and homogenisation techniques is embedded within the model. From the literature it is noted that current three-dimensional computational models for wood drying do not take into consideration the heterogeneities of the medium. A significant advance made by the research conducted in this thesis is the development of a three - dimensional computational model that takes into account the heterogeneous board material properties which vary within the transverse plane with respect to the pith position that defines the radial and tangential directions. The development of an accurate and efficient computational model requires the consideration of a number of significant numerical issues, including the virtual board description, an effective mesh design based on triangular prismatic elements, the control volume finite element discretisation process for the cou- pled conservation laws, the derivation of an accurate dux expression based on gradient approximations together with flux limiting, and finally the solution of a large, coupled, nonlinear system using an inexact Newton method with a suitably preconditioned iterative linear solver for computing the Newton correction. This thesis addresses all of these issues for the case of low temperature drying of softwood. Specific case studies are presented that highlight the efficiency of the proposed numerical techniques and illustrate the complex heat and mass transport processes that evolve throughout drying.
72

A dynamic scheduling runtime and tuning system for heterogeneous multi and many-core desktop platforms / Um sistema de escalonamento dinâmico e tuning em tempo de execução para plataformas desktop heterogêneas de múltiplos núcleos

Binotto, Alécio Pedro Delazari January 2011 (has links)
Atualmente, o computador pessoal (PC) moderno poder ser considerado como um cluster heterogênedo de um nodo, o qual processa simultâneamente inúmeras tarefas provenientes das aplicações. O PC pode ser composto por Unidades de Processamento (PUs) assimétricas, como a Unidade Central de Processamento (CPU), composta de múltiplos núcleos, a Unidade de Processamento Gráfico (GPU), composta por inúmeros núcleos e que tem sido um dos principais co-processadores que contribuiram para a computação de alto desempenho em PCs, entre outras. Neste sentido, uma plataforma de execução heterogênea é formada em um PC para efetuar cálculos intensivos em um grande número de dados. Na perspectiva desta tese, a distribuição da carga de trabalho de uma aplicação nas PUs é um fator importante para melhorar o desempenho das aplicações e explorar tal heterogeneidade. Esta questão apresenta desafios uma vez que o custo de execução de uma tarefa de alto nível em uma PU é não-determinístico e pode ser afetado por uma série de parâmetros não conhecidos a priori, como o tamanho do domínio do problema e a precisão da solução, entre outros. Nesse escopo, esta pesquisa de doutorado apresenta um sistema sensível ao contexto e de adaptação em tempo de execução com base em um compromisso entre a redução do tempo de execução das aplicações - devido a um escalonamento dinâmico adequado de tarefas de alto nível - e o custo de computação do próprio escalonamento aplicados em uma plataforma composta de CPU e GPU. Esta abordagem combina um modelo para um primeiro escalonamento baseado em perfis de desempenho adquiridos em préprocessamento com um modelo online, o qual mantém o controle do tempo de execução real de novas tarefas e escalona dinâmicamente e de modo eficaz novas instâncias das tarefas de alto nível em uma plataforma de execução composta de CPU e de GPU. Para isso, é proposto um conjunto de heurísticas para escalonar tarefas em uma CPU e uma GPU e uma estratégia genérica e eficiente de escalonamento que considera várias unidades de processamento. A abordagem proposta é aplicada em um estudo de caso utilizando uma plataforma de execução composta por CPU e GPU para computação de métodos iterativos focados na solução de Sistemas de Equações Lineares que se utilizam de um cálculo de stencil especialmente concebido para explorar as características das GPUs modernas. A solução utiliza o número de incógnitas como o principal parâmetro para a decisão de escalonamento. Ao escalonar tarefas para a CPU e para a GPU, um ganho de 21,77% em desempenho é obtido em comparação com o escalonamento estático de todas as tarefas para a GPU (o qual é utilizado por modelos de programação atuais, como OpenCL e CUDA para Nvidia) com um erro de escalonamento de apenas 0,25% em relação à combinação exaustiva. / A modern personal computer can be now considered as a one-node heterogeneous cluster that simultaneously processes several applications’ tasks. It can be composed by asymmetric Processing Units (PUs), like the multi-core Central Processing Unit (CPU), the many-core Graphics Processing Units (GPUs) - which have become one of the main co-processors that contributed towards high performance computing - and other PUs. This way, a powerful heterogeneous execution platform is built on a desktop for data intensive calculations. In the perspective of this thesis, to improve the performance of applications and explore such heterogeneity, a workload distribution over the PUs plays a key role in such systems. This issue presents challenges since the execution cost of a task at a PU is non-deterministic and can be affected by a number of parameters not known a priori, like the problem size domain and the precision of the solution, among others. Within this scope, this doctoral research introduces a context-aware runtime and performance tuning system based on a compromise between reducing the execution time of the applications - due to appropriate dynamic scheduling of high-level tasks - and the cost of computing such scheduling applied on a platform composed of CPU and GPUs. This approach combines a model for a first scheduling based on an off-line task performance profile benchmark with a runtime model that keeps track of the tasks’ real execution time and efficiently schedules new instances of the high-level tasks dynamically over the CPU/GPU execution platform. For that, it is proposed a set of heuristics to schedule tasks over one CPU and one GPU and a generic and efficient scheduling strategy that considers several processing units. The proposed approach is applied in a case study using a CPU-GPU execution platform for computing iterative solvers for Systems of Linear Equations using a stencil code specially designed to explore the characteristics of modern GPUs. The solution uses the number of unknowns as the main parameter for assignment decision. By scheduling tasks to the CPU and to the GPU, it is achieved a performance gain of 21.77% in comparison to the static assignment of all tasks to the GPU (which is done by current programming models, such as OpenCL and CUDA for Nvidia) with a scheduling error of only 0.25% compared to exhaustive search.
73

Synthèse et caractérisation de sphères monodisperses de silice à porosité radiale (multi)fonctionnelles et étude de leur performance en catalyse en phase liquide et en vectorisation de principes actifs. / Preparation and characterization of multi(functional) monodisperse silica spheres with radial porosity and their performance in liquide phase catalysis and drug vectorization and targeting.

Nyalosaso Likoko, Jeff 12 December 2011 (has links)
Une nouvelle approche de synthèse a été développée pour non seulement contrôler la morphologie, la taille et la texture de particules de silice mais aussi incorporer une ou plusieurs fonctionnalités à la surface interne de leurs pores. La morphologie sphérique, la monodispersité des particules, la porosité radiale, la dispersion et l'accessibilité des fonctionnalités ainsi que leur taux d'incorporation constituent les propriétés et les paramètres physico-chimiques privilégiés dans notre approche qui est basée sur la méthode de Stöber modifiée et la fonctionnalisation in-situ. Deux différentes applications ont été retenues pour étudier la quintessence de cette approche. La première consiste à incorporer des espèces métalliques (Al et Cu par exemple) dans les sphères de silice afin de les rendre fonctionnelles pour des applications catalytiques en phase liquide; et la deuxième consiste à greffer à la surface des particules des nanomachines sensibles permettant de contrôler le relargage des molécules actives pour des applications thérapeutiques. Dans les deux cas d'application, des performances optimales sont attendues. / A novel approach of synthesis has been developed in order to control simultaneously the morphology, size and textural parameters of silica particles, as well as to incorporate one or more functional groups in the pore walls. In this approach, based on the modified Stöber method and in-situ functionalization, emphasis is put on the spherical morphology, the particle monodispersity, the radially disposed porous structure, and the appropriate dispersion and accessibility of surface functional groups. Two potential applications have been selected so as to verify the feasibility of the approach. In view of materials use for heterogenous catalysis in the liquid phase, the monodisperses mesoporous silica spheres were derivatized with metallic species (e.g., Al and Cu) by direct incorporation in the synthesis stage. The second type of applications concerned the use of silica spheres as sensitive nanomachines for the controlled drug release and required grafting of appropriate organic molecules onto the silica surface.
74

HPSM: uma API em linguagem c++ para programas com laços paralelos com suporte a multi-CPUs e Multi-GPUs / HPSM: a c++ API for parallel loops programs Supporting multi-CPUs and multi-GPUs

Di Domenico, Daniel 21 December 2016 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Parallel architectures has been ubiquitous for some time now. However, the word ubiquitous can’t be applied to parallel programs, because there is a greater complexity to code them comparing to ordinary programs. This fact is aggravated when the programming also involves accelerators, like GPUs, which demand the use of tools with scpecific resources. Considering this setting, there are programming models that make easier the codification of parallel applications to explore accelerators, nevertheless, we don’t know APIs that allow implementing programs with parallel loops that can be processed simultaneously by multiple CPUs and multiple GPUs. This works presents a high-level C++ API called HPSM aiming to make easier and more efficient the codification of parallel programs intended to explore multi-CPU and multi-GPU architectures. Following this idea, the desire is to improve performance through the sum of resources. HPSM uses parallel loops and reductions implemented by three parallel back-ends, being Serial, OpenMP and StarPU. Our hypothesis estimates that scientific applications can explore heterogeneous processing in multi-CPU and multi-GPU to achieve a better performance than exploring just accelerators. Comparisons with other parallel programming interfaces demonstrated that HPSM can reduce a multi-CPU and multi-GPU code in more than 50%. The use of the new API can introduce impact to program performance, where experiments showed a variable overhead for each application, that can achieve a maximum value of 16,4%. The experimental results confirmed the hypothesis, because the N-Body, Hotspot e CFD applications achieved gains using just CPUs and just GPUs, as well as overcame the performance achieved by just accelerators (GPUs) through the combination of multi-CPU and multi-GPU. / Arquiteturas paralelas são consideradas ubíquas atualmente. No entanto, o mesmo termo não pode ser aplicado aos programas paralelos, pois existe uma complexidade maior para codificálos em relação aos programas convencionais. Este fato é agravado quando a programação envolve também aceleradores, como GPUs, que demandam o uso de ferramentas com recursos muito específicos. Neste cenário, apesar de existirem modelos de programação que facilitam a codificação de aplicações paralelas para explorar aceleradores, desconhece-se a existência de APIs que permitam a construção de programas com laços paralelos que possam ser processados simultaneamente em múltiplas CPUs e múltiplas GPUs. Este trabalho apresenta uma API C++ de alto nível, denominada HPSM, visando facilitar e tornar mais eficiente a codificação de programas paralelos voltados a explorar arquiteturas com multi-CPU e multi-GPU. Seguindo esta ideia, deseja-se ganhar desempenho através da soma dos recursos. A HPSM é baseada em laços e reduções paralelas implementadas por meio de três diferentes back-ends paralelos, sendo Serial, OpenMP e StarPU. A hipótese deste estudo é que aplicações científicas podem valer-se do processamento heterogêneo em multi-CPU e multi-GPU para alcançar um desempenho superior em relação ao uso de apenas aceleradores. Comparações com outras interfaces de programação paralela demonstraram que o uso da HPSM pode reduzir em mais de 50% o tamanho de um programa multi-CPU e multi-GPU. O uso da nova API pode trazer impacto no desempenho do programa, sendo que experimentos demonstraram que seu sobrecusto é variável de acordo com a aplicação, chegando até 16,4%. Os resultados experimentais confirmaram a hipótese, pois as aplicações N-Body, Hotspot e CFD, além de alcançarem ganhos ao utilizar somente CPUs e somente GPUs, também superaram o desempenho obtido por somente aceleradores (GPUs) através da combinação de multi-CPU e multi-GPU.
75

A dynamic scheduling runtime and tuning system for heterogeneous multi and many-core desktop platforms / Um sistema de escalonamento dinâmico e tuning em tempo de execução para plataformas desktop heterogêneas de múltiplos núcleos

Binotto, Alécio Pedro Delazari January 2011 (has links)
Atualmente, o computador pessoal (PC) moderno poder ser considerado como um cluster heterogênedo de um nodo, o qual processa simultâneamente inúmeras tarefas provenientes das aplicações. O PC pode ser composto por Unidades de Processamento (PUs) assimétricas, como a Unidade Central de Processamento (CPU), composta de múltiplos núcleos, a Unidade de Processamento Gráfico (GPU), composta por inúmeros núcleos e que tem sido um dos principais co-processadores que contribuiram para a computação de alto desempenho em PCs, entre outras. Neste sentido, uma plataforma de execução heterogênea é formada em um PC para efetuar cálculos intensivos em um grande número de dados. Na perspectiva desta tese, a distribuição da carga de trabalho de uma aplicação nas PUs é um fator importante para melhorar o desempenho das aplicações e explorar tal heterogeneidade. Esta questão apresenta desafios uma vez que o custo de execução de uma tarefa de alto nível em uma PU é não-determinístico e pode ser afetado por uma série de parâmetros não conhecidos a priori, como o tamanho do domínio do problema e a precisão da solução, entre outros. Nesse escopo, esta pesquisa de doutorado apresenta um sistema sensível ao contexto e de adaptação em tempo de execução com base em um compromisso entre a redução do tempo de execução das aplicações - devido a um escalonamento dinâmico adequado de tarefas de alto nível - e o custo de computação do próprio escalonamento aplicados em uma plataforma composta de CPU e GPU. Esta abordagem combina um modelo para um primeiro escalonamento baseado em perfis de desempenho adquiridos em préprocessamento com um modelo online, o qual mantém o controle do tempo de execução real de novas tarefas e escalona dinâmicamente e de modo eficaz novas instâncias das tarefas de alto nível em uma plataforma de execução composta de CPU e de GPU. Para isso, é proposto um conjunto de heurísticas para escalonar tarefas em uma CPU e uma GPU e uma estratégia genérica e eficiente de escalonamento que considera várias unidades de processamento. A abordagem proposta é aplicada em um estudo de caso utilizando uma plataforma de execução composta por CPU e GPU para computação de métodos iterativos focados na solução de Sistemas de Equações Lineares que se utilizam de um cálculo de stencil especialmente concebido para explorar as características das GPUs modernas. A solução utiliza o número de incógnitas como o principal parâmetro para a decisão de escalonamento. Ao escalonar tarefas para a CPU e para a GPU, um ganho de 21,77% em desempenho é obtido em comparação com o escalonamento estático de todas as tarefas para a GPU (o qual é utilizado por modelos de programação atuais, como OpenCL e CUDA para Nvidia) com um erro de escalonamento de apenas 0,25% em relação à combinação exaustiva. / A modern personal computer can be now considered as a one-node heterogeneous cluster that simultaneously processes several applications’ tasks. It can be composed by asymmetric Processing Units (PUs), like the multi-core Central Processing Unit (CPU), the many-core Graphics Processing Units (GPUs) - which have become one of the main co-processors that contributed towards high performance computing - and other PUs. This way, a powerful heterogeneous execution platform is built on a desktop for data intensive calculations. In the perspective of this thesis, to improve the performance of applications and explore such heterogeneity, a workload distribution over the PUs plays a key role in such systems. This issue presents challenges since the execution cost of a task at a PU is non-deterministic and can be affected by a number of parameters not known a priori, like the problem size domain and the precision of the solution, among others. Within this scope, this doctoral research introduces a context-aware runtime and performance tuning system based on a compromise between reducing the execution time of the applications - due to appropriate dynamic scheduling of high-level tasks - and the cost of computing such scheduling applied on a platform composed of CPU and GPUs. This approach combines a model for a first scheduling based on an off-line task performance profile benchmark with a runtime model that keeps track of the tasks’ real execution time and efficiently schedules new instances of the high-level tasks dynamically over the CPU/GPU execution platform. For that, it is proposed a set of heuristics to schedule tasks over one CPU and one GPU and a generic and efficient scheduling strategy that considers several processing units. The proposed approach is applied in a case study using a CPU-GPU execution platform for computing iterative solvers for Systems of Linear Equations using a stencil code specially designed to explore the characteristics of modern GPUs. The solution uses the number of unknowns as the main parameter for assignment decision. By scheduling tasks to the CPU and to the GPU, it is achieved a performance gain of 21.77% in comparison to the static assignment of all tasks to the GPU (which is done by current programming models, such as OpenCL and CUDA for Nvidia) with a scheduling error of only 0.25% compared to exhaustive search.
76

A dynamic scheduling runtime and tuning system for heterogeneous multi and many-core desktop platforms / Um sistema de escalonamento dinâmico e tuning em tempo de execução para plataformas desktop heterogêneas de múltiplos núcleos

Binotto, Alécio Pedro Delazari January 2011 (has links)
Atualmente, o computador pessoal (PC) moderno poder ser considerado como um cluster heterogênedo de um nodo, o qual processa simultâneamente inúmeras tarefas provenientes das aplicações. O PC pode ser composto por Unidades de Processamento (PUs) assimétricas, como a Unidade Central de Processamento (CPU), composta de múltiplos núcleos, a Unidade de Processamento Gráfico (GPU), composta por inúmeros núcleos e que tem sido um dos principais co-processadores que contribuiram para a computação de alto desempenho em PCs, entre outras. Neste sentido, uma plataforma de execução heterogênea é formada em um PC para efetuar cálculos intensivos em um grande número de dados. Na perspectiva desta tese, a distribuição da carga de trabalho de uma aplicação nas PUs é um fator importante para melhorar o desempenho das aplicações e explorar tal heterogeneidade. Esta questão apresenta desafios uma vez que o custo de execução de uma tarefa de alto nível em uma PU é não-determinístico e pode ser afetado por uma série de parâmetros não conhecidos a priori, como o tamanho do domínio do problema e a precisão da solução, entre outros. Nesse escopo, esta pesquisa de doutorado apresenta um sistema sensível ao contexto e de adaptação em tempo de execução com base em um compromisso entre a redução do tempo de execução das aplicações - devido a um escalonamento dinâmico adequado de tarefas de alto nível - e o custo de computação do próprio escalonamento aplicados em uma plataforma composta de CPU e GPU. Esta abordagem combina um modelo para um primeiro escalonamento baseado em perfis de desempenho adquiridos em préprocessamento com um modelo online, o qual mantém o controle do tempo de execução real de novas tarefas e escalona dinâmicamente e de modo eficaz novas instâncias das tarefas de alto nível em uma plataforma de execução composta de CPU e de GPU. Para isso, é proposto um conjunto de heurísticas para escalonar tarefas em uma CPU e uma GPU e uma estratégia genérica e eficiente de escalonamento que considera várias unidades de processamento. A abordagem proposta é aplicada em um estudo de caso utilizando uma plataforma de execução composta por CPU e GPU para computação de métodos iterativos focados na solução de Sistemas de Equações Lineares que se utilizam de um cálculo de stencil especialmente concebido para explorar as características das GPUs modernas. A solução utiliza o número de incógnitas como o principal parâmetro para a decisão de escalonamento. Ao escalonar tarefas para a CPU e para a GPU, um ganho de 21,77% em desempenho é obtido em comparação com o escalonamento estático de todas as tarefas para a GPU (o qual é utilizado por modelos de programação atuais, como OpenCL e CUDA para Nvidia) com um erro de escalonamento de apenas 0,25% em relação à combinação exaustiva. / A modern personal computer can be now considered as a one-node heterogeneous cluster that simultaneously processes several applications’ tasks. It can be composed by asymmetric Processing Units (PUs), like the multi-core Central Processing Unit (CPU), the many-core Graphics Processing Units (GPUs) - which have become one of the main co-processors that contributed towards high performance computing - and other PUs. This way, a powerful heterogeneous execution platform is built on a desktop for data intensive calculations. In the perspective of this thesis, to improve the performance of applications and explore such heterogeneity, a workload distribution over the PUs plays a key role in such systems. This issue presents challenges since the execution cost of a task at a PU is non-deterministic and can be affected by a number of parameters not known a priori, like the problem size domain and the precision of the solution, among others. Within this scope, this doctoral research introduces a context-aware runtime and performance tuning system based on a compromise between reducing the execution time of the applications - due to appropriate dynamic scheduling of high-level tasks - and the cost of computing such scheduling applied on a platform composed of CPU and GPUs. This approach combines a model for a first scheduling based on an off-line task performance profile benchmark with a runtime model that keeps track of the tasks’ real execution time and efficiently schedules new instances of the high-level tasks dynamically over the CPU/GPU execution platform. For that, it is proposed a set of heuristics to schedule tasks over one CPU and one GPU and a generic and efficient scheduling strategy that considers several processing units. The proposed approach is applied in a case study using a CPU-GPU execution platform for computing iterative solvers for Systems of Linear Equations using a stencil code specially designed to explore the characteristics of modern GPUs. The solution uses the number of unknowns as the main parameter for assignment decision. By scheduling tasks to the CPU and to the GPU, it is achieved a performance gain of 21.77% in comparison to the static assignment of all tasks to the GPU (which is done by current programming models, such as OpenCL and CUDA for Nvidia) with a scheduling error of only 0.25% compared to exhaustive search.
77

Structure et auto organisation d'organogélateurs électron-accepteurs à base de pérylène bisimide / Structure and self-assembly of perylene bisimide based electron-acceptors organogelators

Sarbu, Alexandru 11 February 2014 (has links)
L’amélioration des performances des dispositifs photovoltaïques organiques passe par le contrôle de la morphologie de leurs couches actives. Nous cherchons à préparer une hétérojonction volumique donneur-accepteur nanostructurée en utilisant la nucléation hétérogène des poly(3-alkylthiophène)s (P3AT) donneurs sur des fibres d'organogélateurs accepteurs à base de pérylène bisimide (PBI).La première partie de ce travail présente la synthèse de trois dérivés PBI symétriquement N-substitués par des dendrons portant des groupes amides avec des chaînes latérales linéaires (PBI-C8) et ramifiées (PBI-C10) ou par une chaîne alkyle linéaire (PBI-L18). Leur étude physicochimique comparée met en évidence le rôle des liaisons H et de la substitution des chaînes latérales dans l’auto-assemblage.La seconde partie détaille les conditions d’obtention, la structure et les propriétés de deux polymorphes du PBI-C10 générés par la réorganisation des liaisons H.Finalement nous donnons une preuve de concept de l’obtention d’une hétérojonction donneur-accepteur par la nucléation des fibrilles de P3BT sur des rubans de PBI-C8 auto-assemblés. / Improving the performances of organic photovoltaic devices requires morphology control of the active layers. We seek to prepare highly nanostructured donor-acceptor bulk heterojunctions using the nucleation of semi-conducting donor polymers e.g. poly(3-alkylthiophene)s (P3AT) on self-assembled ribbons of perylene bisimide organogelators.The first part of this work concerns the synthesis of three PBI compounds symmetrically N-substituted by dendrons bearing amide groups and having linear (PBI-C8) and branched (PBI-C10) side-chains or a linear alkyl chain (PBI-L18). Their compared physicochemical study points to the role of H bonds and of side-chains substitution in the self-assembly process.The second part develops to a large extent the structure and the properties of two polymorphs of PBI-C10 generated by H bond reorganization.Finally, a proof of concept is given for the elaboration of donor-acceptor heterojunctions in solution by nucleating P3BT fibrils on self-assembled ribbons of PBI-C8.
78

Développement et évaluation de nouveaux systèmes catalytiques pour une chimie plus respectueuse de l'environnement / Development and evauation of new catalytic systems for more environmentally chemistry

El Kadiri, Moulay Youness 11 October 2012 (has links)
La fonctionnalisation sélective de BINOL en position 6 ou 6 et 6' par des groupements 3 - (diméthylamino)prop-1-yn-1-yl est décrite. Cette méthode constitue une stratégie prometteuse pour le développement de nouveaux ligands recyclables. Les complexes de La et Yb correspondants ont été testés dans la réaction d’époxydation des cétones α, β-insaturées. Les complexes d’ytterbium sont les plus efficaces, fournissant les époxydes chiraux attendus avec 90 ou 93% d’excès énantiomérique en conditions homogène et hétérogène, respectivement.Dans le cadre de nos études, nous avons également évalué de nouveaux catalyseurs comportant un ion de manganèse penta-coordinnée [LMn(III)OH]ClO4 et [LMnCl](MnCl4)0,5. Ces complexes ont été testés dans la réaction d’époxydation des oléfines terminales utilisant H2O2/NaHCO3 et PhIO comme oxydant. Il s'avère que le complexe [LMn(III)OH]ClO4 est le catalyseur le plus efficace de la série. Une autre approche également été envisagée : oxyder une molécule d’eau présente dans la sphère de coordination du métal par le Cerium Ammonium Nitrate (CAN) et utiliser l’espèce oxydante ainsi générée pour oxyder des substrats. Nos études ont montré que cette stratégie était possible et permettait d’oxyder des substrats organiques. / The selective functionalization of BINOL in position 6 or 6 and 6’ with 3-(dimethylamino)prop-1-yn-1yl is described, and it constitutes a promising strategy for the development of a recyclable ligands. The corresponding La and Yb complexes were evaluated towards the epoxidation of α,β-unsaturated ketones. The Yb-complexes displayed an efficient activity, affording the expected chiral epoxides in up to 90 or 93% ee in homogeneous and heterogenous catalysis, respectively.As part of our studies, we also evaluated new catalysts with a penta-coordinated manganese ion [LMn(III)OH]ClO4 and [LMnCl](MnCl4)0.5. These complexes were tested in the epoxidation reaction of terminal olefins using H2O2/NaHCO3 and PhIO as an oxidant. It turns out that the complex [LMn (III) OH] ClO4 is the most efficient catalyst of the series. Another approach was also considered: oxidize a molecule of water present in the coordination sphere of the metal by Cerium Ammonium Nitrate (CAN) and use the generated oxidizing species to oxidize substrates. Our studies have shown that this strategy was feasible and allowed to oxidize organic substrates.
79

Syntéza hierarchických zeolitů pro přípravu chemických specialit / Preparation of hierarchical zeolites for fine chemical synthesis

Veselý, Ondřej January 2019 (has links)
Preparation of hierarchical zeolites for fine chemical synthesis Author: Bc. Ondřej Veselý Supervisor: Mgr. Pavla Eliášová, Ph.D. Prague, 2019 Abstract (in english): The thesis is focused on synthesis of hierarchical (micro-mesoporous) zeolites by several different methods and their application in catalytic reactions. Performance of hierarchical materials prepared by different approaches has been investigated, as well as the effect of framework topology and type of acidity on the outcome of the reactions. The work was elaborated in the Department of Physical and Macromolecular Chemistry of Charles University under the supervision of Mgr. Pavla Eliášová, Ph. D. The work is divided into three parts. In the first part several methods of preparation of hierarchical zeolites have been investigated and compared in catalytic reactions. Desilication, selective removal of silicon from the framework, is a post-synthetic method that can be used to introduce additional mesoporosity into a zeolite. The process leads to formation of mesopores by introducing defects into the zeolite structure. The resulting mesopore size is very broad. To partially control the pore size, alkylammonium cations may be added to the solution to protect the crystal surface. The desilication was performed on MTW zeolite which contains...
80

Financial Stability, Macroeconomic Cycles and Complex Expectation Dynamics

Hartmann, Florian 07 February 2018 (has links)
The thesis tries to shed light on mechanisms that endanger the macro-financial stability of economies. For that purpose a modeling framework is set-up which allows for cyclical behavior on the macro level and does not automatically enforce monotonic convergence of the dynamics to a stable equilibrium. Thus, the assumption of rational expectation must be replaced by alternative expectation formation schemes which are more relevant from an empirical point of view. We start to put forth a modeling approach of a partial, but crucially important market for the whole economy. As we could learn from the great recession, activities in the housing market can trigger economy-wide crises when financial markets are highly interconnected and exert a lasting impact on real markets. The next step is to construct an integrated macro model which captures the interaction of real and financial markets with respect to possible destabilizing linkages. Policy instruments can work then as remedies as long as they are designed in a manner that takes account of the underlying feedback structure. Step by step the models are extended throughout the chapters by refinement of the macro-financial structure. A banking sector is introduced and many issues arising with this addition are discussed. After having addressed several configurations of the banking sector, the focus is shifted to the expectation formation of agents. Behavioral traders on the micro level then drive complex dynamics on the macro level, which eventually feedback on the distribution of different types of trading strategies. We also investigate the implications of such behavioral expectation formations for open economies. Finally, we look at potential instabilities that arise from the supply side of macroeconomies in the long run. A model with a differentiated labor market structure and an accumulation mechanism is used to display distributive cycle dynamics and their stability implications.

Page generated in 0.0901 seconds