711 |
Corrélations électroniques des acènes vers la limite de longue taille : étude par Monte Carlo quantique / Electronic correlations in the acenes toward the long-length limit : a Monte Carlo studyDupuy, Nicolas 29 April 2016 (has links)
Nous étudions les acènes avec le modèle de fonction d'onde électronique fortement corrélé Jastrow antisymmetrized geminal power (JAGP) par Monte Carlo quantique (QMC). Ces méthodes permettent d'optimiser les fonctions JAGP de façon variationnelle (minimisation énergétique), et d'accéder à l'énergie de leur niveau fondamental électronique si les nœuds de leur fonction d'onde sont bien définis. En modulant la liberté variationnelle des formes JAGP nous étudions leurs propriétés électroniques en fonction de la qualité de la fonction d'onde. Nous obtenons ainsi des résultats en faveur d'un caractère fortement résonant mais étalé sur plusieurs états, incompatible avec la présence précédemment supposée de couches ouvertes, et le constat de biais induits par un niveau trop faible de liberté variationnelle. Par relaxation structurale effectuée en QMC sur des fonctions de différentes qualité nous montrons que les géométries des acènes sont très couplées à la structure électronique. Nous pouvons envisager d'étendre cette étude aux hydrocarbures polycycliques aromatiques à l'allure de nanorubans de graphène d'épaisseur croissante afin d'étudier de possible corrélations entre sextets de Clar et l'évolution de leurs propriétés électroniques et spintroniques. / We study the family of acenes by means of quantum Monte Carlo methods (QMC) based on a Jastrow correlated antisymmetrized geminal power (JAGP) wave function. Those methods allows for JAGP optimization in a variational manner (energy minimisation) and for ground state energy evaluations when the wave function nodes are well defined. By tuning the variational freedom of JAGP wave functions we study their electronic properties as a function of the wave function quality. We thus obtain results in favour of a highly resonating character, but smeared on many states, incompatible with a previously supposed open shell character. The study also demonstrates that a too low variational freedom induces high bias in the electronic description. By QMC structural relaxation on wave functions of various quality we demonstrate that the acenes geometry is highly coupled to their electronic structure.We can consider extending this study to general polycyclic aromatic hydrocarbons similar to graphene nanoribbons of growing thickness to investigate possible correlations between Clar sextets et their electronic and spintronic properties.
|
712 |
Efeito do gesso nos teores de fósforo avaliados por três métodos de análise de solo / Effect of gypsum in the soil bioavailable phosphorus measured by three methodsRodrigo Coqui da Silva 04 February 2009 (has links)
A análise química de solo fornece suporte para o manejo de sua fertilidade, por meio de extratores que visam determinar o grau de suficiência ou deficiência de nutrientes no solo. As metodologias que avaliam a disponibilidade de fósforo (P) certamente são as que apresentam as maiores controvérsias devido, principalmente, à complexidade do comportamento do nutriente no solo. No Brasil, os métodos mais utilizados para avaliar a disponibilidade de P em solos agricultáveis são Mehlich e resina de troca iônica. O método que emprega tiras de papel de filtro impregnadas com óxido de ferro (Papel-Pi) possui princípio semelhante ao da resina, no entanto é pouco utilizado no Brasil. Devido à deficiência generalizada de nutrientes nos solos brasileiros o gesso agrícola constitui-se um insumo adequado para minimizar condições adversas. Porém, foram relatados problemas na avaliação da disponibilidade de P em solos com elevados teores de gesso (gipsíferos) devido à reação deste com o íon bicarbonato (HCO3 -), presente na solução Olsen ou na resina de troca iônica, formando carbonato de cálcio que precipita e/ou adsorve o P disponível. Nestas situações os teores de P tendem a ser subestimados. Em solos ácidos, onde o gesso é amplamente utilizado, não há relatos sobre este problema. Assim, objetivou-se com o presente trabalho estudar a interferência do gesso na disponibilidade de P em solos ácidos, sendo conduzidos quatro experimentos. Em três experimentos de incubação aplicaram-se tratamentos com doses variando de 0 até 75 g kg-1 de fosfogesso, gipsita ou gesso puro, além de doses de P na forma de superfosfato triplo (SFT) ou fosfato natural reativo (FNR). Foram utilizadas amostras de cinco solos com características químicas e físicas variadas. Foi conduzido um experimento com doses de fosfogesso em casa de vegetação cultivando-se milho. Avaliaram-se os teores de P nas amostras de solo pelos métodos da resina de troca iônica (saturada com NaHCO3), Mehlich e Papel-Pi, e no experimento de casa de vegetação, estes teores foram correlacionados com a produção de massa seca e com o P acumulado pelo milho. Em todas as situações estudadas o gesso interferiu na avaliação dos teores de P-resina, fato não observado para os teores de PMehlich e P-Papel-Pi. Confirmou-se a hipótese de que métodos que empregam HCO3 - podem subestimar os teores de P devido à interferência do gesso, naturalmente dos solos ou adicionado com a finalidade de corrigi-los. Houve boa correlação entre os teores de P-Papel-Pi e P-Mehlich, exceto quando utilizou-se FNR, pois a solução Mehlich superestimou estes valores devido à sua ação ácida. De forma geral, não houve boa correlação entre os teores de P no solo e a produção de massa seca e o P acumulado pelo milho, devido ao desenvolvimento irregular das plantas em função das maiores doses de fosfogesso. Portanto, confirmou-se que os problemas da interação do bicarbonato com o gesso, relatados até então para solos gipsíferos ou calcareos, podem ocorrer também em solos ácidos com aplicação de gesso. No entanto, notou-se claramente que a quantidade de gesso necessária para causar esta interferência supera as doses normalmente aplicadas. / The soil chemical analysis provides technical support for soil fertility management through methodologies aiming to evaluate the level of sufficiency or deficiency of nutrients. The methods used to evaluate the phosphorus (P) bioavailability are certainly the most controversial which is due, mainly, to the complex interactions of this nutrient in the soil. In Brazil, the most common methodologies to evaluate soil P bioavailability in agricultural soils are the Mehlich and the ion exchange resin. The method that uses filter paper strips impregnated with iron oxide (Pi paper) is very similar in principle to the ion exchange resin, but has not been adequately studied in Brazil. Due to general soil fertility problems, gypsum has been applied acting as a soil subsurface ameliorant and also to decrease high soil sodium contents. Although, problems have been detected when evaluating P bioavailability in soils with high contents of gypsum due to the reaction of bicarbonate (HCO3 -), contained in the Olsen solution or in the ion exchange resin, because of the precipitation of calcium carbonate. In these situations the levels of P tend to be underestimated. In acid soils, where gypsum is widely applied, there is no investigation and reports on this problem, which was the objective of this study. Four experiments were carried out. In three incubation experiments different combinations were tested of P rates varying from 0 to 75 g kg-1 of phosphogypsuym, gipsite or reagent grade gypsum and the P sources triple superphosphates and Arad phosphate rock (APR). Five soil samples with different chemical and physical properties were used. Also, a greenhouse experiment was carried out with two short corn crops submitted to rates of gypsum applied to the soil. The soil samples were analyzed by three different methodologies, i.e., the ion exchange resin with NaHCO3 -, Mehlich and Pi paper, and in the greenhouse experiment the soil contents by these different procedures were correlated with dry-matter yield and P uptake by the corn plants. In all situations the presence of gypsum did interfere in the P bioavailability by the resin method, with a clear trend to decrease the P contents. The hypothesis that methods that utilize the HCO3 - can underestimate the amounts of soil P due to the presence of gypsum, natural or added to soils, was once again confirmed. An adequate correlation was found between the amounts of P evaluated by the Pi Paper and the Mehlich procedure, except when the APR was used, once the Mehlich tended to overestimate the values due to its acidic condition. In general, there was no adequate relation between the soil P and corn dry-matter yield or P uptake, which was probably due to irregular development of plants in treatments where high rates of gypsum was applied. It was shown that the interaction of HCO3 - with gypsum, before only reported for soils high in gypsum, can also occur in acid soils but it was noticed that the amount of gypsum to cause the interference is generally higher than the rates normally used at field conditions.
|
713 |
Modèles et normalisation des preuvesCousineau, Denis 01 December 2009 (has links) (PDF)
La notion de théorie s'est séparée de la notion de logique à la fin des années 1920, lorsque Hilbert et Ackermann ont distingué les règles de déduction, indépendantes de l'ob jet du discours, des axiomes qui lui sont spécifiques. S'est alors posée la question de caractériser les théories, définies donc comme des ensembles d'axiomes, que l'on peut utiliser pour formaliser une partie du raisonnement mathématique. Un premier critère est la cohérence de cette théorie : le fait qu'on ne puisse pas démontrer toutes les propositions de cette théorie. Cependant il est progressivement apparu que la cohérence n'était pas une propriété suffisante. Le fait que les démonstrations constructives vérifient les propriétés de la dijonction ou du témoin, ou la complétude de certaines méthodes de démonstration automatique ne découlent pas de la seule cohérence d'une théorie. Mais toutes trois sont par contre conséquentes d'une même propriété : la normalisation des démonstrations. En 1930, le théorème de complétude de Gödel montra que le critére de cohérence pouvait être vu sous différents angles. En plus de la définition précédente interne à la théorie de la démonstration, on peut également définir de manière algébrique la cohérence d'une théorie comme le fait qu'elle possède un modèle. L'équivalence entre ces deux définitions constitue un outil fondamental, qui a permis notamment la démonstration de la cohérence de nombreuses théories : la théorie des ensembles avec la négation de l'axiome du choix par Fraenkel et Mostovski, la théorie des ensembles avec l'axiome du choix et l'hypothèse du continue par Gödel, la théorie des ensembles avec la négation de l'hypothèse du continu par Cohen, . . . A l'inverse, la normalisation des démonstrations semblait ne pouvoir se définir que de manière interne à la théorie de la démonstration. Certains critères inspirés de la théorie des modèles étaient certes parfois utilisés pour démontrer la propriété de normalisation des démonstrations de certaines théories, mais la nécéssité de ces critéres n'avait pas été établie. Nous proposons dans cette thèse un critère algébrique à la fois nécessaire et suffisant pour la normalisation des démonstrations. Nous montrons ainsi que la propriété de normalisation des démonstrations peut également se définir comme un critère algébrique, à l'instar de la propriété de cohérence. Nous avons pour cela défini une nouvelle notion d'algèbre de valeurs de vérités (TVA) appelée algèbres de vérité dépendant du langage (LDTVA). La notion de TVA permet d'exhiber l'algèbre de valeurs de vérité des candidats de réductibilité définis par Girard en 1970. L'existence d'un modèle à valeurs dans cette algèbre définit un critère algébrique suffisant pour la propriété de normalisation des démonstrations. Puis nous avons défini un raffinement de la notion de candidats de réductibilité comme une de ces LDTVAs et avons montré que l'existence d'un modèle à valeurs dans cette algèbre définit un critère algébrique toujours suffisant mais également nécessaire pour la propriété de normalisation des démonstrations. Ce critère est défini pour les cadres logiques de la déduction minimale et du λΠ-calcul modulo. Et nous exhibons finalement la puissance du λΠ-calcul modulo en montrant que tous les systèmes de types purs fonctionnels peuvent être simulés dans ce cadre logique.
|
714 |
Logique, Réalisabilité et ConcurrenceBeffara, Emmanuel 06 December 2005 (has links) (PDF)
Cette thèse se consacre à l'application de techniques de réalisabilité dans le cadre de l'étude du sens calculatoire de la logique. Dans une première partie, nous rappelons le formalisme de la réalisabilité classique de Krivine, dans lequel nous menons ensuite une étude du contenu opérationnel de tautologies purement classiques. Cette exploration du sens calculatoire de la disjonction classique révèle des comportements riches, avec une forte intuition interactive, qui s'interprètent avantageusement comme des structures de contrôle typées. Afin de mieux comprendre la nature de ces mécanismes, nous définissons ensuite une technique de réalisabilité à la Krivine pour un modèle de calcul concurrent, dans le but d'obtenir une notion de constructivité qui ne soit plus fondée sur l'idée de fonction, mais sur celle de processus interactif. Le cadre ainsi obtenu donne une interprétation réellement concurrente de la logique linéaire dans un calcul de processus dérivé du pi-calcul, permettant d'appliquer au cas concurrent la méthode de spécification précédemment étudiée dans le cas séquentiel. Par la suite, l'étude des traductions de la logique classique vers la logique linéaire mène à reconstruire systématiquement des décompositions interactives du calcul fonctionnel, permettant ainsi de faire le lien au niveau logique entre les réalisabilités classique et concurrente. Dans une dernière partie, nous étudions plus en détail le mode de calcul issu des algèbres de processus, afin de comprendre son système d'ordonnancement. Cette étude mène à la définition d'un modèle de calcul plus géométrique qui permet une exploration formelle de la notion de causalité dans les calculs concurrents.
|
715 |
Grille sémantique autonome : un intergiciel pour l'interopérabilité d'agents et services webPasha, Maruf 02 April 2010 (has links) (PDF)
Le développement des nouveaux paradigmes et technologies comme le Web sémantique, le calcul sur grille et les services Web ouvrent de nouvelles perspectives et défis pour la conception d'une nouvelle génération d'applications. Cette nouvelle génération peut être conçue comme des systèmes multi-agents opérant sur les grilles de calcul tout en s'appuyant sur les services offerts par les services Web sémantiques. D'une part, les avancées dans la standardisation des langages et technologies des services Web ont permis un déploiement rapide d'applications fondées sur l'invocation dynamique de services découverts à la volée. Ainsi, grâce aux services Web, les applications peuvent être vues comme un ensemble de services logiciels, explicitement décrits, découverts et invoqués à l'aide des standards internationaux définis par le W3C (World Wide Web Consortium). D'autre part, le Web sémantique vise à rendre le contenu des ressources du Web accessible et utilisable par les agents logiciels, grâce à un système de métadonnées. Ces métadonnées sont notamment exprimées à l'aide d'ontologies définies en OWL – Web Ontology Language, un langage standardisé par le W3C. L'extension du Web sémantique aux services Web donne ainsi lieu à des services Web sémantiques. Le Web sémantique est également à la base des grilles sémantiques fournissant une infrastructure virtuelle constituée d'un ensemble de ressources potentiellement partagées, distribuées, hétérogènes, délocalisées et autonomes. Ces ressources sont abstraites en tant que services grille. La conjonction des services Web et des systèmes multi-agents déployés sur les grilles sémantiques donne naissance aux grilles sémantiques autonomes. Dans cette vision, des agents logiciels exploitent les services des grilles de calcul mais également utilisent des services Web au-delà de la grille, permettant un usage à très large échelle. Ces systèmes multi-agents sont construits en se reposant souvent sur les standards IEEE de la FIPA (Foundation of Intelligent Physical Agents). Néanmoins, un problème se pose : celui de l'interopérabilité des agents logiciels, de nature sémantique, avec les services Web sémantiques, tout en respectant les standards définis par la FIPA et le W3C. Cette thèse s'attaque à cette problématique. L'approche développée dans la thèse est fondée sur la conception d'un intergiciel permettant l'interopérabilité entre agents logiciels et services Web de manière transparente tout en s'appuyant sur les standards actuels promus par la FIPA pour les systèmes multi-agents et pour le W3C pour les services Web sémantiques. Elle définit l'architecture logicielle et implémente en intergiciel pour la médiation entre agents logiciels et services Web sémantiques, en prenant en compte la dimension ontologique. La solution proposée est validée par des études de cas et utilise π-ADL, un langage formel basé sur le π-calcul, pour spécifier l'application des mécanismes développés.
|
716 |
Concrétisation des architectures logicielles à l'aide d'un langage formel : vers les langages dédiés au développement formel fondés sur π-ADLQayyum, Zawar 11 February 2009 (has links) (PDF)
L'architecture logicielle est devenue un thème scientifique majeur de l'informatique. En effet, l'architecture logicielle fournit l'abstraction qui permet de développer rigoureusement et de faire évoluer des systèmes logiciels complexes au vu des besoins tant fonctionnels que non fonctionnels. Afin de modéliser les architectures logicielles, un nouveau type de langage est apparu : les langages de description d'architectures (ADL, Architecture Description Language). Divers ADL ont été proposés dans la littérature, mais ces ADL sont restreints à la modélisation d'architectures abstraites, indépendantes des plateformes d'implémentation. Lors de l'implémentation, l'architecture n'est plus représentée. Cette thèse s'inscrit dans le domaine des ADL et porte sur la définition et la mise en œuvre d'un langage pour la concrétisation, c'est-à-dire l'implémentation explicite, d'architectures logicielles. Elle adresse le problème de la construction d'un tel langage et son système d'exécution. Pour cela elle aborde le problème d'un point de vue nouveau : la construction d'un langage centré sur l'architecture logicielle. Assis sur des bases formelles, notamment sur le π-calcul et π-ADL, ces travaux ont donné lieu à un langage formel pour décrire et garantir l'intégrité architecturale d'un système au niveau de sa spécification, de son implémentation et de ses évolutions ultérieures. La machine virtuelle et le compilateur associé sont enfouis dans la plateforme .NET.
|
717 |
Iterative Enhancement of Non-Exact Reconstruction in Cone Beam CT / Iterativ förbättring av icke-exakt rekonstruktion för konstråletomografiSunnegårdh, Johan January 2004 (has links)
<p>Contemporary algorithms employed for reconstruction of 3D volumes from helical cone beam projections are so called non-exact algorithms. This means that the reconstructed volumes will contain artifacts irrespective of the detector resolution and number of projections angles employed in the process.</p><p>It has been proposed that these artifacts can be suppressed using an iterative scheme which comprises computation of projections from the already reconstructed volume as well as the non-exact reconstruction itself.</p><p>The purpose of the present work is to examine if the iterative scheme can be applied to the non-exact reconstruction method PI-original in order to improve the reconstruction result. An important part in this implementation is a careful design of the projection operator, as a poorly designed projection operator may result in aliasing and/or other artifacts in the reconstruction result. Since the projection data is truncated, special care must be taken along the boundaries of the detector. Three different ways of handling this interpolation problem is proposed and examined.</p><p>The results show that artifacts caused by the PI-original method can indeed be reduced by the iterative scheme. However, each iteration requires at least three times more processing time than the initial reconstruction, which may call for certain compromises, smartness and/or parallelization in the innermost loops. Furthermore, at higher cone angles certain types of artifacts seem to grow by each iteration instead of being suppressed.</p>
|
718 |
FPGA-Based Real-Time Simulation of Variable Speed AC DriveMyaing, Aung 11 1900 (has links)
Sophisticated power electronic apparatus and their digital control systems are
finding increasing applications in electric power systems at generation, transmission,
distribution and utilization levels. It is essential to carry out rigorous
performance evaluation of such apparatus before commissioning. Field Programmable
Gate Arrays (FPGAs) are becoming an attractive platform for
accelerating computationally intensive applications.
This thesis presents a FPGA-based real-time digital simulator for power
electronic drives based on realistic device characteristics. A 3-level 12-pulse
Voltage Source Converter (VSC) fed induction machine drive is implemented
on the FPGA. The system components include the 3-level VSC, the induction
machine, the direct field oriented controller, and the pulse width modulator.
Both system-level and device-level IGBT models are utilized to implement the
VSC. The VSC model is computed at a fixed time-step of 12:5ns allowing an
accurate representation of the IGBT nonlinear switching characteristics.
Altera Startix EP1S80 and EP3SL150F1152C2 FPGA boards utilized for
the real-time simulation. All models were implemented in VHDL. The FPGA
boards were interfaced to external DAC boards to display real-time results on
the oscilloscope. The real-time results were validated using an off-line cosimulation
set-up using the SABER and MATLAB/SIMULINK software. / Power Engineering and Power Electronics
|
719 |
Iterative Enhancement of Non-Exact Reconstruction in Cone Beam CT / Iterativ förbättring av icke-exakt rekonstruktion för konstråletomografiSunnegårdh, Johan January 2004 (has links)
Contemporary algorithms employed for reconstruction of 3D volumes from helical cone beam projections are so called non-exact algorithms. This means that the reconstructed volumes will contain artifacts irrespective of the detector resolution and number of projections angles employed in the process. It has been proposed that these artifacts can be suppressed using an iterative scheme which comprises computation of projections from the already reconstructed volume as well as the non-exact reconstruction itself. The purpose of the present work is to examine if the iterative scheme can be applied to the non-exact reconstruction method PI-original in order to improve the reconstruction result. An important part in this implementation is a careful design of the projection operator, as a poorly designed projection operator may result in aliasing and/or other artifacts in the reconstruction result. Since the projection data is truncated, special care must be taken along the boundaries of the detector. Three different ways of handling this interpolation problem is proposed and examined. The results show that artifacts caused by the PI-original method can indeed be reduced by the iterative scheme. However, each iteration requires at least three times more processing time than the initial reconstruction, which may call for certain compromises, smartness and/or parallelization in the innermost loops. Furthermore, at higher cone angles certain types of artifacts seem to grow by each iteration instead of being suppressed.
|
720 |
Optimization of a petroleum producing assets portfolio: development of an advanced computer modelAibassov, Gizatulla 15 May 2009 (has links)
Portfolios of contemporary integrated petroleum companies consist of a few dozen
Exploration and Production (E&P) projects that are usually spread all over the world.
Therefore, it is important not only to manage individual projects by themselves, but to also
take into account different interactions between projects in order to manage whole
portfolios. This study is the step-by-step representation of the method of optimizing
portfolios of risky petroleum E&P projects, an illustrated method based on Markowitz’s
Portfolio Theory. This method uses the covariance matrix between projects’ expected return
in order to optimize their portfolio.
The developed computer model consists of four major modules. The first module
generates petroleum price forecasts. In our implementation we used the price forecasting
method based on Sequential Gaussian Simulation. The second module, Monte Carlo,
simulates distribution of reserves and a set of expected production profiles. The third module
calculates expected after tax net cash flows and estimates performance indicators for each
realization, thus yielding distribution of return for each project. The fourth module estimates
covariance between return distributions of individual projects and compiles them into portfolios. Using results of the fourth module, analysts can make their portfolio selection
decisions.
Thus, an advanced computer model for optimization of the portfolio of petroleum
assets has been developed. The model is implemented in a MATLAB® computational
environment and allows optimization of the portfolio using three different return
measures (NPV, GRR, PI). The model has been successfully applied to the set of
synthesized projects yielding reasonable solutions in all three return planes. Analysis of
obtained solutions has shown that the given computer model is robust and flexible in
terms of input data and output results. Its modular architecture allows further inclusion
of complementary “blocks” that may solve optimization problems utilizing different
measures (than considered) of risk and return as well as different input data formats.
|
Page generated in 0.0436 seconds