• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 71
  • 55
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 138
  • 74
  • 22
  • 18
  • 16
  • 15
  • 13
  • 11
  • 11
  • 11
  • 11
  • 11
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Méthodes itératives pour la résolution d'équations matricielles / Iterative methods fol solving matrix equations

Sadek, El Mostafa 23 May 2015 (has links)
Nous nous intéressons dans cette thèse, à l’étude des méthodes itératives pour la résolutiond’équations matricielles de grande taille : Lyapunov, Sylvester, Riccati et Riccatinon symétrique.L’objectif est de chercher des méthodes itératives plus efficaces et plus rapides pour résoudreles équations matricielles de grande taille. Nous proposons des méthodes itérativesde type projection sur des sous espaces de Krylov par blocs Km(A, V ) = Image{V,AV, . . . ,Am−1V }, ou des sous espaces de Krylov étendus par blocs Kem(A, V ) = Image{V,A−1V,AV,A−2V,A2V, · · · ,Am−1V,A−m+1V } . Ces méthodes sont généralement plus efficaces et rapides pour les problèmes de grande dimension. Nous avons traité d'abord la résolution numérique des équations matricielles linéaires : Lyapunov, Sylvester, Stein. Nous avons proposé une nouvelle méthode itérative basée sur la minimisation de résidu MR et la projection sur des sous espaces de Krylov étendus par blocs Kem(A, V ). L'algorithme d'Arnoldi étendu par blocs permet de donner un problème de minimisation projeté de petite taille. Le problème de minimisation de taille réduit est résolu par différentes méthodes directes ou itératives. Nous avons présenté ainsi la méthode de minimisation de résidu basée sur l'approche global à la place de l'approche bloc. Nous projetons sur des sous espaces de Krylov étendus Global Kem(A, V ) = sev{V,A−1V,AV,A−2V,A2V, · · · ,Am−1V,A−m+1V }. Nous nous sommes intéressés en deuxième lieu à des équations matricielles non linéaires, et tout particulièrement l'équation matricielle de Riccati dans le cas continu et dans le cas non symétrique appliquée dans les problèmes de transport. Nous avons utilisé la méthode de Newtown et l'algorithme MINRES pour résoudre le problème de minimisation projeté. Enfin, nous avons proposé deux nouvelles méthodes itératives pour résoudre les équations de Riccati non symétriques de grande taille : la première basée sur l'algorithme d'Arnoldi étendu par bloc et la condition d'orthogonalité de Galerkin, la deuxième est de type Newton-Krylov, basée sur la méthode de Newton et la résolution d'une équation de Sylvester de grande taille par une méthode de type Krylov par blocs. Pour toutes ces méthodes, les approximations sont données sous la forme factorisée, ce qui nous permet d'économiser la place mémoire en programmation. Nous avons donné des exemples numériques qui montrent bien l'efficacité des méthodes proposées dans le cas de grandes tailles. / In this thesis, we focus in the studying of some iterative methods for solving large matrix equations such as Lyapunov, Sylvester, Riccati and nonsymmetric algebraic Riccati equation. We look for the most efficient and faster iterative methods for solving large matrix equations. We propose iterative methods such as projection on block Krylov subspaces Km(A, V ) = Range{V,AV, . . . ,Am−1V }, or block extended Krylov subspaces Kem(A, V ) = Range{V,A−1V,AV,A−2V,A2V, · · · ,Am−1V,A−m+1V }. These methods are generally most efficient and faster for large problems. We first treat the numerical solution of the following linear matrix equations : Lyapunov, Sylvester and Stein matrix equations. We have proposed a new iterative method based on Minimal Residual MR and projection on block extended Krylov subspaces Kem(A, V ). The extended block Arnoldi algorithm gives a projected minimization problem of small size. The reduced size of the minimization problem is solved by direct or iterative methods. We also introduced the Minimal Residual method based on the global approach instead of the block approach. We projected on the global extended Krylov subspace Kem(A, V ) = Span{V,A−1V,AV,A−2V,A2V, · · · ,Am−1V,A−m+1V }. Secondly, we focus on nonlinear matrix equations, especially the matrix Riccati equation in the continuous case and the nonsymmetric case applied in transportation problems. We used the Newton method and MINRES algorithm to solve the projected minimization problem. Finally, we proposed two new iterative methods for solving large nonsymmetric Riccati equation : the first based on the algorithm of extended block Arnoldi and Galerkin condition, the second type is Newton-Krylov, based on Newton’s method and the resolution of the large matrix Sylvester equation by using block Krylov method. For all these methods, approximations are given in low rank form, wich allow us to save memory space. We have given numerical examples that show the effectiveness of the methods proposed in the case of large sizes.
132

Mise en œuvre des instruments de politique publique allant dans le sens d’une mobilité bas carbone des personnes en milieu urbain / Implementing economic policy-tools for a low carbon mobility of passengers at the urban scale

Papaix, Claire 05 February 2015 (has links)
Cette thèse s'intéresse à la réconciliation entre le défi mondial du changement climatique et les solutions locales et sectorielles qu'il convient de bien articuler pour contribuer, efficacement, équitablement et de la manière la plus acceptable, à la réduction des émissions de CO2. Plus précisément, nous étudions les conditions pour une mise en place réussie de la politique climatique à l'échelle de la mobilité urbaine des personnes. / This PhD thesis deals with the reconciliation of the global challenge that is climate change and the local and sectoral solutions that need to be accurately designed to remedy to it the most efficiently, equitably and acceptably possible. More specifically, we investigate the conditions for a successful implementation of climate policy at the scale of the urban mobility of passengers.
133

Estimation de modèles tensoriels structurés et récupération de tenseurs de rang faible / Estimation of structured tensor models and recovery of low-rank tensors

Goulart, José Henrique De Morais 15 December 2016 (has links)
Dans la première partie de cette thèse, on formule deux méthodes pour le calcul d'une décomposition polyadique canonique avec facteurs matriciels linéairement structurés (tels que des facteurs de Toeplitz ou en bande): un algorithme de moindres carrés alternés contraint (CALS) et une solution algébrique dans le cas où tous les facteurs sont circulants. Des versions exacte et approchée de la première méthode sont étudiées. La deuxième méthode fait appel à la transformée de Fourier multidimensionnelle du tenseur considéré, ce qui conduit à la résolution d'un système d'équations monomiales homogènes. Nos simulations montrent que la combinaison de ces approches fournit un estimateur statistiquement efficace, ce qui reste vrai pour d'autres combinaisons de CALS dans des scénarios impliquant des facteurs non-circulants. La seconde partie de la thèse porte sur la récupération de tenseurs de rang faible et, en particulier, sur le problème de reconstruction tensorielle (TC). On propose un algorithme efficace, noté SeMPIHT, qui emploie des projections séquentiellement optimales par mode comme opérateur de seuillage dur. Une borne de performance est dérivée sous des conditions d'isométrie restreinte habituelles, ce qui fournit des bornes d'échantillonnage sous-optimales. Cependant, nos simulations suggèrent que SeMPIHT obéit à des bornes optimales pour des mesures Gaussiennes. Des heuristiques de sélection du pas et d'augmentation graduelle du rang sont aussi élaborées dans le but d'améliorer sa performance. On propose aussi un schéma d'imputation pour TC basé sur un seuillage doux du coeur du modèle de Tucker et son utilité est illustrée avec des données réelles de trafic routier / In the first part of this thesis, we formulate two methods for computing a canonical polyadic decomposition having linearly structured matrix factors (such as, e.g., Toeplitz or banded factors): a general constrained alternating least squares (CALS) algorithm and an algebraic solution for the case where all factors are circulant. Exact and approximate versions of the former method are studied. The latter method relies on a multidimensional discrete-time Fourier transform of the target tensor, which leads to a system of homogeneous monomial equations whose resolution provides the desired circulant factors. Our simulations show that combining these approaches yields a statistically efficient estimator, which is also true for other combinations of CALS in scenarios involving non-circulant factors. The second part of the thesis concerns low-rank tensor recovery (LRTR) and, in particular, the tensor completion (TC) problem. We propose an efficient algorithm, called SeMPIHT, employing sequentially optimal modal projections as its hard thresholding operator. Then, a performance bound is derived under usual restricted isometry conditions, which however yield suboptimal sampling bounds. Yet, our simulations suggest SeMPIHT obeys optimal sampling bounds for Gaussian measurements. Step size selection and gradual rank increase heuristics are also elaborated in order to improve performance. We also devise an imputation scheme for TC based on soft thresholding of a Tucker model core and illustrate its utility in completing real-world road traffic data acquired by an intelligent transportation
134

Matrix decompositions and algorithmic applications to (hyper)graphs / Décomposition de matrices et applications algorithmiques aux (hyper)graphes

Bergougnoux, Benjamin 13 February 2019 (has links)
Durant ces dernières décennies, d'importants efforts et beaucoup de café ont été dépensés en vue de caractériser les instances faciles des problèmes NP-difficiles. Dans ce domaine de recherche, une approche s'avère être redoutablement efficace : la théorie de la complexité paramétrée introduite par Downey et Fellows dans les années 90.Dans cette théorie, la complexité d'un problème n'est plus mesurée uniquement en fonction de la taille de l'instance, mais aussi en fonction d'un paramètre .Dans cette boite à outils, la largeur arborescente est sans nul doute un des paramètres de graphe les plus étudiés.Ce paramètre mesure à quel point un graphe est proche de la structure topologique d'un arbre.La largeur arborescente a de nombreuses propriétés algorithmiques et structurelles.Néanmoins, malgré l'immense intérêt suscité par la largeur arborescente, seules les classes de graphes peu denses peuvent avoir une largeur arborescente bornée.Mais, de nombreux problèmes NP-difficiles s'avèrent faciles dans des classes de graphes denses.La plupart du temps, cela peut s'expliquer par l'aptitude de ces graphes à se décomposer récursivement en bipartitions de sommets $(A,B)$ où le voisinage entre $A$ et $B$ possède une structure simple.De nombreux paramètres -- appelés largeurs -- ont été introduits pour caractériser cette aptitude, les plus remarquables sont certainement la largeur de clique , la largeur de rang , la largeur booléenne et la largeur de couplage induit .Dans cette thèse, nous étudions les propriétés algorithmiques de ces largeurs.Nous proposons une méthode qui généralise et simplifie les outils développés pour la largeur arborescente et les problèmes admettant une contrainte d'acyclicité ou de connexité tel que Couverture Connexe , Dominant Connexe , Coupe Cycle , etc.Pour tous ces problèmes, nous obtenons des algorithmes s'exécutant en temps $2^{O(k)}\cdot n^{O(1)}$, $2^{O(k \log(k))}\cdot n^{O(1)}$, $2^{O(k^2)}\cdot n^{O(1)}$ et $n^{O(k)}$ avec $k$ étant, respectivement, la largeur de clique, la largeur de Q-rang, la larguer de rang et la largueur de couplage induit.On prouve aussi qu'il existe un algorithme pour Cycle Hamiltonien s'exécutant en temps $n^{O(k)}$ quand une décomposition de largeur de clique $k$ est donné en entrée.Finalement, nous prouvons qu'on peut compter en temps polynomial le nombre de transversaux minimaux d'hypergraphes $\beta$-acyclique ainsi que le nombre de dominants minimaux de graphes fortement triangulés.Tous ces résultats offrent des pistes prometteuses en vue d'une généralisation des largeurs et de leurs applications algorithmiques. / In the last decades, considerable efforts have been spent to characterize what makes NP-hard problems tractable. A successful approach in this line of research is the theory of parameterized complexity introduced by Downey and Fellows in the nineties.In this framework, the complexity of a problem is not measured only in terms of the input size, but also in terms of a parameter on the input.One of the most well-studied parameters is tree-width, a graph parameter which measures how close a graph is to the topological structure of a tree.It appears that tree-width has numerous structural properties and algorithmic applications.However, only sparse graph classes can have bounded tree-width.But, many NP-hard problems are tractable on dense graph classes.Most of the time, this tractability can be explained by the ability of these graphs to be recursively decomposable along vertex bipartitions $(A,B)$ where the adjacency between $A$ and $B$ is simple to describe.A lot of graph parameters -- called width measures -- have been defined to characterize this ability, the most remarkable ones are certainly clique-width, rank-width, and mim-width.In this thesis, we study the algorithmic properties of these width measures.We provide a framework that generalizes and simplifies the tools developed for tree-width and for problems with a constraint of acyclicity or connectivity such as Connected Vertex Cover, Connected Dominating Set, Feedback Vertex Set, etc.For all these problems, we obtain $2^{O(k)}\cdot n^{O(1)}$, $2^{O(k \log(k))}\cdot n^{O(1)}$, $2^{O(k^2)}\cdot n^{O(1)}$ and $n^{O(k)}$ time algorithms parameterized respectively by clique-width, Q-rank-width, rank-width and mim-width.We also prove that there exists an algorithm solving Hamiltonian Cycle in time $n^{O(k)}$, when a clique-width decomposition of width $k$ is given.Finally, we prove that we can count in polynomial time the minimal transversals of $\beta$-acyclic hypergraphs and the minimal dominating sets of strongly chordal graphs.All these results offer promising perspectives towards a generalization of width measures and their algorithmic applications.
135

Analyse économique des comportements de prévention face aux risques de santé / Economic analysis of health risk prevention behaviors

Loubatan Tabo, Augustin 18 October 2013 (has links)
Nombreux sont ceux à considérer que depuis le développement de la médecine curative, la prévention a occupé une place secondaire dans le système de santé français. La préoccupation majeure aurait été jusque-là d’assurer un accès aux soins plutôt que de favoriser une culture de la prévention. Depuis quelques années, les différents drames sanitaires (transfusion sanguine, amiante, canicule, hormone de croissance, épidémies de grippe, cancers,...) ont sensibilisé l’opinion à la notion de “sécurité sanitaire” et fait émerger une prise de conscience nouvelle autour des problématiques de la prévention. Le recours à la prévention permet aux individus et aux pouvoirs publics d’exercer un contrôle sur les risques de santé auxquels ils sont exposés et de mener des actions conséquentes dans le but d’améliorer l’état de santé en évitant l’apparition, le développement ou l’aggravation des maladies ou des accidents tout en favorisant des comportements individuels et collectifs pouvant contribuer à réduire les risques sanitaires. Une des réponses face aux risques de santé est d’inciter les individus à plus de prévention car ils ne sont plus seulement consommateurs de soins mais aussi producteurs de leur état de santé. Quel est donc le rôle des individus et quelle est la part de responsabilité dévolue à chacun dans la prévention des risques sanitaires ? De plus, la prévention des risques sanitaires s’inscrit dans un environnement d’ambiguïté et d’incertitudes car les risques auxquels sont exposés les individus sont diversement nombreux et pas toujours bien connus. Il n’est donc pas aisé de relier avec certitude un facteur de risque et un effet sanitaire pour ainsi adopter un comportement de prévention adéquat. Dans ce contexte d’incertitude, de nombreux modèles d’aide à la décision, ou de représentations des préférences ont été proposés ces dernières années (Klibanoff et al.(2005), Bleichrodt et Eeckhoudt(2006) Machina(2009), Etner et al.(2011)). Cette thèse analyse les comportements de prévention des individus face à des risques de santé tout en mettant l’accent sur les politiques publiques de prévention proposées. Elle consiste d’une part à des études théoriques des comportements de prévention et de gestion des risques sanitaires en utilisant des modèles récents de préférences. Ce travail analyse le comportement des individus qui doivent prendre des mesures de prévention pour protéger leur propre santé dans un contexte d’incertitude. D’autre part, elle se consacre à une étude empirique pour cerner les perceptions et informations qu’ont les individus en termes de risque de santé. En outre, tout au long de ce travail, nous avons cherché à étudier la pertinence du modèle théorique élaboré au regard des politiques pratiquées. Le premier chapitre présente les principes de modélisation des décisions économiques en présence d’un risque de santé plus ou moins bien connu. Après avoir détaillé lesdifférentes approches dans les modèles de décisions dans le risque et dans l’incertain, nous avons mis en relief l’importance de l’introduction de variables bidimensionnelles (ou multidimensionnelles) dans le modèle de choix pour permettre de rendre de l’environnement multidimensionnel des risques de santé. Le deuxième chapitre est une étude originale proposée sur l’analyse de la prévention en santé lorsque les individus présentent de l’aversion à l’ambiguïté. Dans ce chapitre, nous avons étudié les comportements individuels de prévention face à une incertitude sur l’état de santé et avons montré que l’aversion à l’ambiguïté incite les individus à faire plus de prévention primaire et secondaire sous l’hypothèse d’une utilité marginale de la richesse croissante avec l’état de santé. (...) / Many are those to consider that since the development of the curative medicine, the prevention occupied a secondary place in the French health care system. Major concern would have been up to that point to ensure an access to healthcare rather than to support a culture of prevention. Since a few years, various medical dramas (blood transfusion, asbestos, heat wave, growth hormone, flu epidemics,cancers,...) have raised awareness of the concept of “safety” and brings out a new awakening around the prevention problems.The use of prevention allows the individuals and the public authorities to exert a control on the health risks to which they are exposed and to conduct consequent actions in order to improve health and prevent the emergence, the development, the development or the aggravation of the diseases or accidents while promoting individual and collective behaviors that can help to reduce the risk health. One of the answers in front of the health risks is to incite the individuals to more prevention because they are not only consumers of care, but also producers of their health. What is the role of individuals and what is the share of responsibility reserved for each one in the prevention of health risks ? In addition, the prevention of health risks is part of an environment ambiguity and uncertainty because the risks to which are exposed individuals are many different ways and not always well known. It is thus not easy to connect with certainty a risk factor and a health effect for adopting an adequate prevention behavior. In this context of uncertainty, many support the decision models or representations of preferences have been proposed in recent years (and Klibanoff (al. (2005), and Bleichrodt Eeckhoudt (2006), Machina 2009), Etner et al. (2011)).This thesis analyzes the individual behaviors of prevention in front of health risks while focusing on the public policies of prevention proposed. It consists on the one hand in theoretical studies of the behaviors of prevention and management of the health risks by using recent models of preferences. This work analyzes the behavior of the individuals who need to take preventive measures to protect their own health in a context of uncertainty. On the other hand, it is devoted to an empirical study to determine perceptions and information which have the individuals in terms of risk of health. Moreover, throughout this work, we sought to examine the relevance of the theoretical model developed with regard to the policies practiced. The first chapter presents the principles of modeling economic decisions in the presence of a more or less well known health risk. After detailing the different approaches in models of decisions under risk and uncertainty, we have highlighted the importance of the introduction of two-dimensional variables (or multidimensional) in the model of choice to allow to report the multidimensional environment of health risks. The second chapter is an original proposed study on the analysis of preventive health when the individuals have an aversion to ambiguity. In this chapter, we studied individual behavior of prevention in front of an uncertainty on the health status and have showed that aversion to ambiguity encourages the individuals to make more primary and secondary prevention under the assumption of a marginal utility of the increasing wealth with the health status. (...)
136

Taylor and rank-1 lattice based nonequispaced fast Fourier transform

Volkmer, Toni 25 February 2013 (has links)
The nonequispaced fast Fourier transform (NFFT) allows the fast approximate evaluation of trigonometric polynomials with frequencies supported on full box-shaped grids at arbitrary sampling nodes. Due to the curse of dimensionality, the total number of frequencies and thus, the total arithmetic complexity can already be very large for small refinements at medium dimensions. In this paper, we present an approach for the fast approximate evaluation of trigonometric polynomials with frequencies supported on an arbitrary subset of the full grid at arbitrary sampling nodes, which is based on Taylor expansion and rank-1 lattice methods. For the special case of symmetric hyperbolic cross index sets in frequency domain, we present error estimates and numerical results.
137

Controversial Politics, Conservative Genre: Rex Stout's Archie-Wolfe Duo and Detective Fiction's Conventional Form

Cannon, Ammie 15 June 2006 (has links) (PDF)
Rex Stout maintained his popular readership despite the often controversial and radical political content expressed in his detective fiction. His political ideals often made him many enemies. Stances such as his ardent opposition to censorship, racism, Nazism, Germany, Fascism, Communism, McCarthyism, and the unfettered FBI were potentially offensive to colleagues and readers from various political backgrounds. Yet Stout attempted to present radical messages via the content of his detective fiction with subtlety. As a literary traditionalist, he resisted using his fiction as a platform for an often extreme political agenda. Where political messages are apparent in his work, Stout employs various techniques to mute potentially offensive messages. First, his hugely successful bantering Archie Goodwin-Nero Wolfe detective duo—a combination of both the lippy American and the tidy, sanitary British detective schools—fosters exploration, contradiction, and conflict between political viewpoints. Archie often rejects or criticizes Wolfe's extreme political viewpoints. Second, Stout utilizes the contradictions between values that occur when the form of detective fiction counters his radical political messages. This suggests that the form of detective fiction (in this case the conventional patterns and attitudes reinforced by the genre) is as important as the content (in this case the muted political message or the lack of overt politics) in reinforcing or shaping political, economic, moral, and social viewpoints. An analysis of the novels The Black Mountain (1954) and The Doorbell Rang (1965) and the novellas "Not Quite Dead Enough" and "Booby Trap" (1944) from Stout's Nero Wolfe series demonstrates his use of detective fiction for both the expression of political viewpoints and the muting of those political messages.
138

Etude des modes octupolaires dans le noyau atomique de 156Gd : recherche expérimentale de la symétrie tétraédrique / Study of the octupole modes in the atomic nucleus of 156Gd : experimental search of the tetrahedral symmetry

Sengele, Loic 10 December 2014 (has links)
Les symétries géométriques jouent un rôle important dans la compréhension de la stabilité de tout système physique. En structure nucléaire, elles sont reliées à la forme du champ moyen utilisé pour décrire les propriétés des noyaux atomiques. Dans le cadre de cette thèse, nous avons utilisé les prédictions obtenues avec l'aide du Hamiltonien du champ moyen nucléaire avec le potentiel de Woods-Saxon Universel pour étudier les effets des symétries dites de « Haut-Rang ». Ces symétries ponctuelles mènent à des dégénérescences des états nucléaires d’ordre 4. Il est prédit que la symétrie tétraédrique influence la stabilité des noyaux proches des nombres magiques tétraédriques [Z,N]=[32,40,56,64,70,90-94,136]. Nous avons sélectionné la région des Terres-Rares proche du noyau doublement magique tétraédrique 154Gd pour notre étude. Dans cette région, il existe des structures de parité négative qui sont mal comprises. Or la symétrie tétraédrique, en tant que déformation octupolaire non-axiale, brise la symétrie par réflexion et doit produire des états de parité négative. Après une étude systématique des propriétés expérimentales des noyaux de la région, nous avons sélectionné le 156Gd comme objet de notre étude des modes d’excitation octupolaire. Nous avons utilisé les probabilités réduites de transition gamma pour discerner ces différents modes. Pour atteindre cet objectif, nous avons réalisé trois expériences de spectroscopie gamma à l’ILL de Grenoble avec les détecteurs EXILL et GAMS afin de mesurer les durées de vie et les intensités des transitions gamma des états candidats. L'analyse de nos résultats montre que notamment la forme tétraédrique aide à comprendre les probabilités des transitions dipolaires. Ce résultat ouvre de nouvelles perspectives expérimentales et théoriques. / Geometrical symmetries play an important role in the understanding of all physical systems. In nuclear structure they are linked to the shape of the mean-field used to describe the atomic nuclei properties. In the framework of this thesis, we have used the predictions obtained with the help of the nuclear mean-field Hamiltonian with the Universal Woods-Saxon potential to study the effects of the so-called “High-Rank” symmetries. These point-group symmetries lead to a nuclear state degeneracy of the order of 4. It is predicted that the tetrahedral symmetry affects the stability of nuclei close to the tetrahedral magic numbers [Z,N]=[32,40,56,64,70,90-94,136]. We have selected the Rare-Earth region close to the tetrahedral doubly magic nucleus 154Gd for our study. In this region, there exists negative parity structures poorly understood. Yet the tetrahedral symmetry, as related to a non-axial octupole deformation, breaks the reflection symmetry and leads to the negative parity states. Following a systematics of experimental properties of the nuclei in this region, we have selected 156Gd as the object of our study for the octupole excitation modes. We have used the reduced transitions probabilities to discriminate between these modes. To achieve this goal, we have performed three gamma spectroscopy experiments at the ILL in Grenoble with the EXILL and GAMS detectors to measure the lifetimes and the gamma transition intensities from the candidate states. The analysis of our results shows that including the tetrahedral shape helps to understand the dipole transition probabilities. This result will open new experimental and theoretical perspectives.

Page generated in 0.0447 seconds