• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 9
  • 6
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 64
  • 12
  • 11
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Solution strategies for stochastic finite element discretizations

Ullmann, Elisabeth 23 June 2008 (has links)
The discretization of the stationary diffusion equation with random parameters by the Stochastic Finite Element Method requires the solution of a highly structured but very large linear system of equations. Depending on the stochastic properties of the diffusion coefficient together with the stochastic discretization we consider three solver cases. If the diffusion coefficient is given by a stochastically linear expansion, e.g. a truncated Karhunen-Loeve expansion, and tensor product polynomial stochastic shape functions are employed, the Galerkin matrix can be transformed to a block-diagonal matrix. For the solution of the resulting sequence of linear systems we study Krylov subspace recycling methods whose success depends on the ordering and grouping of the linear systems as well as the preconditioner. If we use complete polynomials for the stochastic discretization instead, we show that decoupling of the Galerkin matrix with respect to the stochastic degrees of freedom is impossible. For a stochastically nonlinear diffusion coefficient, e.g. a lognormal random field, together with complete polynomials serving as stochastic shape functions, we introduce and test the performance of a new Kronecker product preconditioner, which is not exclusively based on the mean value of the diffusion coefficient.
52

Computer Experiments with Both Quantitative and Qualitative Inputs

Zhang, Yulei January 2014 (has links)
No description available.
53

Null Values and Null Vectors of Matrix Pencils and their Applications in Linear System Theory

Dalwadi, Neel 20 December 2017 (has links)
No description available.
54

RFI Mitigation and Discrete Digital Signal Processing RFSoC Algorithm Implementations for Radio Astronomy and Wideband Communication Systems

Ward, Devon Christopher 28 March 2024 (has links) (PDF)
Due to the massive increase of active transmitters broadcasting over wideband frequencies, such as 5G wireless systems, LEO/MEO satellites, satellite constellations, and the increase of IoT devices in the average home, the radio frequency spectrum is becoming more and more congested by interference. Passive receivers face additional challenges due to the growing use of wideband frequency transmissions aimed at boosting communication system throughput. As a result, passive receivers must adopt more robust and intricate techniques to mitigate radio frequency interference. A proposed RFI removal system, known as the true time delay Hadamard projection algorithm, has been introduced in previous work to eliminate a single RFI source while preserving a narrowband signal of interest. An RF frontend is developed to assess the effectiveness of the Hadamard projection algorithm implemented on an RFSoC ZCU216. Additionally, the TTD Hadamard projection algorithm is expanded to enable the cancellation of multiple RFI sources rather than just a single source for a uniform linear array and a uniform rectangular array. Over-the-air tests are conducted to verify the performance of the interference cancellation algorithms and demonstrate the algorithms' ability to preserve the signals of interest while removing the wideband interference. Multiple algorithms are proposed to estimate the time delays used by the interference cancellation algorithm to effectively eliminate wideband interference. These algorithms address diverse scenarios encompassing interference sources ranging from strong to weak SNR. Detailed reports of algorithm performance provide insights into their effectiveness and suitability across specific interference conditions.
55

Modèles aléatoires harmoniques pour les signaux électroencéphalographiques

Villaron, Emilie 25 June 2012 (has links)
Cette thèse s'inscrit dans le contexte de l'analyse des signaux biomédicaux multicapteurs par des méthodes stochastiques. Les signaux auxquels nous nous intéressons présentent un caractère oscillant transitoire bien représenté par les décompositions dans le plan temps-fréquence c'est pourquoi nous avons choisi de considérer non plus les décours temporels de ces signaux mais les coefficients issus de la décomposition de ces derniers dans le plan temps-fréquence. Dans une première partie, nous décomposons les signaux multicapteurs sur une base de cosinus locaux (appelée base MDCT) et nous modélisons les coefficients à l'aide d'un modèle à états latents. Les coefficients sont considérés comme les réalisations de processus aléatoires gaussiens multivariés dont la distribution est gouvernée par une chaîne de Markov cachée. Nous présentons les algorithmes classiques liés à l'utilisation des modèles de Markov caché et nous proposons une extension dans le cas où les matrices de covariance sont factorisées sous forme d'un produit de Kronecker. Cette modélisation permet de diminuer la complexité des méthodes de calcul numérique utilisées tout en stabilisant les algorithmes associés. Nous appliquons ces modèles à des données électroencéphalographiques et nous montrons que les matrices de covariance représentant les corrélations entre les capteurs et les fréquences apportent des informations pertinentes sur les signaux analysés. Ceci est notamment illustré par un cas d'étude sur la caractérisation de la désynchronisation des ondes alpha dans le contexte de la sclérose en plaques. / This thesis adresses the problem of multichannel biomedical signals analysis using stochastic methods. EEG signals exhibit specific features that are both time and frequency localized, which motivates the use of time-frequency signal representations. In this document the (time-frequency labelled) coefficients are modelled as multivariate random variables. In the first part of this work, multichannel signals are expanded using a local cosine basis (called MDCT basis). The approach we propose models the distribution of time-frequency coefficients (here MDCT coefficients) in terms of latent variables by the use of a hidden Markov model. In the framework of application to EEG signals, the latent variables describe some hidden mental state of the subject. The latter control the covariance matrices of Gaussian vectors of fixed-time vectors of multi-channel, multi-frequency, MDCT coefficients. After presenting classical algorithms to estimate the parameters, we define a new model in which the (space-frequency) covariance matrices are expanded as tensor products (also named Kronecker products) of frequency and channels matrices. Inference for the proposed model is developped and yields estimates for the model parameters, together with maximum likelihood estimates for the sequences of latent variables. The model is applied to electroencephalogram data, and it is shown that variance-covariance matrices labelled by sensor and frequency indices can yield relevant informations on the analyzed signals. This is illustrated with a case study, namely the detection of alpha waves in rest EEG for multiple sclerosis patients and control subjects.
56

Problèmes inverses de points sources dans les modèles de transport dispersif de contaminants : identifiabilité et observabilité / Inverse problems of point-wise sources in dispersive transport models of contaminants : identifiability and observability

Khiari, Souad 19 October 2016 (has links)
La recherche et les questions abordées dans cette thèse sont de type inverse : la reconstitution d'une source ponctuelle ou la complétion d'une donnée à la limite inconnue à l'extrémité du domaine dans les modèles paraboliques de transport de contaminants. La modélisation mathématique des problèmes de pollution des eaux fait intervenir deux traceurs, l'oxygène dissous (OD) et la demande biochimique en oxygène (DBO) qui est la quantité d'oxygène nécessaire à la biodégradation de la matière organique. En effet, au cours des procédés d'autoépuration, certaines bactéries aérobies jouent un rôle principal. Ces micro-organismes décomposent les matières organiques polluantes en utilisant l'oxygène dissous dans le milieu. Afin de compenser ces données manquantes, les champs, solutions du problème, sont observés directement ou indirectement. Les problèmes inverses qui en résultent sont quasi certainement mal-posés voire même sévèrement mal-posés pour la plupart. Dans cette thèse, nous proposons justement une analyse aussi poussée que possible sur la question de l'identifiabilité pour les deux problèmes inverses décrits ci-dessus. Nous avons démontré un résultat d'unicité pour des sources fixes dans le cas d'observations décalées. La réalité pour l'observation est nuancée et l'idéal n'est pas acquis ; des mesures directes sur la DBO sont difficiles à obtenir. En revanche collecter des données sur l'OD est possible en temps réel et avec un faible coût. La DBO est donc observée de façon indirecte, grâce au couplage dans le système de Streeter et Phelps, l'information passe de l'OD à la DBO. Pour ce problème aussi, nous avons produit un résultat d'unicité pour la reconstruction de la source ou puits ponctuel qui serait présent dans l'équation de transport sur l'OD. Nous avons ensuite examiné des questions annexes à l'identifiabilité telles que le degré d'instabilité des équations à résoudre. De ce type d'informations dépendent le comportement des méthodes numériques et des algorithmes de calcul à utiliser. / The research and the questions approached on this thesis are inverse type : the reconstruction of point-wise source or the data completion problem in parabolic models of transport of contaminants. The mathematical modelling of the problems of water pollution includes two tracers, the dissolved oxygen (DO) and the biochemical demand in oxygen (BDO) which is the quantity of oxygen necessary for the biodegradation of organic matter. Indeed, during the biodegradation process, aerobic bacteria play a leading part. These micro-organisms decompose polluting organic matters by using the dissolved oxygen in the middle. To compensate these missing data, fields, solutions of the problem, are observed directly or indirectly. The resulting inverse problems are ill-posed. Their mathematical study rises big complications and their numerical treatment isn't easy. We demonstrated a uniqueness result for fixed sources in the case of moved observations. The reality for the observation is qualified and the ideal is not acquired; direct measures on the BOD are difficult to obtain. On the Other hand to collect data on the DO is possible in real time With a moderate cost. The BOD is thus observed in indirect way, thanks to the coupling in the system of Streeter and Phelps, the information passes from the DO to the BOD. For this problem, we produced a uniqueness result for the reconstruction of source. Then, we examined the degree of instability of the equation to be solved. The behaviour of numerical methods depend on this type of information.
57

Motion planning of multi-robot system for airplane stripping / Plannification des trajectoires s’un système multi-robot pour faire le décapage des avions

Kalawoun, Rawan 26 April 2019 (has links)
Cette thèse est une partie d’un projet français qui s’appelle AEROSTRIP, un partenariat entre l’Institut Pascal, Sigma, SAPPI et Air-France industries, il est financé par le gouvernement français par le programme FUI (20 eme appel). Le projet AEROSTRIP consiste à développer le premier système automatique qui nettoie écologiquement les surfaces des avions et les pièces de rechange en utilisant un abrasif écologique projeté à grande vitesse sur la surface des avions (maïs). Ma thèse consiste à optimiser les trajectoires du système robotique total de telle façon que le décapage de l’avion soit optimal. Le déplacement des robots est nécessaire pour assurer une couverture totale de la surface à décaper parce que ces surfaces sont trop grandes et elles ne peuvent pas être décapées d’une seule position. Le but de mon travail est de trouver le nombre optimal de robots avec leur positions optimales pour décaper totalement l’avion. Une fois ce nombre est déterminé, on cherche les trajectoires des robots entre ces différentes positions. Alors, pour atteindre ce but, j’ai défini un cadre général composant de quatre étapes essentiels: l’étape pre-processing, l’étape optimization algorithm, l’étape generation of the end-effector trajectories et l’étape robot scheduling, assignment and control.Dans ma thèse, j’ai deux contributions dans deux différentes étapes du cadre général: l’étape pre-processing et l’étape optimization algorithm. Le calcul de l’espace de travail du robot est nécessairedans l’étape pre-processing: on a proposé l’Analyse par Intervalles pour trouver cet espace de travail parce qu’il garantie le fait de trouver des solutions dans un temps de calcul raisonnable. Alors, ma première contribution est une nouvelle fonction d’inclusion qui réduit le pessimisme, la surestimation des solutions qui est le principal inconvénient de l’Analyse par Intervalles. La nouvelle fonction d’inclusion est évaluée sur des problèmes de satisfaction de contraintes et des problèmes d’optimisation des contraintes. En plus, on a proposé un algorithme d’optimisation hybride pour trouver le nombre optimal de robots avec leur positions optimales: c’est notre deuxième contribution qui est dans l’étape optimization algorithm. Pour évaluer l’algorithme d’optimisation, on a testé cet algorithme sur des surfaces régulières, comme un cylindre et un hémisphère, et sur un surface complexe: une voiture. / This PHD is a part of a French project named AEROSTRIP, (a partnership between Pascal Institute,Sigma, SAPPI, and Air-France industries), it is funded by the French Government through the FUIProgram (20th call). The AEROSTRIP project aims at developing the first automated system thatecologically cleans the airplanes surfaces using a process of soft projection of ecological media onthe surface (corn). My PHD aims at optimizing the trajectory of the whole robotic systems in orderto optimally strip the airplane. Since a large surface can not be totally covered by a single robot base placement, repositioning of the robots is necessary to ensure a complete stripping of the surface. The goal in this work is to find the optimal number of robots with their optimal positions required to totally strip the air-plane. Once found, we search for the trajectories of the robots of the multi-robot system between those poses. Hence, we define a general framework to solve this problem having four main steps: the pre-processing step, the optimization algorithm step, the generation of the end-effector trajectories step and the robot scheduling, assignment and control step.In my thesis, I present two contributions in two different steps of the general framework: the pre-processing step, the optimization algorithm step. The computation of the robot workspace is required in the pre-processing step: we proposed Interval Analysis to find this workspace since it guarantees finding solutions in a reasonable computation time. Though, our first contribution is a new inclusion function that reduces the pessimism, the overestimation of the solution, which is the main disadvantage of Interval Analysis. The proposed inclusion function is assessed on some Constraints Satisfaction Problems and Constraints Optimization problems. Furthermore, we propose an hybrid optimization algorithm in order to find the optimal number of robots with their optimal poses: it is our second contribution in the optimization algorithm step. To assess our hybrid optimization algorithm, we test the algorithm on regular surfaces, such as a cylinder and a hemisphere, and on a complex surface: a car.
58

Exploiting Prior Information in Parametric Estimation Problems for Multi-Channel Signal Processing Applications

Wirfält, Petter January 2013 (has links)
This thesis addresses a number of problems all related to parameter estimation in sensor array processing. The unifying theme is that some of these parameters are known before the measurements are acquired. We thus study how to improve the estimation of the unknown parameters by incorporating the knowledge of the known parameters; exploiting this knowledge successfully has the potential to dramatically improve the accuracy of the estimates. For covariance matrix estimation, we exploit that the true covariance matrix is Kronecker and Toeplitz structured. We then devise a method to ascertain that the estimates possess this structure. Additionally, we can show that our proposed estimator has better performance than the state-of-art when the number of samples is low, and that it is also efficient in the sense that the estimates have Cram\'er-Rao lower Bound (CRB) equivalent variance. In the direction of arrival (DOA) scenario, there are different types of prior information; first, we study the case when the location of some of the emitters in the scene is known. We then turn to cases with additional prior information, i.e.~when it is known that some (or all) of the source signals are uncorrelated. As it turns out, knowledge of some DOA combined with this latter form of prior knowledge is especially beneficial, giving estimators that are dramatically more accurate than the state-of-art. We also derive the corresponding CRBs, and show that under quite mild assumptions, the estimators are efficient. Finally, we also investigate the frequency estimation scenario, where the data is a one-dimensional temporal sequence which we model as a spatial multi-sensor response. The line-frequency estimation problem is studied when some of the frequencies are known; through experimental data we show that our approach can be beneficial. The second frequency estimation paper explores the analysis of pulse spin-locking data sequences, which are encountered in nuclear resonance experiments. By introducing a novel modeling technique for such data, we develop a method for estimating the interesting parameters of the model. The technique is significantly faster than previously available methods, and provides accurate estimation results. / Denna doktorsavhandling behandlar parameterestimeringsproblem inom flerkanals-signalbehandling. Den gemensamma förutsättningen för dessa problem är att det finns information om de sökta parametrarna redan innan data analyseras; tanken är att på ett så finurligt sätt som möjligt använda denna kunskap för att förbättra skattningarna av de okända parametrarna. I en uppsats studeras kovariansmatrisskattning när det är känt att den sanna kovariansmatrisen har Kronecker- och Toeplitz-struktur. Baserat på denna kunskap utvecklar vi en metod som säkerställer att även skattningarna har denna struktur, och vi kan visa att den föreslagna skattaren har bättre prestanda än existerande metoder. Vi kan också visa att skattarens varians når Cram\'er-Rao-gränsen (CRB). Vi studerar vidare olika sorters förhandskunskap i riktningsbestämningsscenariot: först i det fall då riktningarna till ett antal av sändarna är kända. Sedan undersöker vi fallet då vi även vet något om kovariansen mellan de mottagna signalerna, nämligen att vissa (eller alla) signaler är okorrelerade. Det visar sig att just kombinationen av förkunskap om både korrelation och riktning är speciellt betydelsefull, och genom att utnyttja denna kunskap på rätt sätt kan vi skapa skattare som är mycket noggrannare än tidigare möjligt. Vi härleder även CRB för fall med denna förhandskunskap, och vi kan visa att de föreslagna skattarna är effektiva. Slutligen behandlar vi även frekvensskattning. I detta problem är data en en-dimensionell temporal sekvens som vi modellerar som en spatiell fler-kanalssignal. Fördelen med denna modelleringsstrategi är att vi kan använda liknande metoder i estimatorerna som vid sensor-signalbehandlingsproblemen. Vi utnyttjar återigen förhandskunskap om källsignalerna: i ett av bidragen är antagandet att vissa frekvenser är kända, och vi modifierar en existerande metod för att ta hänsyn till denna kunskap. Genom att tillämpa den föreslagna metoden på experimentell data visar vi metodens användbarhet. Det andra bidraget inom detta område studerar data som erhålls från exempelvis experiment inom kärnmagnetisk resonans. Vi introducerar en ny modelleringsmetod för sådan data och utvecklar en algoritm för att skatta de önskade parametrarna i denna modell. Vår algoritm är betydligt snabbare än existerande metoder, och skattningarna är tillräckligt noggranna för typiska tillämpningar. / <p>QC 20131115</p>
59

Advances in parameterisation, optimisation and pruning of neural networks

Laurent, César 10 1900 (has links)
Les réseaux de neurones sont une famille de modèles de l'apprentissage automatique qui sont capable d'apprendre des tâches complexes directement des données. Bien que produisant déjà des résultats impressionnants dans beaucoup de domaines tels que la reconnaissance de la parole, la vision par ordinateur ou encore la traduction automatique, il y a encore de nombreux défis dans l'entraînement et dans le déploiement des réseaux de neurones. En particulier, entraîner des réseaux de neurones nécessite typiquement d'énormes ressources computationnelles, et les modèles entraînés sont souvent trop gros ou trop gourmands en ressources pour être déployés sur des appareils dont les ressources sont limitées, tels que les téléphones intelligents ou les puces de faible puissance. Les articles présentés dans cette thèse étudient des solutions à ces différents problèmes. Les deux premiers articles se concentrent sur l'amélioration de l'entraînement des réseaux de neurones récurrents (RNNs), un type de réseaux de neurones particulier conçu pour traiter des données séquentielles. Les RNNs sont notoirement difficiles à entraîner, donc nous proposons d'améliorer leur paramétrisation en y intégrant la normalisation par lots (BN), qui était jusqu'à lors uniquement appliquée aux réseaux non-récurrents. Dans le premier article, nous appliquons BN aux connections des entrées vers les couches cachées du RNN, ce qui réduit le décalage covariable entre les différentes couches; et dans le second article, nous montrons comment appliquer BN aux connections des entrées vers les couches cachées et aussi des couches cachée vers les couches cachée des réseau récurrents à mémoire court et long terme (LSTM), une architecture populaire de RNN, ce qui réduit également le décalage covariable entre les pas de temps. Nos expériences montrent que les paramétrisations proposées permettent d'entraîner plus rapidement et plus efficacement les RNNs, et ce sur différents bancs de tests. Dans le troisième article, nous proposons un nouvel optimiseur pour accélérer l'entraînement des réseaux de neurones. Les optimiseurs diagonaux traditionnels, tels que RMSProp, opèrent dans l'espace des paramètres, ce qui n'est pas optimal lorsque plusieurs paramètres sont mis à jour en même temps. A la place, nous proposons d'appliquer de tels optimiseurs dans une base dans laquelle l'approximation diagonale est susceptible d'être plus efficace. Nous tirons parti de l'approximation K-FAC pour construire efficacement cette base propre Kronecker-factorisée (KFE). Nos expériences montrent une amélioration en vitesse d'entraînement par rapport à K-FAC, et ce pour différentes architectures de réseaux de neurones profonds. Le dernier article se concentre sur la taille des réseaux de neurones, i.e. l'action d'enlever des paramètres du réseau, afin de réduire son empreinte mémoire et son coût computationnel. Les méthodes de taille typique se base sur une approximation de Taylor de premier ou de second ordre de la fonction de coût, afin d'identifier quels paramètres peuvent être supprimés. Nous proposons d'étudier l'impact des hypothèses qui se cachent derrière ces approximations. Aussi, nous comparons systématiquement les méthodes basées sur des approximations de premier et de second ordre avec la taille par magnitude (MP), et montrons comment elles fonctionnent à la fois avant, mais aussi après une phase de réapprentissage. Nos expériences montrent que mieux préserver la fonction de coût ne transfère pas forcément à des réseaux qui performent mieux après la phase de réapprentissage, ce qui suggère que considérer uniquement l'impact de la taille sur la fonction de coût ne semble pas être un objectif suffisant pour développer des bon critères de taille. / Neural networks are a family of Machine Learning models able to learn complex tasks directly from the data. Although already producing impressive results in many areas such as speech recognition, computer vision or machine translation, there are still a lot of challenges in both training and deployment of neural networks. In particular, training neural networks typically requires huge amounts of computational resources, and trained models are often too big or too computationally expensive to be deployed on resource-limited devices, such as smartphones or low-power chips. The articles presented in this thesis investigate solutions to these different issues. The first couple of articles focus on improving the training of Recurrent Neural Networks (RNNs), networks specially designed to process sequential data. RNNs are notoriously hard to train, so we propose to improve their parameterisation by upgrading them with Batch Normalisation (BN), a very effective parameterisation which was hitherto used only in feed-forward networks. In the first article, we apply BN to the input-to-hidden connections of the RNNs, thereby reducing internal covariate shift between layers. In the second article, we show how to apply it to both input-to-hidden and hidden-to-hidden connections of the Long Short-Term Memory (LSTM), a popular RNN architecture, thus also reducing internal covariate shift between time steps. Our experiments show that these proposed parameterisations allow for faster and better training of RNNs on several benchmarks. In the third article, we propose a new optimiser to accelerate the training of neural networks. Traditional diagonal optimisers, such as RMSProp, operate in parameters coordinates, which is not optimal when several parameters are updated at the same time. Instead, we propose to apply such optimisers in a basis in which the diagonal approximation is likely to be more effective. We leverage the same approximation used in Kronecker-factored Approximate Curvature (K-FAC) to efficiently build this Kronecker-factored Eigenbasis (KFE). Our experiments show improvements over K-FAC in training speed for several deep network architectures. The last article focuses on network pruning, the action of removing parameters from the network, in order to reduce its memory footprint and computational cost. Typical pruning methods rely on first or second order Taylor approximations of the loss landscape to identify which parameters can be discarded. We propose to study the impact of the assumptions behind such approximations. Moreover, we systematically compare methods based on first and second order approximations with Magnitude Pruning (MP), showing how they perform both before and after a fine-tuning phase. Our experiments show that better preserving the original network function does not necessarily transfer to better performing networks after fine-tuning, suggesting that only considering the impact of pruning on the loss might not be a sufficient objective to design good pruning criteria.
60

Belyi pairs and scattering constants

Posingies, Anna 27 September 2010 (has links)
Diese Dissertation behandelt nicht-holomorphe Diese Dissertation behandelt nicht-holomorphe Eisensteinreihen und Dessins d''Enfants. Nicht-holomorphe Eisensteinreihen entstehen aus Untergruppen der Modulgruppe, indem man über alle Elemente der Gruppe modulo dem Stabilisator einer Spitze aufsummiert. Die zweite Struktur, Dessins d''Enfants, sind bipartite Graphen die in topologische Flächen eingebettet sind. Dessins d''Enfants stehen in Korrespondenz zu Belyi-Paaren und Untergruppen der Modulgruppe von endlichem Index. Deshalb bestehen zwischen Eisensteinreihen und Dessins d''Enfants Verbindungen und ein Schwerpunkt dieser Arbeit ist es, Informationen und Wissen über das eine Objekt in das andere zu übertragen. Bezüglich Dessins d''Enfants beschäftigen wir uns mit Symmetrien. Wir waren in der Lage, Automorphismen von algebraischen Kurven im assoziierten Dessin, in der zugehörigen Untergruppe sowie insbesondere auf den Spitzen zu interpretieren. Außerdem beschreiben wir die Zusammenhänge zwischen Dessins für Untergruppen, dadurch können wir für zwei Untergruppen anhand ihres Dessins entscheiden, ob sie in einander enthalten sind. In Kombination mit hier erbrachten Resultaten zu den Hauptkongruenzuntergruppen führt dies zu einem implementierten Algorithmus, der prüft, ob eine Gruppe eine Kongruenzuntergruppe ist oder nicht. Auf der Seite der Eisensteinreihen untersucht dieser Text Streukonstanten, Greensche Funktionen und Kroneckergrenzformeln. In der Streumatrix fanden wir Symmetrien (für bestimmte Gruppen). Für Greensche Funktionen wurde eine Spurformel bewiesen. Wir zeigten, dass Eisensteinreihen eine Identität erfüllen, die wir Kroneckergrenzformel nennen; sie vergleicht den konstanten Term der Eisensteinreihe mit Funktionen, die von ausgezeichneten Modulformen kommen. Die Dissertation gipfelt in der Berechnung der Streukonstanten für die Untergruppen assoziiert zu den Fermatkurven, die fast alle Nichtkongruenzuntergruppen sind. / In this dissertation non-holomorphic Eisenstein series and Dessins d''Enfants are considered. Non-holomorphic Eisenstein series are created out of subgroups of the modular group by summing up over all elements modulo the stabilizer of a cusp. The second main object, Dessins d''Enfants, are bipartite graphs that are embedded into topological surfaces. There is a correspondence between Dessins D''Enfants, Belyi pairs and subgroups of the modular group of finite index. Therefore Eisenstein series and Dessins d''Enfants are related and a focus of this work is how to use the one to find information about the other. The main results concerning Dessins d''Enfants in this thesis are investigations of symmetries of Dessins. We have been able to interpret automorphisms of algebraic curves on the associated Dessin, the subgroups and in particular the set of cusps. Furthermore, we describe the relation of Dessins for subgroups. Therefore, with help of the Dessins we can decide if two subgroups are contained in each other. Together with our results on the Dessins for principal congruence subgroups this leads to an implemented algorithm that checks if a subgroup is a congruence subgroup or not. On the side of Eisenstein series we consider scattering constants, Green''s functions and Kronecker limit formulas. We found symmetries in the scattering matrix for certain groups. For Green''s functions we established a trace formula. We showed that Eisenstein series fulfill an identity we call Kronecker limit formula in which they are compared with functions coming from certain modular forms. Most of the work done in this thesis culminates in the calculation of the scattering constants for the subgroups associated to Fermat curves; most of these groups are non-congruence.

Page generated in 0.0516 seconds