• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 96
  • 75
  • 30
  • 9
  • 8
  • 6
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • Tagged with
  • 269
  • 47
  • 34
  • 32
  • 24
  • 24
  • 22
  • 22
  • 22
  • 20
  • 20
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Facetten der Konvergenztheorie regularisierter Lösungen im Hilbertraum bei A-priori-Parameterwahl

Schieck, Matthias 09 April 2010 (has links)
Die vorliegende Arbeit befasst sich mit der Konvergenztheorie für die regularisierten Lösungen inkorrekter inverser Probleme bei A-priori-Parameterwahl im Hilbertraum. Zunächst werden bekannte Konvergenzratenresultate basierend auf verallgemeinerten Quelldarstellungen systematisch zusammengetragen. Danach wird sich mit dem Fall befasst, was getan werden kann, wenn solche Quellbedingungen nicht erfüllt sind. Man gelangt zur Analysis von Abstandsfunktionen, mit deren Hilfe ebenfalls Konvergenzraten ermittelt werden können. Praktisch wird eine solche Abstandsfunktion anhand der Betrachtung einer Fredholmschen Integralgleichung 2. Art abgeschätzt. Schließlich werden die Zusammenhänge zwischen bedingter Stabilität, Stetigkeitsmodul und Konvergenzraten erörtert und durch ein Beispiel zur Laplace-Gleichung untermauert. / This dissertation deals with the convergence theory of regularized solutions of ill-posed inverse problems in Hilbert space with a priori parameter choice. First, well-known convergence rate results based on general source conditions are brought together systematically. Then it is studied what can be done if such source conditions are not fulfilled. One arrives at the analysis of distance functions. With their help, convergence rates can be determined, too. As an example, a distance function is calculated by solving a Fredholm integral equation of the second kind. Finally, the cross-connections between conditional stability, the modulus of continuity and convergence rates is treated accompanied with an example concerning the Laplace equation.
242

Numerické řešení nelineárních problémů konvekce-difuze pomocí adaptivních metod / Numerické řešení nelineárních problémů konvekce-difuze pomocí adaptivních metod

Roskovec, Filip January 2014 (has links)
This thesis is concerned with analysis and implementation of Time discontinuous Galerkin method. Important part of it is constructing of algorithm for solving nonlinear convection-diffusion equations, which combines Discontinuous Galerkin method in space (DGFEM) with Time discontinuous Galerkin method (TDG). Nonlinearity of the problem is overcome by damped Newton-like method. This approach provides easy adaptivity manipulation as well as high order approximation with respect to both space and time variables. The second part of the thesis is focused on Time discontinuous Galerkin method, applied to ordinary differential equations. It is shown that the solution of Time discontinuous Galerkin equals the solution obtained by Radau IIA implicit Runge-Kutta method in the roots of right Radau Quadrature. By virtue of this relation, error estimates of the order higher by one than the standard order can be obtained in these points. Furthermore, almost two times higher order can be achieved in the endpoints of the intervals of time discretization. Finally, the thesis deals with the phenomenon of stiffness, which may dramatically decrease the order of the applied method. The theoretical results are verified by numerical experiments. Powered by TCPDF (www.tcpdf.org)
243

K efektivním numerickým výpočtům proudění nenewtonských tekutin / Towards efficient numerical computation of flows of non-Newtonian fluids

Blechta, Jan January 2019 (has links)
In the first part of this thesis we are concerned with the constitutive the- ory for incompressible fluids characterized by a continuous monotone rela- tion between the velocity gradient and the Cauchy stress. We, in particular, investigate a class of activated fluids that behave as the Euler fluid prior activation, and as the Navier-Stokes or power-law fluid once the activation takes place. We develop a large-data existence analysis for both steady and unsteady three-dimensional flows of such fluids subject either to the no-slip boundary condition or to a range of slip-type boundary conditions, including free-slip, Navier's slip, and stick-slip. In the second part we show that the W−1,q norm is localizable provided that the functional in question vanishes on locally supported functions which constitute a partition of unity. This represents a key tool for establishing local a posteriori efficiency for partial differential equations in divergence form with residuals in W−1,q . In the third part we provide a novel analysis for the pressure convection- diffusion (PCD) preconditioner. We first develop a theory for the precon- ditioner considered as an operator in infinite-dimensional spaces. We then provide a methodology for constructing discrete PCD operators for a broad class of pressure discretizations. The...
244

Korrelation zwischen Siedlungsmorphologie und Migrationsverhalten: Eine Methode zur apriorischen Umwandlung vom Siedlungsraumcharakter zur sozialpsychologischen Raumqualität

Chen, Chih-Hung 17 February 2012 (has links)
Der Einfluss des Raumcharakters auf die menschliche Tätigkeit ist einer der Grundsätze der „Umwelt-Mensch-Beziehung“ – und findet sich in allen Maßstabsebenen. Zur Beschreibung des Raumcharakters auf Siedlungsmaßstabsebene wird dieser Grundsatz beispielsweise mit den Thesen kognitive Karte (E. Tolman), visuelle Wahrnehmung (J. Gibson), Raumverständlichkeit (K. Lynch) und territoriale Ansprüche (H. Hertzberger) diskutiert. Es wird bisher dargelegt, dass sich das sozialpsychologische Verhalten gewissermaßen auf den Raumcharakter auf Siedlungsmaßstabsebene bezieht. Räume sind also mit ihrer sozialpsychologischen Raumqualität entsprechend zu charakterisieren. Jedoch ist nach heutigem Stand der Siedlungsraumcharakter hinsichtlich der sozialpsychologischen Raumqualität schwierig quantitativ zu bewerten, sodass es mithilfe der empirischen bzw. subjektiven Methode nötig ist, die oben genannten Thesen praktisch zu prüfen. Da diese Arbeit die Position des Apriorismus bzw. der Naturwissenschaft bezieht, wird mithilfe des Werkzeugs Space Syntax versucht, eine apriorische bzw. relativ objektive Methode zur Prüfung dieser Thesen zu entwickeln, um den Siedlungsraumcharakter in die sozialpsychologische Raumqualität umzuwandeln. Durch diese Methode können städtebauliche Maßnahmen zur Lösung der sozialen bzw. sozialpsychologischen Probleme in vorhandenen Siedlungen oder zur Vermeidung dieser Probleme bei Siedlungsneubau vorgeschlagen werden. In dieser Arbeit wird die Methode durch eine Grundtypenanalyse von Siedlungsmorphologien hinsichtlich der jeweiligen sozialpsychologischen Raumqualität musterhaft aufgebaut. Die Stadt Raunheim im Ballungsraum Frankfurt/Rhein-Main, als eine Siedlung in einer wachsenden Metropolregion, wird als Beobachtungsobjekt empirisch untersucht; das Migrationsverhalten dient als sozialpsychologischer Indikator zum Beweisen der Methode.
245

Planification et analyse de données spatio-temporelles / Design and analysis of spatio-temporal data

Faye, Papa Abdoulaye 08 December 2015 (has links)
La Modélisation spatio-temporelle permet la prédiction d’une variable régionalisée à des sites non observés du domaine d’étude, basée sur l’observation de cette variable en quelques sites du domaine à différents temps t donnés. Dans cette thèse, l’approche que nous avons proposé consiste à coupler des modèles numériques et statistiques. En effet en privilégiant l’approche bayésienne nous avons combiné les différentes sources d’information : l’information spatiale apportée par les observations, l’information temporelle apportée par la boîte noire ainsi que l’information a priori connue du phénomène. Ce qui permet une meilleure prédiction et une bonne quantification de l’incertitude sur la prédiction. Nous avons aussi proposé un nouveau critère d’optimalité de plans d’expérience incorporant d’une part le contrôle de l’incertitude en chaque point du domaine et d’autre part la valeur espérée du phénomène. / Spatio-temporal modeling allows to make the prediction of a regionalized variable at unobserved points of a given field, based on the observations of this variable at some points of field at different times. In this thesis, we proposed a approach which combine numerical and statistical models. Indeed by using the Bayesian methods we combined the different sources of information : spatial information provided by the observations, temporal information provided by the black-box and the prior information on the phenomenon of interest. This approach allowed us to have a good prediction of the variable of interest and a good quantification of incertitude on this prediction. We also proposed a new method to construct experimental design by establishing a optimality criterion based on the uncertainty and the expected value of the phenomenon.
246

汽水市場廣告費用輿市場占有率關係之研究

陳君實, Chen, Jun-Shi Unknown Date (has links)
本論文主在以計量經濟的方法研究廣告費用與市場占有率的關係,廣告的延續效果(c arryover offect)及持續時間(duration interval) 為本文的研究重點。由此而衍伸 出的政策涵意則為本論文的最後目的。由敘述性(descriptive) 的了解事實真象到規 範性(normative) 的理智決策過程,即為本論文的貢獻所在。 論文架構分為下列章節:一、前言:包括研究目的、動機二、相關文獻探討:分為( 一) 事前模式(A Priori Model)( 二) 計量經濟模式(Econometric Model) 三、廣告 研究上的一些計量經濟方法四、汽水產業的實證研究:包括( 一) 模式的建立( 二) 模式的估計(三)模式的檢定,五、政策上的涵意六、建議事項,初步估計約三萬字。
247

Statistiques discrètes et Statistiques bayésiennes en grande dimension

Bontemps, Dominique 02 December 2010 (has links) (PDF)
Dans cette thèse de doctorat, nous présentons les travaux que nous avons effectués dans trois directions reliées : la compression de données en alphabet infini, les statistiques bayésiennes en dimension infinie, et les mélanges de distributions discrètes multivariées. Dans le cadre de la compression de données sans perte, nous nous sommes intéressé à des classes de sources stationnaires sans mémoire sur un alphabet infini, définies par une condition d'enveloppe à décroissance exponentielle sur les distributions marginales. Un équivalent de la redondance minimax de ces classes a été obtenue. Un algorithme approximativement minimax ainsi que des a-priori approximativement les moins favorables, basés sur l'a-priori de Jeffreys en alphabet fini, ont en outre été proposés. Le deuxième type de travaux porte sur la normalité asymptotique des distributions a-posteriori (théorèmes de Bernstein-von Mises) dans différents cadres non-paramétriques et semi-paramétriques. Tout d'abord, dans un cadre de régression gaussienne lorsque le nombre de régresseurs augmente avec la taille de l'échantillon. Les théorèmes non-paramétriques portent sur les coefficients de régression, tandis que les théorèmes semi-paramétriques portent sur des fonctionnelles de la fonction de régression. Dans nos applications au modèle de suites gaussiennes et à la régression de fonctions appartenant à des classe de Sobolev ou de régularité hölderiennes, nous obtenons simultanément le théorème de Bernstein-von Mises et la vitesse d'estimation fréquentiste minimax. L'adaptativité est atteinte pour l'estimation de fonctionnelles dans ces applications. Par ailleurs nous présentons également un théorème de Bernstein-von Mises non-paramétrique pour des modèles exponentiels de dimension croissante. Enfin, le dernier volet de ce travail porte sur l'estimation du nombre de composantes et des variables pertinentes dans des modèles de mélange de lois multinomiales multivariées, dans une optique de classification non supervisée. Ce type de modèles est utilisé par exemple pour traiter des données génotypiques. Un critère du maximum de vraisemblance pénalisé est proposé, et une inégalité oracle non-asymptotique est obtenue. Le critère retenu en pratique comporte une calibration grâce à l'heuristique de pente. Ses performances sont meilleurs que celles des critères classiques BIC et AIC sur des données simulées. L'ensemble des procédures est implémenté dans un logiciel librement accessible.
248

Sélection bayésienne de variables et méthodes de type Parallel Tempering avec et sans vraisemblance

Baragatti, Meïli 10 November 2011 (has links)
Cette thèse se décompose en deux parties. Dans un premier temps nous nous intéressons à la sélection bayésienne de variables dans un modèle probit mixte.L'objectif est de développer une méthode pour sélectionner quelques variables pertinentes parmi plusieurs dizaines de milliers tout en prenant en compte le design d'une étude, et en particulier le fait que plusieurs jeux de données soient fusionnés. Le modèle de régression probit mixte utilisé fait partie d'un modèle bayésien hiérarchique plus large et le jeu de données est considéré comme un effet aléatoire. Cette méthode est une extension de la méthode de Lee et al. (2003). La première étape consiste à spécifier le modèle ainsi que les distributions a priori, avec notamment l'utilisation de l'a priori conventionnel de Zellner (g-prior) pour le vecteur des coefficients associé aux effets fixes (Zellner, 1986). Dans une seconde étape, nous utilisons un algorithme Metropolis-within-Gibbs couplé à la grouping (ou blocking) technique de Liu (1994) afin de surmonter certaines difficultés d'échantillonnage. Ce choix a des avantages théoriques et computationnels. La méthode développée est appliquée à des jeux de données microarray sur le cancer du sein. Cependant elle a une limite : la matrice de covariance utilisée dans le g-prior doit nécessairement être inversible. Or il y a deux cas pour lesquels cette matrice est singulière : lorsque le nombre de variables sélectionnées dépasse le nombre d'observations, ou lorsque des variables sont combinaisons linéaires d'autres variables. Nous proposons donc une modification de l'a priori de Zellner en y introduisant un paramètre de type ridge, ainsi qu'une manière de choisir les hyper-paramètres associés. L'a priori obtenu est un compromis entre le g-prior classique et l'a priori supposant l'indépendance des coefficients de régression, et se rapproche d'un a priori précédemment proposé par Gupta et Ibrahim (2007).Dans une seconde partie nous développons deux nouvelles méthodes MCMC basées sur des populations de chaînes. Dans le cas de modèles complexes ayant de nombreux paramètres, mais où la vraisemblance des données peut se calculer, l'algorithme Equi-Energy Sampler (EES) introduit par Kou et al. (2006) est apparemment plus efficace que l'algorithme classique du Parallel Tempering (PT) introduit par Geyer (1991). Cependant, il est difficile d'utilisation lorsqu'il est couplé avec un échantillonneur de Gibbs, et nécessite un stockage important de valeurs. Nous proposons un algorithme combinant le PT avec le principe d'échanges entre chaînes ayant des niveaux d'énergie similaires dans le même esprit que l'EES. Cette adaptation appelée Parallel Tempering with Equi-Energy Moves (PTEEM) conserve l'idée originale qui fait la force de l'algorithme EES tout en assurant de bonnes propriétés théoriques et une utilisation facile avec un échantillonneur de Gibbs.Enfin, dans certains cas complexes l'inférence peut être difficile car le calcul de la vraisemblance des données s'avère trop coûteux, voire impossible. De nombreuses méthodes sans vraisemblance ont été développées. Par analogie avec le Parallel Tempering, nous proposons une méthode appelée ABC-Parallel Tempering, basée sur la théorie des MCMC, utilisant une population de chaînes et permettant des échanges entre elles. / This thesis is divided into two main parts. In the first part, we propose a Bayesian variable selection method for probit mixed models. The objective is to select few relevant variables among tens of thousands while taking into account the design of a study, and in particular the fact that several datasets are merged together. The probit mixed model used is considered as part of a larger hierarchical Bayesian model, and the dataset is introduced as a random effect. The proposed method extends a work of Lee et al. (2003). The first step is to specify the model and prior distributions. In particular, we use the g-prior of Zellner (1986) for the fixed regression coefficients. In a second step, we use a Metropolis-within-Gibbs algorithm combined with the grouping (or blocking) technique of Liu (1994). This choice has both theoritical and practical advantages. The method developed is applied to merged microarray datasets of patients with breast cancer. However, this method has a limit: the covariance matrix involved in the g-prior should not be singular. But there are two standard cases in which it is singular: if the number of observations is lower than the number of variables, or if some variables are linear combinations of others. In such situations we propose to modify the g-prior by introducing a ridge parameter, and a simple way to choose the associated hyper-parameters. The prior obtained is a compromise between the conditional independent case of the coefficient regressors and the automatic scaling advantage offered by the g-prior, and can be linked to the work of Gupta and Ibrahim (2007).In the second part, we develop two new population-based MCMC methods. In cases of complex models with several parameters, but whose likelihood can be computed, the Equi-Energy Sampler (EES) of Kou et al. (2006) seems to be more efficient than the Parallel Tempering (PT) algorithm introduced by Geyer (1991). However it is difficult to use in combination with a Gibbs sampler, and it necessitates increased storage. We propose an algorithm combining the PT with the principle of exchange moves between chains with same levels of energy, in the spirit of the EES. This adaptation which we are calling Parallel Tempering with Equi-Energy Move (PTEEM) keeps the original idea of the EES method while ensuring good theoretical properties and a practical use in combination with a Gibbs sampler.Then, in some complex models whose likelihood is analytically or computationally intractable, the inference can be difficult. Several likelihood-free methods (or Approximate Bayesian Computational Methods) have been developed. We propose a new algorithm, the Likelihood Free-Parallel Tempering, based on the MCMC theory and on a population of chains, by using an analogy with the Parallel Tempering algorithm.
249

The professional development of Black South Africa nurses 1908-1994 : a historical perspective

Esterhuizen, Johanna Maria 11 February 2014 (has links)
The early professional history of black South African nurses has not been the principal focus of local historians. Consequently, a qualitative historical inquiry was conducted into the available literature on the economic, social, political and cultural factors that influenced the professional development of black South African nurses from 1908–1994. Non-probability, purposive sampling assisted in assembling a corpus of historically rich data for analysis using time-specific a priori codes. The findings revealed that; culturally, black South African nurses had to adapt to a Western-dominated scientific health view; educationally, they had to master specialised formal Western terminology presented in a ‘foreign’ language (English) and, socio-politically, they had to adapt to being regarded as an elitist middle-class in the black community while remaining marginalised in the white-dominated workplace. Recommendations include expanding the historical research base, designing more effective strategies for promoting cultural sensitivity, and prioritising the focus on teaching and student retention. / Health Studies / M.A. (Health Studies)
250

Inverse problems occurring in uncertainty analysis / Inversion probabiliste bayésienne en analyse d'incertitude

Fu, Shuai 14 December 2012 (has links)
Ce travail de recherche propose une solution aux problèmes inverses probabilistes avec des outils de la statistique bayésienne. Le problème inverse considéré est d'estimer la distribution d'une variable aléatoire non observée X à partir d'observations bruitées Y suivant un modèle physique coûteux H. En général, de tels problèmes inverses sont rencontrés dans le traitement des incertitudes. Le cadre bayésien nous permet de prendre en compte les connaissances préalables d'experts en particulier lorsque peu de données sont disponibles. Un algorithme de Metropolis-Hastings-within-Gibbs est proposé pour approcher la distribution a posteriori des paramètres de X avec un processus d'augmentation des données. A cause d'un nombre élevé d'appels, la fonction coûteuse H est remplacée par un émulateur de krigeage (métamodèle). Cette approche implique plusieurs erreurs de natures différentes et, dans ce travail,nous nous attachons à estimer et réduire l'impact de ces erreurs. Le critère DAC a été proposé pour évaluer la pertinence du plan d'expérience (design) et le choix de la loi apriori, en tenant compte des observations. Une autre contribution est la construction du design adaptatif adapté à notre objectif particulier dans le cadre bayésien. La méthodologie principale présentée dans ce travail a été appliquée à un cas d'étude en ingénierie hydraulique. / This thesis provides a probabilistic solution to inverse problems through Bayesian techniques.The inverse problem considered here is to estimate the distribution of a non-observed random variable X from some noisy observed data Y explained by a time-consuming physical model H. In general, such inverse problems are encountered when treating uncertainty in industrial applications. Bayesian inference is favored as it accounts for prior expert knowledge on Xin a small sample size setting. A Metropolis-Hastings-within-Gibbs algorithm is proposed to compute the posterior distribution of the parameters of X through a data augmentation process. Since it requires a high number of calls to the expensive function H, the modelis replaced by a kriging meta-model. This approach involves several errors of different natures and we focus on measuring and reducing the possible impact of those errors. A DAC criterion has been proposed to assess the relevance of the numerical design of experiments and the prior assumption, taking into account the observed data. Another contribution is the construction of adaptive designs of experiments adapted to our particular purpose in the Bayesian framework. The main methodology presented in this thesis has been applied to areal hydraulic engineering case-study.

Page generated in 0.2783 seconds