• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 255
  • 138
  • 33
  • 27
  • 13
  • 12
  • 9
  • 9
  • 4
  • 4
  • 4
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 516
  • 188
  • 97
  • 51
  • 47
  • 42
  • 38
  • 37
  • 36
  • 35
  • 34
  • 33
  • 30
  • 27
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Apport de la modélisation tridimensionnelle à la compréhension du fonctionnement des sépultures multiples : l'exemple du secteur central de la catacombe des Saints Pierre-et-Marcellin (Rome, Italie) (Ier-milieu IIIe s. ap. J.-C.) / Contribution of three-dimensional modeling to understand the operation of multiple burials : the example of the central sector of the catacomb of Saints Peter and Marcellinus (Rome, Italy) (Ist-IIId s A.D)

Sachau-Carcel, Géraldine 12 October 2012 (has links)
Cette thèse se propose de mettre au point, grâce aux nouveaux outils informatiques, une méthode d’étude originale de l’espace funéraire en offrant une restitution tridimensionnelle de la sépulture, de l’architecture aux sujets. La découverte en 2003, d’un secteur de la catacombe des Saints Pierre-et-Marcelin (Rome, Italie), encore inexploré et original dans son organisation, a initié ce travail. Plusieurs tombes, datées des Ier-IIIe s. ap. J.-C, accueillent une succession de dépôts d’un grand nombre d’inhumés. La complexité des ensembles funéraires de ce secteur a nécessité le recours à de nouvelles formes de représentation pour l’analyse. L’objectif de cette thèse est d’établir un protocole de modélisation des sépultures multiples adapté à la stratification complexe des dépôts. Nos recherches ont porté, dans un premier temps sur l’élaboration et le test d’un processus de modélisation adaptés aux deux tombes étudiées et dans un second temps sur l’analyse des temps chronologiques et de la gestion des dépôts. Nos recherches ont abouti à la mise au point d’une méthodologie d’acquisition et de restitution de l’ensemble des vestiges osseux, de l’appareil funéraire et de l’espace funéraire. La modélisation 3D a permis par la visualisation tridimensionnelle une étude fine individuelle, une analyse des relations entre les différents sujets et de l’évolution taphonomique des dépôts confirmant la simultanéité des dépôts au sein des niveaux et entre les niveaux en rapport avec une crise de mortalité.L’application d'un protocole d'enregistrement puis de restitutions sur cette catacombe pourra contribuer à l'élaboration d'une méthode pour l'approche des sépultures plurielles. / The aim of this thesis is to perform, with the help of new informatics tools, an original study method of funerary space and offers a three-dimensional modelling of burial from architecture to individuals. This work was initiated by the discovery in 2003 of Saint Peter and Marcellinus catacombs parts, unexplored and original in its organisation. Several tombs, dated of 1st-3rd s A.D, received many buried. The complexity of tombs of central sector catacombs needs a new type of representation for analysis. The thesis goal is to establish a modelling process for several burials, adapt with deposit complex stratification. At first, our study was about the conception and the test of a modelling protocol adapted to the two study tombs, and after, to analyze chronological times and deposit management. Our research has result to acquisition and restitution process development of all human remains, funerary device and funerary space. The 3D modelling permits by the 3D visualisation, an advanced study, analyses of relations between different individuals and taphonomic evolution of deposit which confirmed the simultaneous deposit into levels and between levels linked to death's crisis.The application of a record protocol then restitution on these catacombs must contribute to a conception method for the approach of plural burials.
162

Ocenenie Volkswagen Group / Valuation of Volkswagen Group

Šusták, Tomáš January 2010 (has links)
Objective of the thesis is determination of Volkswagen Group's equity intrinsic value. Basic starting point of the analysis is seggregation of consolidated financial statements into financial and production division, which are valuated separately. The production division is valuated using both enterprise discounted cashflow and discounted economic profit analysis. Equity cashflow valuation is used to derive value of the financial division. Results of valuation implied by income approach are then compared with market multiples valuation.
163

Energetic-lattice based optimization / L’optimization par trellis-énergetique

Kiran, Bangalore Ravi 31 October 2014 (has links)
La segmentation hiérarchique est une méthode pour produire des partitions qui représentent une même image de manière de moins en moins fine. En même temps, elle sert d'entrée à la recherche d'une partition optimale, qui combine des extraits des diverses partitions en divers endroits. Le traitement hiérarchique des images est un domaine émergent en vision par ordinateur, et en particulier dans la communauté qui étudie les images hyperspectrales et les SIG, du fait de son capacité à structurer des données hyper-dimensionnelles. Le chapitre 1 porte sur les deux concepts fondamentaux de tresse et de treillis énergétique. La tresse est une notion plus riche que celle de hiérarchie de partitions, en ce qu'elle incorpore, en plus, des partitions qui ne sont pas emboîtées les unes dans les autres, tout en s'appuyant globalement sur une hiérarchie. Le treillis énergétique est une structure mixte qui regroupe une tresse avec une énergie, et permet d'y définir des éléments maximaux et minimaux. Lorsqu'on se donne une énergie, trouver la partition formée de classes de la tresse (ou de la hiérarchie) qui minimise cette énergie est un problème insoluble, de par sa complexité combinatoriale. Nous donnons les deux conditions de h-croissance et de croissance d'échelle, qui garantissent l'existence, l'unicité et la monotonie des solutions, et conduisent à un algorithme qui les détermine en deux passes de lecture des données. Le chapitre 2 reste dans le cadre précédent, mais étudie plus spécifiquement l'optimisation sous contrainte. Il débouche sur trois généralisations du modèle Lagrangien. Le chapitre 3 applique l'optimisation par treillis énergétique au cas de figure où l'énergie est introduite par une « vérité terrain », c'est à dire par un jeu de dessins manuel, que les partitions optimales doivent serrer au plus près. Enfin, le chapitre 4 passe des treillis énergétiques à ceux des courbes de Jordan dans le plan euclidien, qui définissent un modèle continu de segmentations hiérarchiques. Il permet entre autres de composer les hiérarchies avec diverses fonctions numériques / Hierarchical segmentation has been a model which both identifies with the construct of extracting a tree structured model of the image, while also interpreting it as an optimization problem of the optimal scale selection. Hierarchical processing is an emerging field of problems in computer vision and hyper-spectral image processing community, on account of its ability to structure high-dimensional data. Chapter 1 discusses two important concepts of Braids and Energetic lattices. Braids of partitions is a richer hierarchical partition model that provides multiple locally non-nested partitioning, while being globally a hierarchical partitioning of the space. The problem of optimization on hierarchies and further braids are non-tractable due the combinatorial nature of the problem. We provide conditions, of h-increasingness, scale-increasingness on the energy defined on partitions, to extract unique and monotonically ordered minimal partitions. Furthermore these conditions are found to be coherent with the Braid structure to perform constrained optimization on hierarchies, and more generally Braids. Chapter 2 demonstrates the Energetic lattice, and how it generalizes the Lagrangian formulation of the constrained optimization problem on hierarchies. Finally in Chapter 3 we apply the method of optimization using energetic lattices to the problem of extraction of segmentations from a hierarchy, that are proximal to a ground truth set. Chapter 4 we show how one moves from the energetic lattice on hierarchies and braids, to a numerical lattice of Jordan Curves which define a continous model of hierarchical segmentation. This model enables also to compose different functions and hierarchies
164

Multiplar som investeringsstrategi : En kvantitativ studie om bolag på Stockholmsbörsen mellan åren 2008- 2018 / Multiples as an investment strategy : A quantitative study of companies in the Stockholm Stock Exchange during 2008-2018

Öhlin, Victoria, Sakotic, Vanja January 2019 (has links)
Bakgrund: Det finns olika investeringsstrategier som investerare kan använda sig av, att investera i låga multiplar är en strategi som har studerats väl. Genom att använda sig av låga multiplar kan investerare finna undervärderade bolag som på sikt genererar en överavkastning gentemot marknaden.  Syfte: Studiens syfte är att analysera hur väl P/E, P/B, P/S, EV/EBIT, EV/EBITDA och EV/S multiplarna skulle kunna appliceras som investeringsstrategi på Stockholmsbörsen. Vidare ämnar studien åt att analysera om det är möjligt att generera en högre avkastning än vad indexet OMXSPI har avkastat under tidsperioden 2008-2018. Metod: Studien använder sig av en kvantitativ forskningsstrategi där två portföljer för respektive multipel har sammanställts. Portföljerna viktas om årligen och både den verkliga och den ackumulerade avkastningen beräknas fram. Vidare utvärderas portföljerna enligt utvärderingsmåtten Sharpekvot, M^2, Treynorkvot och Jensens Alpha. Resultat: Investeringsstrategin är implementerbar för tre av sex multiplar. Låga P/B, EV/EBIT och EV/EBITDA genererade en överavkastning och slog både index samt respektive hög portfölj. Medan för de resterande multiplarna P/E, P/S och EV/S resulterade det i att investeringsstrategin inte är implementerbar. EV/S hade den högsta riskjusterade överavkastning och presterade bäst av samtliga sex multiplar. Studieresultatet för samtliga multiplar kan statistiskt säkerställas med en signifikansnivå på 5%. Den månatliga portföljavkastningen är inte slumpmässig, utan marknadsavkastningen har en viss påverkan. / Background: There are several investment strategies investors can use, where the strategy to invest in low multiples is well studied. By using low multiples investors can find undervalued companies to generate an excess return. Previous studies have been focusing on the P/E and EV/EBITDA- multiples, and not as much on other used multiples in relative valuation. Therefore an interest exists to also analyze multiples such as P/B, P/S, EV/EBIT and EV/S. Purpose: The study’s purpose is to analyze how well the multiples P/E, P/B, P/S, EV/EBIT, EV/EBITDA and EV/S can be applied as an investment strategy in the Stockholm Stock Exchange. Furthermore the study aim to analyze the possibility to generate a higher return than the index OMXSPI during the time period 2008-2018. Method: The study uses a quantitative research strategy, where two portfolios for each multiple has been created. The portfolio has been reinvested once a year, both the real and accumulated return was calculated. Also, the portfolios’ performance has been evaluated by adjusting it to risk by using the Sharpe ratio, M^2 , Treynor ratio and Jensen’s Alpha. Result: The investment strategy can be implemented for three of six multiples. The low P/B, EV/EBIT and EV/EBITDA generated a higher return than both index and their respective high portfolio. The other multiples P/E, P/S and EV/S cannot be used as an investment strategy. The high EV/S portfolio had the highest risk adjusted excess return meanwhile P/S had the highest accumulated return. The result of all multiples has been found to be statistically significant, therefore the market return has an effect on the portfolios’ monthly return.
165

Relative and Discounted Cash Flow Valuation on Swedish Listed Companies : How applicable are the methods to companies in different industries?

Otterberg, Simon, Zetterberg, August January 2019 (has links)
The purpose of this thesis is to look at how the two widely used valuation approaches Free Cash Flow to Firm and Relative valuation can contribute to the explanation of market prices of shares. The study also aims to investigate if it is possible to find any significant differences between industries, while using the two valuation methods. There are a large number of models that are used to value assets and corporations, which have been used for a long time in the banking sector and similar contexts. It is widely known that a single valuation method or model which could predict a future stock price is hard to find or might even not exist. The study uses a quantitative method, in which we evaluated 36 Swedish companies, to be able to draw conclusions about the two valuation approaches. Our results suggest that the calculated prices obtained from the two methods correlate with the market price of the share, and that the result differ between different industries.
166

Diagnostic de fonctionnement par analyse en composantes principales : application à une station de traitement des eaux usées / Fault diagnosis using principal component analysis : application to a wastewater treatment plant

Tharrault, Yvon 11 December 2008 (has links)
L’objectif de cette thèse était de valider l’ensemble des informations délivrées par les capteurs utiles à la commande d’une station de traitement des eaux usées. Pour cela, nous avons utilisé l’analyse en composantes principales (ACP) pour effectuer la détection et localisation de défauts de capteurs de la station de traitement des eaux usées. Afin de construire un modèle ACP, nous avons eu recours à une matrice de données constituée de l’ensemble des mesures disponibles (obtenues lors du fonctionnement normal de la station de traitement des eaux usées) dans l’installation. Cependant, afin d’appliquer l’ACP, nous avons rencontré plusieurs difficultés : 1. Présence dans les données de valeurs aberrantes (valeurs obtenues durant des périodes de démarrage, d’arrêt, de fonctionnement dégradé, erreurs de mesure, ...) perturbant la construction d’un modèle ACP. 2. Présence de défauts multiples, ce qui entraîne une explosion combinatoire des scénarii de défauts à considérer. Afin de résoudre le premier point, nous nous sommes intéressé aux variantes robustes de l’ACP. L’estimateur robuste MCD (Minimum Covariance Determinant), méthode de référence pour ses performances, nécessite un temps de calcul important, et une connaissance a priori de la quantité de valeurs aberrantes présente dans les données (inconnue). C’est la raison pour laquelle nous avons proposé une nouvelle méthode robuste, basée sur l’utilisation de MM-estimateur, nommée MMRPCA (MM-estimator Robust Principal Component Analysis). Concernant le point 2, une méthode d’analyse du modèle en terme de capacité de détection et de localisation a été appliquée afin de réduire le nombre de défauts à considérer. Les différentes méthodes développées ont été menées avec succès afin de valider les mesures issues des différents capteurs de la station d’épuration des eaux usées / This thesis deals with the validation of the information provided by the sensors to the control of a wastewater treatment plant. For this purpose, Principal Component Analysis (PCA) approach is used in order to accomplish sensor fault detection and isolation of the wastewater treatment plant. This approach is well adapted to cope with diagnosis of complex systems because no a priori theoretical model of the plant must be considered. A data matrix, obtained by taking into consideration the available measurements in normal behaviour of the wastewater treatment plant, is used in order to build a PCA model. However, two major problems must be taking into consideration when PCA is implemented: 1. Outliers appear naturally in the collection data (caused for example by faulty data, data obtained during shutdown or startup periods or data issued from different operating mode) and consequently the PCA model can seriously be affected. 2. Multiple sensor faults introduce unavoidably a combinatory explosion of the different fault scenarios to be considered. The first problem is solved by introducing a robustness degree in the PCA methodology. Among the existing robust methods proposed in the literature, the robust estimator MCD (Minimum Covariance Determinant) is the most popular. However, this method needs a large computing time on the one hand and a priori knowledge of the quantity of outliers present (generally unknown) in the data on the other hand. To avoid these difficulties, a new robust method is proposed in this thesis. Our method, namely MMRPCA (MM-estimator Robust Principal Component Analysis), is based on MM-estimators. The second mentioned problem is tackled by reducing the considered number of faults thanks to a new analysis method of the capacities of detection and isolation of the PCA model. The efficiency of the proposed methodologies is verified by considering the real wastewater treatment plant data
167

Méthodes optimistes d’apprentissage actif pour la classification / Optimistic Methods in Active Learning for Classification

Collet, Timothé 11 July 2016 (has links)
La classification se base sur un jeu de données étiquetées par un expert. Plus le jeu de données est grand, meilleure est la performance de classification. Pourtant, la requête à un expert peut parfois être coûteuse. Le but de l'apprentissage actif est alors de minimiser le nombre de requêtes à l'expert. La collection des données non-étiquetées reste aisée cependant et illimitée, il est donc nécessaire de faire un choix sur les données à annoter, l'idée est alors de profiter de ce choix pour maximiser les performances en ne lui fournissant que les données les plus informatives à étiqueter. Pourtant, le niveau d'informativité de chaque donnée ne peut pas être calculé exactement et ne peut être estimé qu'à une incertitude près. Améliorer la précision de l'estimation nécessite d'annoter de nouvelles données. Il y a donc un dilemme entre utiliser le budget d'annotations disponible pour améliorer la performance du classifieur selon l'estimation actuelle du critère ou pour améliorer la précision sur le critère. Ce dilemme est bien connu dans le cadre de l'optimisation en budget fini sous le nom de dilemme entre exploration et exploitation. Les solutions usuelles pour résoudre ce dilemme dans ce contexte font usage du principe d'Optimisme Face à l'Incertitude. Dans cette thèse, nous montrons donc qu'il est possible d'adapter ce principe au problème d'apprentissage actif pour la classification. Pour cela, plusieurs algorithmes ont été être développés pour des classifieurs de complexité croissante, chacun utilisant le principe de l'Optimisme Face à l'Incertitude, et leurs résultats ont été évalués empiriquement / A Classification problem makes use of a training set consisting of data labeled by an oracle. The larger the training set, the best the performance. However, requesting the oracle may be costly. The goal of Active Learning is thus to minimize the number of requests to the oracle while achieving the best performance. To do so, the data that are presented to the oracle must be carefully selected among a large number of unlabeled instances acquired at no cost. However, the true profitability of labeling a particular instance may not be known perfectly. It can therefore be estimated along with a measure of uncertainty. To Increase the precision on the estimate, we need to label more data. Thus, there is a dilemma between labeling data in order to increase the performance of the classifier or to better know how to select data. This dilemma is well studied in the context of finite budget optimization under the name of exploration versus exploitation dilemma. The most famous solutions make use of the principle of Optimism in the Face of Uncertainty. In this thesis, we show that it is possible to adapt this principle to the active learning problem for classification. Several algorithms have been developed for classifiers of increasing complexity, each one of them using the principle of Optimism in the Face of Uncertainty, and their performances have been empirically evaluated
168

Determinantes capazes de nortear o voto do povo brasileiro: um estudo histórico sobre o comportamento de políticos e eleitores

Zanoni, Daniela Benato 14 August 2006 (has links)
Made available in DSpace on 2017-07-21T14:42:48Z (GMT). No. of bitstreams: 1 Daniela Benato Zanoni.pdf: 1533121 bytes, checksum: 0a098208502d2477e85ef90763956869 (MD5) Previous issue date: 2006-08-14 / The conquering of democracy in Brazil legitimated through the Constitution of 1988, signified the growth of commom autonomy related to political questions and the selection of leaders through election, and was, without a doubt a huge step which effects commom sovereignty and liberty. However, our highly acclaimed democratization was implemented in a country where political culture is deep-rooted in proslavery, patrimonialism, coronelism, that is, we have a framework of a disturbed political history, where to circunvent the law, norms, defraud elections, buy votes, is something which has always occurred with a certain naturalness. The time of election is still seen by some as a time where you have the opportunity to obtain favours or goods in exchange for your vote. Besides, we can still observe that many people vote without even knowing the inherent function of each cargo in office, for example, the function of a Federal Representative or of a Senator. The choice of a voter to vote in a particular candidate or not, can be influenced by the church, school, media, family, though campaign promises, through the candidate s carisma or even the lifestyle in which the voter finds himself in. There are multiples determinants that are capable of guiding a vote, and our study deals exactly with these aspects, which starts recapitulating a little of our political culture and the democratization of the country, that is, the basis where our present day Brazil is resting and ends with a field research, which portraies the behavior of the voters of the city of Ponta Grossa. / A conquista da democracia no Brasil, legitimada através da Constituição de 1988, significou o crescimento da autonomia popular no que se refere a questões políticas e à escolha dos governantes através do voto direto, e foi sem dúvida um grande passo no que tange a soberania e liberdade popular. No entanto, a nossa tão aclamada democratização foi implementada em um país cuja cultura política é arraigada no escravismo, no patrimonialismo, no coronelismo, ou seja, temos um arcabouço histórico-político bastante conturbado, onde burlar leis, normas, fraudar eleições, comprar votos foi algo que sempre ocorreu com uma certa naturalidade. O período de eleição ainda é visto por alguns como o momento em que se tem a oportunidade de obter favores ou algo material em troca do voto. Além disso, ainda podemos observar que muitos eleitores votam sem ao menos ter conhecimento sobre a função inerente a cada cargo público, como por exemplo, a função de um Deputado Federal ou de um Senador. A escolha de um eleitor em votar em um determinado candidato ou não, pode ser influenciada pela igreja, escola, mídia, família, por promessas de campanha, pelo carisma do candidato ou ainda pelas condições de vida em que se encontra esse eleitor. São múltiplos os determinantes capazes de nortear o voto, e trata justamente desses aspectos o nosso estudo neste trabalho, que começa recapitulando um pouco da nossa cultura política e da democratização do país, ou seja, a base onde está repousando o nosso Brasil de hoje e se encerra com uma pesquisa de campo, a qual retrata o comportamento dos eleitores da cidade de Ponta Grossa.
169

Contributions à l'étude de quelques fonctionnelles stochastiques

Breton, Jean-Christophe 26 June 2009 (has links) (PDF)
Ce mémoire est une présentation de contributions à l'étude de fonctionnelles stochastiques. Ces contributions comportent à la fois des analyses théoriques des lois des fonctionnelles (régularité, inégalités de déviation, théorèmes limites), et des études de modèles motivés par les applications (mathématiques financières, modèles de boules aléatoires). Le mémoire est organisé selon trois thèmes principaux que nous décrivons brièvement. Dans une première partie, les lois de différents types d'intégrales stochastiques (stable, Wiener-Itô, Poisson) sont étudiées. En considérant les intégrales comme des fonctionnelles sur l'espace des trajectoires de processus naturellement associés aux mesures aléatoires d'intégration, nous analysons la régularité des lois (existence de densité, convergence en variation par rapport aux fonctions intégrées). La deuxième partie est consacrée à des inégalités sur les lois de probabilités. Les premières sont des inégalités de concentration qu'on propose pour des fonctionnelles sur l'espace de Poisson lorsque le gradient (de type différence) satisfait certaines bornes. Nos résultats sont spécialisés pour de nombreuses classes de fonctionnelles (parmi lesquelles~: des vecteurs d'intégrales de Poisson, des fonctionnelles de Wiener quadratiques, des fonctionnelles stables). Les secondes sont des inégalités de comparaison convexe pour des exponentielles stochastiques ou des vecteurs à représentation prévisible. Des applications aux bornes de prix d'options financières sont également considérées. La troisième partie regroupe différents théorèmes limites pour différentes convergences et différents objets. Des convergences en variation sont obtenues pour des processus empiriques en renforçant des principes d'invariance, et pour les variations d'Hermite du mouvement brownien fractionnaire en obtenant des résultats de type Berry-Esséen. Dans des modèles de boules aléatoires et de mots aléatoires, ce sont des fluctuations en lois de fonctionnelles d'intérêt que nous analysons.
170

Etude des processus durs dans les collisions proton-proton et noyau-noyau aux énergies LHC

Porteboeuf, Sarah 21 September 2009 (has links) (PDF)
Les collisions de particules à très hautes énergies sont un moyen de sonder la matière au niveau de ses composants les plus élémentaires : les partons (quarks et gluons). Les collisions d'ions lourds ultra-relativistes produisent dans le même événement le Plasma de Quarks et de Gluons (QGP) et des interactions élémentaires de type parton-parton. Ces interactions, appelés processus durs, proviennent de l'état initial et produisent des partons de hautes impulsions transverses qui vont fragmenter en hadrons détectables (jets). Avant la fragmentation, les partons sont susceptibles d'interagir avec le QGP, modifiant les propriétés des hadrons produits. L'étude des processus dur sera d'un grand intérêt au LHC. La section efficace de production de jet est calculable en pQCD, en se basant sur l'hypothèse de factorisation. EPOS est un générateur d'événements dont l'objectif est de reproduire des événements directement comparables à l'expérience en décrivant aussi bien les aspects durs que les aspects mous (QGP) dans un modèle cohérent. Dans cette thèse, je détaillerai les motivations pour produire des processus durs dans un événement complet. La partie dure devant être compatible avec la pQCD. Ainsi, comme dans l'expérience la production d'un processus rare nécessite beaucoup de statistique. Je présenterais alors une méthode de coupure sur les hautes impulsions transverses permettant de produire facilement des jets de haute impulsion transverse dans le contexte des aspects mous.

Page generated in 0.0525 seconds