• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 96
  • 30
  • 8
  • 1
  • Tagged with
  • 135
  • 46
  • 43
  • 24
  • 20
  • 19
  • 19
  • 19
  • 14
  • 14
  • 14
  • 13
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modélisation du smile de volatilité pour les produits dérivés de taux d'intérêt / Multi factor stochastic volatility for interest rates modeling

Palidda, Ernesto 29 May 2015 (has links)
L'objet de cette thèse est l'étude d'un modèle de la dynamique de la courbe de taux d'intérêt pour la valorisation et la gestion des produits dérivées. En particulier, nous souhaitons modéliser la dynamique des prix dépendant de la volatilité. La pratique de marché consiste à utiliser une représentation paramétrique du marché, et à construire les portefeuilles de couverture en calculant les sensibilités par rapport aux paramètres du modèle. Les paramètres du modèle étant calibrés au quotidien pour que le modèle reproduise les prix de marché, la propriété d'autofinancement n'est pas vérifiée. Notre approche est différente, et consiste à remplacer les paramètres par des facteurs, qui sont supposés stochastiques. Les portefeuilles de couverture sont construits en annulant les sensibilités des prix à ces facteurs. Les portefeuilles ainsi obtenus vérifient la propriété d’autofinancement / This PhD thesis is devoted to the study of an Affine Term Structure Model where we use Wishart-like processes to model the stochastic variance-covariance of interest rates. This work was initially motivated by some thoughts on calibration and model risk in hedging interest rates derivatives. The ambition of our work is to build a model which reduces as much as possible the noise coming from daily re-calibration of the model to the market. It is standard market practice to hedge interest rates derivatives using models with parameters that are calibrated on a daily basis to fit the market prices of a set of well chosen instruments (typically the instrument that will be used to hedge the derivative). The model assumes that the parameters are constant, and the model price is based on this assumption; however since these parameters are re-calibrated, they become in fact stochastic. Therefore, calibration introduces some additional terms in the price dynamics (precisely in the drift term of the dynamics) which can lead to poor P&L explain, and mishedging. The initial idea of our research work is to replace the parameters by factors, and assume a dynamics for these factors, and assume that all the parameters involved in the model are constant. Instead of calibrating the parameters to the market, we fit the value of the factors to the observed market prices. A large part of this work has been devoted to the development of an efficient numerical framework to implement the model. We study second order discretization schemes for Monte Carlo simulation of the model. We also study efficient methods for pricing vanilla instruments such as swaptions and caplets. In particular, we investigate expansion techniques for prices and volatility of caplets and swaptions. The arguments that we use to obtain the expansion rely on an expansion of the infinitesimal generator with respect to a perturbation factor. Finally we have studied the calibration problem. As mentioned before, the idea of the model we study in this thesis is to keep the parameters of the model constant, and calibrate the values of the factors to fit the market. In particular, we need to calibrate the initial values (or the variations) of the Wishart-like process to fit the market, which introduces a positive semidefinite constraint in the optimization problem. Semidefinite programming (SDP) gives a natural framework to handle this constraint
12

Du recrutement au lobbying: une étude de l'utilisation du marketing politique par les groupes d'intérêt au Québec

Lemieux, Patrick 08 1900 (has links)
L’objectif de ce mémoire est double. D’une part, il vise à proposer un cadre d’analyse novateur permettant d’étendre le modèle du marketing politique, traditionnellement limité au cas des partis politiques, en l’appliquant aux stratégies de recrutement (en amont) et de lobbying (en aval) des groupes d’intérêt. D’autre part, il a pour but de donner un nouveau souffle à l’étude des groupes d’intérêt en tant que sous-champ de la science politique en situant leur action dans une perspective dynamique et stratégique. De façon plus spécifique, cette recherche vise à évaluer, à l’aide de deux hypothèses, le degré de déploiement global de l’approche marketing chez les groupes d’intérêt au Québec et à comparer son niveau de pénétration spécifique au sein des différentes organisations. La première hypothèse avance que le degré de déploiement global du marketing politique auprès des groupes d’intérêt québécois s’avère relativement faible en raison d’un certain nombre de facteurs contextuels qui ont historiquement limité son intégration au sein de leurs stratégies de recrutement et de lobbying. La seconde hypothèse affirme pour sa part que le niveau de pénétration spécifique de l’approche marketing est limité à certaines organisations et varie en fonction de certains facteurs qui peuvent s’avérer contradictoires. Les données recueillies lors d’entrevues menées auprès de douze des principaux groupes d’intérêt actifs à l’échelle du Québec tendent à confirmer les deux hypothèses. / The goal of this paper is twofold. On the one hand, it aims to offer an innovative analytical framework for extending the model of political marketing, traditionally limited to the case of political parties, by applying it to the recruitment (upstream) ad lobbying (downstream) strategies of interest groups. On the other hand, it aims to give new impetus to the study of interest groups as a subfield of political science by placing their actions in a dynamic and strategic perspective. In more specific terms, this research aims to assess, with two hypotheses, the overall level of deployment of the marketing approach among interest groups in Quebec and compare its specific level of penetration within the various organizations. The first hypothesis argues that the degree of penetration of global marketing policy with interest groups in Quebec is relatively low due to a number of contextual factors that have historically limited its integration within their recruitment strategies and lobbying. The second hypothesis assumes for his part that the level of deployment of specific marketing approach is limited to certain organizations and varies depending on certain factors which may be contradictory. The data gathered during interviews with twelve key interest groups active throughout the Quebec tend to confirm the two hypotheses. / Fonds québécois de recherche sur la société et la culture
13

Les jeunes laurentiens : jeunesse, militantisme et nationalisme dans le Canada français des années 1940

Rajotte, David January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
14

Étude de la conception collaborative de ressources numériques mathématiques au sein d’une communauté d’intérêt / The study of the collaborative design of mathematical and digital resources within a community of interest

Kocijancic Essonnier, Nataly 13 April 2018 (has links)
Notre étude porte sur la créativité sociale qui se produit lors de la conception collaborative de ressources numériques favorisant la pensée mathématique créative, dans le cadre du projet européen MC Squared (http://www.mc2-project.eu/) visant à développer un environnement socio-technologique pour la conception de ressources. Nous nous concentrons sur deux aspects. D'une part, nous explorons les facteurs qui déclenchent ou entravent la créativité sociale chez les concepteurs. D'autre part, nous étudions les relations entre les systèmes de ressources des concepteurs et les connaissances professionnelles et les choix qu'ils font dans la conception des ressources numériques. Nous nous appuyons sur la théorie de l'activité et la théorie du franchissement de frontières pour étudier l'activité de conception collaborative de ces ressources par une communauté d’intérêt, et sur l'approche documentaire du didactique pour étudier la genèse documentaire liée à la conception collaborative des ressources. Notre méthodologie s'appuie sur deux études de cas, à savoir la conception de deux ressources différentes visant à enseigner et à apprendre l'algèbre élémentaire et la modélisation mathématique respectivement / Our study bring to the fore social creativity that occurs during the collaborative design of digital resources fostering creative mathematical thinking elaborated within the framework of the MC Squared European project (http://www.mc2-project.eu/) aiming at developing a socio-technological environment for design. We focus on two aspects. On the one hand, we explore factors that trigger, or hinder, social creativity among the designers. On the other hand, we investigate the relations between the designers’ resource systems and professional knowledge and the choices they make in the design of digital resources. We draw on activity theory and the theory of boundary crossing to study the activity of the resource design by community of interest, and on the documentational approach to didactics to investigate the documentational genesis related to the resource design. Our methodology relies on two case studies, namely the design of two different resources aiming at teaching and learning elementary algebra and mathematical modelling respectively
15

Groupes d'intérêt et décision économique publique au Liban depuis 1943 : cas des politiques fiscale et de change / Interest groups and public economic decision in Lebanon since 1943 : case of tax and exchange rate policies

Alameddine, Nana 21 September 2018 (has links)
Si l'idée de l'Etat fragmentaire, voire de la désintégration de la place de l'Etat au centre de la décision publique, s'est développée récemment dans les Etats modernes suite à la mondialisation, la particularité du Liban indépendant est qu'il a été créé en 1943 comme Etat segmentaire. Subséquemment, la problématique de la décision économique publique au Liban, notamment la place de l'Etat en son centre s'est imposée depuis l'indépendance avec une grande ampleur, précisément avec le choix du confessionnalisme politique (1943) et, plus tard (1948), du libéralisme économique comme systèmes de gouvernance politique et économique pour le jeune Etat. Cette thèse s'efforce d'analyser la formulation des politiques économiques dans le pays depuis 1943 jusqu’à fin 2016, par le truchement de l'approche des réseaux d'action publique. Le réseau de la décision économique publique dans le pays tel que constitué depuis l'indépendance et qui a subi peu de transformations, sera ainsi le facteur d'influence le plus adéquat pour expliquer le choix des politiques économiques au Liban, par conséquent comprendre et analyser le contenu de ces politiques. En identifiant les acteurs du réseau de la décision économique dans le pays, leurs caractéristiques, leurs rapports de force, stratégies d'action et interactions avec le contexte exogène socio-politico-économique, nous avons essayé de comprendre pourquoi les politiques économiques au Liban répondent-elles davantage à des intérêts catégoriels qu'à l'intérêt général. Les politiques fiscale et de change dans le pays seraient dès lors interprétées et analysées comme extrants naturels du réseau de la décision économique publique au Liban. Un réseau qui s'approche du model du réseau clientéliste d'action publique avec des particularités retenues pour le cas libanais. / If the idea of fragmentary state, or even of the disintegration of the state's place at the center of public decision-making, has developed recently in modern states following globalization, the particularity of independent Lebanon is that it was created in 1943 as a segmental state. Subsequently, the problem of public economic decision-making in Lebanon, especially the state's place at its center, has been imposed since independence with great amplitude, precisely with the choice of political confessionalism (1943) and later on economic liberalism (1948), as political and economic governance systems for the young state. This thesis attempts to analyze the formulation of economic policies in the country since 1943, until the end of 2016, by adopting the policy network approach. The public economic decision-making network in the country as constituted since independence, and which underwent little transformations, will thus be the most suitable factor of influence to explain the choice of economic policies in Lebanon, therefore to understand and analyze these policies content. By identifying the actors of the economic decision-making network in the country, their characteristics, their balance of power, strategies and interactions with the exogenous socio-politico-economic context, we have tried to understand why economic policies in Lebanon respond more to categorical interests than to the general interest. Tax and exchange rate policies in the country would therefore be interpreted and analyzed as natural outputs of the public economic decision-making network in Lebanon. A network that approaches the clientelist model of public policy network with particularities retained for the Lebanese case.
16

Détermination automatique des volumes fonctionnels en imagerie d'émission pour les applications en oncologie

Hatt, Mathieu 03 December 2008 (has links) (PDF)
Une des principales causes d'erreur en analyse semi-quantitative en imagerie par émission de positons (TEP) est la méthode utilisée pour déterminer les volumes d'intérêt sur les images fonctionnelles. Ceci concerne le diagnostic et le suivi thérapeutique en oncologie ainsi que la nouvelle application en plein développement qu'est la radiothérapie guidée par l'image. La faible qualité des images d'émission, liée notamment au bruit et au flou induits par les effets de volume partiels et la variabilité des protocoles d'acquisition et de reconstruction des images, ainsi que le grand nombre de procédures proposées pour définir les volumes, en sont la cause. La plupart des méthodes proposées jusqu'alors sont basées sur des seuillages déterministes, peu robustes au bruit et aux variations de contraste et incapables de gérer les hétérogénéités dans la distribution d'activité des tumeurs. L'objectif de cette thèse est de proposer une approche de segmentation des images 3D, automatique, robuste, précise et reproductible pour déterminer le volume fonctionnel des tumeurs de toutes tailles dont la distribution d'activité peut être très hétérogène. L'approche proposée est fondée sur la segmentation statistique des images, couplée à une modélisation floue, permettant de prendre en compte à la fois l'aspect bruité et l'aspect flou des images de médecine nucléaire. Elle fait appel à une étape d'estimation itérative des paramètres et une modélisation locale du voxel et de son voisinage pour l'estimation et la segmentation. Les méthodes développées ont été évaluées sur de nombreuses données simulées et réelles, tant pour des images de fantômes que pour des images de tumeurs. Les résultats sur fantôme ont permis de valider les performances de l'approche proposée en terme de taille d'objet d'intérêt, jusqu'à 13 mm de diamètre (environ deux fois la résolution spatiale en TEP), ainsi que de confirmer un comportement plus robuste par rapport au bruit, aux variations de contraste ou des paramètres d'acquisition et de reconstruction, que les méthodes de référence basées sur des seuillages. Les résultats obtenus sur différents ensemble de données d'images cliniques de tumeurs, fournies par différents services de médecine nucléaire dans le cadre de multiples collaborations, ont montré la capacité de l'approche à segmenter avec précision des tumeurs complexes, tant en terme de forme que de distribution d'activité, pour lesquelles les méthodes de référence échouent à produire des segmentation cohérentes. La méthode de segmentation développée est également capable de définir des régions d'intérêt au sein même de la tumeur grâce à sa gestion de l'hétérogénéité de l'activité de la tumeur, là où les méthodes de références sont strictement binaires. Les résultats concernant la robustesse et la précision de l'approche sur tumeurs amènent à penser que son utilisation peut être envisagée tant dans le cadre du diagnostic et du suivi thérapeutique, que pour la définition des volumes cibles en radiothérapie, avec le potentiel d'augmenter les doses délivrées aux tumeurs tout en réduisant dans le même temps les doses délivrées aux tissus sains et aux organes à risque environnants, conformément au principe de "dose painting". Des travaux pour évaluer l'impact effectif de la méthodologie dans le contexte de la radiothérapie ont commencé dans le cadre d'un projet ANR, avec un dépôt de brevet associé.
17

Quelques applications de la programmation des processeurs graphiques à la simulation neuronale et à la vision par ordinateur

Chariot, Alexandre 16 December 2008 (has links) (PDF)
Largement poussés par l'industrie vidéoludique, la recherche et le développement d'outils matériels destinés à la génération d'images de synthèse, tels les cartes graphiques (ou GPU, Graphics Processing Units), ont connu un essor formidable ces dernières années. L'augmentation de puissance et de
18

Etude expérimentale de la fragmentation des molécules adénine et porphyrine induite par collisions avec des ions multichargés à basse énergie

Li, Bin 27 August 2010 (has links) (PDF)
Ce mémoire présente une étude expérimentale de la fragmentation en phase gazeuse des biomolécules, adénine (H5C5N5) et porphyrine FeTPPCl (C44H28N4FeCl), induite par collision avec des ions à basse énergie. La distribution de population pour chaque voie de dissociation a été mesurée en fonction de l'énergie d'excitation des ions moléculaires parents avec la méthode CIDEC (Collision Induced Dissociation under Energy Control). Dans les collisions entre Cl+ à 3keV et adénine (Ade), le schéma de fragmentation de Ade2+ est dominée par la perte de H2CN+ et les émissions successives de HCN. La distribution de l'énergie des Ade2+ parents confirme la dynamique des émissions successives. Une voie de dissociation spécifique, à savoir l'émission successive de H2CN+ et HC2N2 est observée. Les schémas de fragmentation des ions moléculaires FeTPPCl1+, 2+, 3+ sont étudiés dans des collisions avec Kr8+ à 80 keV. Il est constaté qu'indépendante de l'état de charge initiale de FeTPPClr+ (r=1, 2, 3), la perte de Cl0 constitue la première étape de la chaîne de dissociation, tandis que l'état de charge initiale des molécules joue un rôle important dans les étapes suivantes de la dissociation. Dans les collisions avec H+ et F+ à 3keV, dû à un effet de fenêtre de réaction dans les processus de production d'ions négatifs, des schémas de fragmentation très différents sont observés pour FeTPPCl2+. Grâce à la mesure de l'énergie interne des molécules parents, la perte de nH2 est observée et analysée. De plus, le rendement de production d'ions négatifs, mesuré à environ 1% dans des collisions F2+-Ade à 30 keV, est étudié dans ce travail en utilisant une nouvelle approche expérimentale.
19

Mise en correspondance de pixels pour la stéréovision binoculaire par propagation d'appariements de points d'intérêt et sondage de régions

Gales, Guillaume 08 July 2011 (has links) (PDF)
La mise en correspondance stéréoscopique est un des principaux problèmes de la vi- sion par ordinateur. Elle consiste à trouver dans deux images d'une même scène, prises à des positions différentes, les couples de pixels qui sont les projections d'un même point de la scène. Durant ces vingt dernières années, de nombreuses méthodes locales et globales ont été proposées pour résoudre ce problème. Plus récemment, grâce à un pro- tocole d'évaluation de référence dans la communauté, une catégorie de méthodes fondées sur les régions a montré des performances intéressantes dans le cadre de la stéréovision binoculaire dite " small-baseline " (dont les images sont prises à des positions proches). Une contribution de ce travail porte sur un type particulier de méthode locale appelé propagation de germes. La zone de recherche des correspondants est réduite aux voisinages d'appariements fiables appelés germes, en faisant l'hypothèse que, généralement, deux pixels voisins ont des correspondants proches. Cela permet de réduire les temps de calculs et d'éviter certaines ambiguïtés. Cependant, le succès de ce type de méthode est fortement dépendant du choix de ces germes. Dans ce mémoire, nous proposons une étude de l'étape de sélection des germes. Nous nous concentrons sur la mise en correspondance de points d'intérêt. Il s'agit de points de l'image ayant des caractéristiques intéressantes pour une application donnée. Dans notre cas, nous avons besoin de pixels qui peuvent être mis en correspondance de manière sûre. Nous comparons quatorze détecteurs bien connus associés à cinq mesures de corrélation. Certaines de ces mesures sont conçues pour être robustes à un des principaux problèmes de la mise en correspondance stéréoscopique : les ruptures de profondeur. En outre, cette étude donne des conseils sur la manière de choisir les paramètres des différentes méthodes afin de trouver les meilleurs germes possibles selon des critères donnés. Ensuite, ces germes sont utilisés avec deux approches de propagation et les résultats sont évalués. Une autre contribution porte sur une nouvelle approche de mise en correspondance sté- réoscopique dense fondée sur les régions. Différentes segmentations couleur sont utilisées. Ensuite, plusieurs instances d'un modèle de surface sont calculées pour les différentes ré- gions selon des disparités initiales tirées au sort. Pour chaque pixel, chaque instance donne une disparité qui est considérée comme un vote. Finalement, la disparité qui reçoit le plus de voix est sélectionnée comme disparité finale. Cette approche est relativement simple à implémenter et s'avère efficace en donnant des résultats compétitifs vis-à-vis de l'état de l'art.
20

Modélisation et gestion de concepts, en particulier temporels, pour l'assistance à la caractérisation de séquences d'images.

Simac, Alain 14 June 2011 (has links) (PDF)
Les techniques habituelles d'indexation de vidéos passent généralement par une phase d'apprentissage qui nécessite préalablement la constitution d'une base d'apprentissage. Même si la taille de cette base est souvent réduite, la phase d'annotation réalisée par un expert de l'application est souvent longue et fastidieuse. Dans le cadre de cette thèse, nous avons développé un dispositif qui permet de pré-sélectionner un ensemble de prototypes susceptibles de contenir le concept qui doit apparaître dans la base d'apprentissage. Cette base réduite de prototypes sera ensuite annotée par l'expert. Nous nous sommes intéressés à des concepts temporels, ce qui nous a amené à étudier particulièrement des caractéristiques liées au mouvement, comme les points d'intérêt spatio-temporels (STIP Spatial Temporal Interest Points). D'autres caractéristiques ont aussi été utilisées concernant la couleur et la présence de formes particulières. Ces caractéristiques sont ensuite exploitées pour structurer la base de vidéos en briques spatio-temporelles homogènes. Cette structuration correspond à une sorte de segmentation de la base en fonction de chacune des caractéristiques. La liaison entre le concept à définir et les briques extraites de la base est en lien avec le fossé sémantique bien connu dans la problématique d'indexation automatique. La création de ce lien nécessite l'utilisation de la connaissance de l'expert de l'application sur le concept. Nous avons développé un système dans lequel cette connaissance est extraite par un système de questions/réponses. Les couples de questions/réponses permettent de sélectionner des briques répondant à la contrainte, de définir des relations entre certaines briques, et en- fin de naviguer dans l'arborescence des questions. Des tests ont été réalisés sur des bases de vidéos de provenances diverses telles que des vidéos provenant d'émissions de télévision, de films d'animation, ou encore des vidéos de laboratoire disponibles sur le net, ou réalisées par nos soins. Ces tests montrent les performances satisfaisantes mais aussi les limites de l'approche et ouvrent des perspectives intéressantes, particulièrement sur les aspects collaboratifs et les aspects adaptatifs qui permettraient de capitaliser les connaissances des experts applicatifs et rendraient le système plus efficient.

Page generated in 0.0893 seconds