• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 96
  • 30
  • 8
  • 1
  • Tagged with
  • 135
  • 46
  • 43
  • 24
  • 20
  • 19
  • 19
  • 19
  • 14
  • 14
  • 14
  • 13
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Extraction et usages de motifs minimaux en fouille de données, contribution au domaine des hypergraphes

Hébert, Céline 11 September 2007 (has links) (PDF)
La découverte et l'interprétation de motifs et de règles sont deux tâches centrales en extraction de connaissances dans les bases de données. Cette thèse traite de l'extraction et des usages de motifs minimaux à la fois en fouille de données et dans le domaine des hypergraphes. D'une part, nous proposons une méthode efficace pour la découverte de motifs delta-libres dans les données larges, malgré les difficultés algorithmiques inhérentes à ce type de données. Cette méthode repose sur l'utilisation de l'extension des motifs et d'un nouveau critère d'élagage. D'autre part, nous nous intéressons à la qualité des règles d'associations et nous présentons un cadre générique qui permet de mieux comprendre les similarités et différences entre mesures. Il montre que de nombreuses mesures (appelées SBMs pour Simultaneously Bounded Measures) ont des comportements proches. Ce résultat permet de garantir des valeurs minimales pour toutes les SBMs et la production de règles de qualité par rapport à l'ensemble de ces mesures. Enfin, l'apport des méthodes de type <> pour d'autres domaines est mis en évidence. Nous montrons que notre approche de découverte de motifs dans les données larges est exploitable pour calculer efficacement les traverses minimales d'un hypergraphe, un problème réputé comme particulièrement difficile. Différentes applications, notamment en biologie, montrent l'intérêt pratique de nos méthodes.
22

Bornes garanties de l'erreur locale en élastoplasticité

Blaysat, Benoît 08 December 2011 (has links) (PDF)
Ce travail présente une méthode générale fournissant des bornes garanties de l'erreur de discrétisation sur une quantité locale issue d'un calcul éléments finis. Formulée dans un cadre général, la méthode est illustrée sur un cas 2D d'élastoplasticité. Le cadre non-linéaire de cette implémentation a soulevé des problèmes d'un type nouveau au sein de la thématique de vérification. Après avoir défini les problèmes miroir et central, nous proposons des solutions pour les résoudre.La mise en place de l'outil introduit est détaillée. Ainsi, des bornes garanties de l'erreur locale sur une composante de la déformation plastique sont calculées. Une première étude sur des cas académiques est présentée avant de s'intéresser à un cas plus complexe. Enfin une amélioration de la méthode est introduite, permettant l'obtention de bornes plus pertinentes.
23

Reconnaissance d'objets 3D par points d'intérêt

Shaiek, Ayet 21 March 2013 (has links) (PDF)
Soutenue par les progrès récents et rapides des techniques d'acquisition 3D, la reconnaissance d'objets 3D a suscité de nombreux efforts de recherche durant ces dernières années. Cependant, il reste à résoudre dans ce domaine plusieurs problématiques liées à la grande quantité d'information, à l'invariance à l'échelle et à l'angle de vue, aux occlusions et à la robustesse au bruit.Dans ce contexte, notre objectif est de reconnaitre un objet 3D isolé donné dans une vue requête, à partir d'une base d'apprentissage contenant quelques vues de cet objet. Notre idée est de formuler une méthodologie locale qui combine des aspects d'approches existantes et apporte une amélioration sur la performance de la reconnaissance.Nous avons opté pour une méthode par points d'intérêt (PIs) fondée sur des mesures de la variation locale de la forme. Notre sélection de points saillants est basée sur la combinaison de deux espaces de classification de surfaces : l'espace SC (indice de forme- intensité de courbure), et l'espace HK (courbure moyenne-courbure gaussienne).Dans la phase de description de l'ensemble des points extraits, nous proposons une signature d'histogrammes, qui joint une information sur la relation entre la normale du point référence et les normales des points voisins, avec une information sur les valeurs de l'indice de forme de ce voisinage. Les expérimentations menées ont permis d'évaluer quantitativement la stabilité et la robustesse de ces nouveaux détecteurs et descripteurs.Finalement nous évaluons, sur plusieurs bases publiques d'objets 3D, le taux de reconnaissance atteint par notre méthode, qui montre des performances supérieures aux techniques existantes.
24

Du recrutement au lobbying: une étude de l'utilisation du marketing politique par les groupes d'intérêt au Québec

Lemieux, Patrick 08 1900 (has links)
L’objectif de ce mémoire est double. D’une part, il vise à proposer un cadre d’analyse novateur permettant d’étendre le modèle du marketing politique, traditionnellement limité au cas des partis politiques, en l’appliquant aux stratégies de recrutement (en amont) et de lobbying (en aval) des groupes d’intérêt. D’autre part, il a pour but de donner un nouveau souffle à l’étude des groupes d’intérêt en tant que sous-champ de la science politique en situant leur action dans une perspective dynamique et stratégique. De façon plus spécifique, cette recherche vise à évaluer, à l’aide de deux hypothèses, le degré de déploiement global de l’approche marketing chez les groupes d’intérêt au Québec et à comparer son niveau de pénétration spécifique au sein des différentes organisations. La première hypothèse avance que le degré de déploiement global du marketing politique auprès des groupes d’intérêt québécois s’avère relativement faible en raison d’un certain nombre de facteurs contextuels qui ont historiquement limité son intégration au sein de leurs stratégies de recrutement et de lobbying. La seconde hypothèse affirme pour sa part que le niveau de pénétration spécifique de l’approche marketing est limité à certaines organisations et varie en fonction de certains facteurs qui peuvent s’avérer contradictoires. Les données recueillies lors d’entrevues menées auprès de douze des principaux groupes d’intérêt actifs à l’échelle du Québec tendent à confirmer les deux hypothèses. / The goal of this paper is twofold. On the one hand, it aims to offer an innovative analytical framework for extending the model of political marketing, traditionally limited to the case of political parties, by applying it to the recruitment (upstream) ad lobbying (downstream) strategies of interest groups. On the other hand, it aims to give new impetus to the study of interest groups as a subfield of political science by placing their actions in a dynamic and strategic perspective. In more specific terms, this research aims to assess, with two hypotheses, the overall level of deployment of the marketing approach among interest groups in Quebec and compare its specific level of penetration within the various organizations. The first hypothesis argues that the degree of penetration of global marketing policy with interest groups in Quebec is relatively low due to a number of contextual factors that have historically limited its integration within their recruitment strategies and lobbying. The second hypothesis assumes for his part that the level of deployment of specific marketing approach is limited to certain organizations and varies depending on certain factors which may be contradictory. The data gathered during interviews with twelve key interest groups active throughout the Quebec tend to confirm the two hypotheses. / Fonds québécois de recherche sur la société et la culture
25

Etude de la robustesse des graphes sociaux émergents

Lemmouchi, Slimane 26 December 2012 (has links) (PDF)
Les réseaux sont présents dans pratiquement tous les aspects de la vie. Le monde quinous entoure comporte énormément de réseaux. Par exemple, les réseaux de communicationconstitués de téléphones, les réseaux électriques, les réseaux d'ordinateurs, le réseaudes lignes aériennes, ... etc, sont autant de réseaux importants dans la vie de chaque jour.Le cadre mathématique des réseaux est bien approprié pour décrire plusieurs systèmescomposés d'un grand nombre d'entités qui interagissent entre elles. Chaque entité est représentéepar un noeud du réseau et chaque interaction par un lien entre deux noeuds. Ilest donc possible de modéliser ces réseaux par des graphes. Pour la plupart de ces réseaux,la difficulté provient principalement du grand nombre d'entités, ainsi que de la façon dontelles sont interconnectées. Une approche naturelle pour simplifier de tels systèmes consistedonc à réduire leur taille. Cette simplification n'est pas faite aléatoirement, mais de tellefaçon à ce que les noeuds de la même composante aient plus de liens entre eux qu'avec lesautres composantes. Ces groupes de noeuds ou composantes sont appelés communautésd'intérêt. Notre thèse se positionne dans le domaine de l'étude des graphes sociaux. Elle s'intéresseprincipalement à l'étude de la robustesse des structures sociales émergentes dansles réseaux d'interactions. L'aspect de la robustesse des réseaux constitue un challengetrès important pour comprendre leur fonctionnement, le comportement des entités lesconstituant et surtout pour comprendre les interactions qui peuvent se produire entreelles, permettant l'émergence de certains comportements qui n'étaient pas du tout prévisiblesau préalable. Actuellement, les études de la robustesse des réseaux qui existentdans la littérature traitent cet aspect du point de vue purement structurel, i.e. toutes lesperturbations sont appliquées soit sur les noeuds, soit sur les arêtes du graphe. Pour cequi est de notre étude, nous nous sommes intéressés à définir une nouvelle stratégie qui sebase sur des perturbations appliquées sur les paramètres qui permettent l'émergence desgraphes sociaux dans les réseaux d'interaction. Cette façon d'aborder l'aspect robustessedes graphes constitue une nouvelle manière d'évaluer et de quantifier les changements quipeuvent intervenir dans les structures de ces graphes.
26

Modélisation du smile de volatilité pour les produits dérivés de taux d'intérêt / Multi factor stochastic volatility for interest rates modeling

Palidda, Ernesto 29 May 2015 (has links)
L'objet de cette thèse est l'étude d'un modèle de la dynamique de la courbe de taux d'intérêt pour la valorisation et la gestion des produits dérivées. En particulier, nous souhaitons modéliser la dynamique des prix dépendant de la volatilité. La pratique de marché consiste à utiliser une représentation paramétrique du marché, et à construire les portefeuilles de couverture en calculant les sensibilités par rapport aux paramètres du modèle. Les paramètres du modèle étant calibrés au quotidien pour que le modèle reproduise les prix de marché, la propriété d'autofinancement n'est pas vérifiée. Notre approche est différente, et consiste à remplacer les paramètres par des facteurs, qui sont supposés stochastiques. Les portefeuilles de couverture sont construits en annulant les sensibilités des prix à ces facteurs. Les portefeuilles ainsi obtenus vérifient la propriété d’autofinancement / This PhD thesis is devoted to the study of an Affine Term Structure Model where we use Wishart-like processes to model the stochastic variance-covariance of interest rates. This work was initially motivated by some thoughts on calibration and model risk in hedging interest rates derivatives. The ambition of our work is to build a model which reduces as much as possible the noise coming from daily re-calibration of the model to the market. It is standard market practice to hedge interest rates derivatives using models with parameters that are calibrated on a daily basis to fit the market prices of a set of well chosen instruments (typically the instrument that will be used to hedge the derivative). The model assumes that the parameters are constant, and the model price is based on this assumption; however since these parameters are re-calibrated, they become in fact stochastic. Therefore, calibration introduces some additional terms in the price dynamics (precisely in the drift term of the dynamics) which can lead to poor P&L explain, and mishedging. The initial idea of our research work is to replace the parameters by factors, and assume a dynamics for these factors, and assume that all the parameters involved in the model are constant. Instead of calibrating the parameters to the market, we fit the value of the factors to the observed market prices. A large part of this work has been devoted to the development of an efficient numerical framework to implement the model. We study second order discretization schemes for Monte Carlo simulation of the model. We also study efficient methods for pricing vanilla instruments such as swaptions and caplets. In particular, we investigate expansion techniques for prices and volatility of caplets and swaptions. The arguments that we use to obtain the expansion rely on an expansion of the infinitesimal generator with respect to a perturbation factor. Finally we have studied the calibration problem. As mentioned before, the idea of the model we study in this thesis is to keep the parameters of the model constant, and calibrate the values of the factors to fit the market. In particular, we need to calibrate the initial values (or the variations) of the Wishart-like process to fit the market, which introduces a positive semidefinite constraint in the optimization problem. Semidefinite programming (SDP) gives a natural framework to handle this constraint
27

Reconnaissance d’objets 3D par points d’intérêt / 3D object recognition with points of interest

Shaiek, Ayet 21 March 2013 (has links)
Soutenue par les progrès récents et rapides des techniques d'acquisition 3D, la reconnaissance d'objets 3D a suscité de nombreux efforts de recherche durant ces dernières années. Cependant, il reste à résoudre dans ce domaine plusieurs problématiques liées à la grande quantité d'information, à l'invariance à l'échelle et à l'angle de vue, aux occlusions et à la robustesse au bruit.Dans ce contexte, notre objectif est de reconnaitre un objet 3D isolé donné dans une vue requête, à partir d'une base d'apprentissage contenant quelques vues de cet objet. Notre idée est de formuler une méthodologie locale qui combine des aspects d'approches existantes et apporte une amélioration sur la performance de la reconnaissance.Nous avons opté pour une méthode par points d'intérêt (PIs) fondée sur des mesures de la variation locale de la forme. Notre sélection de points saillants est basée sur la combinaison de deux espaces de classification de surfaces : l'espace SC (indice de forme- intensité de courbure), et l'espace HK (courbure moyenne-courbure gaussienne).Dans la phase de description de l'ensemble des points extraits, nous proposons une signature d'histogrammes, qui joint une information sur la relation entre la normale du point référence et les normales des points voisins, avec une information sur les valeurs de l'indice de forme de ce voisinage. Les expérimentations menées ont permis d'évaluer quantitativement la stabilité et la robustesse de ces nouveaux détecteurs et descripteurs.Finalement nous évaluons, sur plusieurs bases publiques d'objets 3D, le taux de reconnaissance atteint par notre méthode, qui montre des performances supérieures aux techniques existantes. / There has been strong research interest in 3D object recognition over the last decade, due to the promising reliability of the 3D acquisition techniques. 3D recognition, however, conveys several issues related to the amount of information, to scales and viewpoints variation, to occlusions and to noise.In this context, our objective is to recognize an isolated object given in a request view, from a training database containing some views of this object. Our idea is to propose a local method that combines some existent approaches in order to improve recognition performance.We opted for an interest points (IPs) method based on local shape variation measures. Our selection of salient points is done by the combination of two surface classification spaces: the SC space (Shape Index-Curvedness), and the HK space (Mean curvature- Gaussian curvature).In description phase of the extracted set of points, we propose a histogram based signature, in which we join information about the relationship between the reference point normal and normals of its neighbors, with information about the shape index values of this neighborhood. Performed experiments allowed us to evaluate quantitatively the stability and the robustness of the new proposed detectors and descriptors.Finally we evaluate, on several public 3D objects databases, the recognition rate attained by our method, which outperforms existing techniques on same databases.
28

Modélisation et gestion de concepts, en particulier temporels, pour l'assistance à la caractérisation de séquences d'images / Modeling and management of time concepts to support the characterization of image sequences

Simac, Alain 14 June 2011 (has links)
Les techniques habituelles d'indexation de vidéos passent généralement par une phase d'apprentissage qui nécessite préalablement la constitution d'une base d'apprentissage. Même si la taille de cette base est souvent réduite, la phase d'annotation réalisée par un expert de l'application est souvent longue et fastidieuse. Dans le cadre de cette thèse, nous avons développé un dispositif qui permet de pré-sélectionner un ensemble de prototypes susceptibles de contenir le concept qui doit apparaître dans la base d'apprentissage. Cette base réduite de prototypes sera ensuite annotée par l'expert. Nous nous sommes intéressés à des concepts temporels, ce qui nous a amené à étudier particulièrement des caractéristiques liées au mouvement, comme les points d'intérêt spatio-temporels (STIP Spatial Temporal Interest Points). D'autres caractéristiques ont aussi été utilisées concernant la couleur et la présence de formes particulières. Ces caractéristiques sont ensuite exploitées pour structurer la base de vidéos en briques spatio-temporelles homogènes. Cette structuration correspond à une sorte de segmentation de la base en fonction de chacune des caractéristiques. La liaison entre le concept à définir et les briques extraites de la base est en lien avec le fossé sémantique bien connu dans la problématique d'indexation automatique. La création de ce lien nécessite l'utilisation de la connaissance de l'expert de l'application sur le concept. Nous avons développé un système dans lequel cette connaissance est extraite par un système de questions/réponses. Les couples de questions/réponses permettent de sélectionner des briques répondant à la contrainte, de définir des relations entre certaines briques, et enfin de naviguer dans l'arborescence des questions. Des tests ont été réalisés sur des bases de vidéos de provenances diverses telles que des vidéos provenant d'émissions de télévision, de films d'animation, ou encore des vidéos de laboratoire disponibles sur le net, ou réalisées par nos soins. Ces tests montrent les performances satisfaisantes mais aussi les limites de l'approche et ouvrent des perspectives intéressantes, particulièrement sur les aspects collaboratifs et les aspects adaptatifs qui permettraient de capitaliser les connaissances des experts applicatifs et rendraient le système plus efficient. / The usual techniques of video indexing generally go through a learning phase that requires the prior establishment of a training database. Even if the size of the database is often reduced, the annotation phase by an expert of the application is often long and tedious. In this thesis, we developed a system that allows pre-selecting a set of prototypes that can contain the concept that must appear in the training set. This reduced base of prototypes will then be annotated by the expert. We are interested in time concepts, which led us to study particular features related to movement, such as Spatial Temporal Interest Points (STIP). Other features have also been used concerning the color and the presence of particular shapes. These characteristics are then used to structure the video database in homogeneous space-time blocks. This structure corresponds to segmentation related to each characteristic. The link between the concept to define and blocks extracted from the base corresponds to the well known problem of automatic indexing, the semantic gap. The definition of this link requires the introduction of the application expert's knowledge. We developed a system in which this knowledge is extracted by a questions/answers system. The couples of questions/answers allow the system to select blocks corresponding to the constraint, to define relationships between some blocks, and finally to navigate on the questions/answers tree. Tests were performed on video databases from various sources such as videos from tele- vision shows, animated films, laboratory videos available on the net, or made by us. These tests show the satisfying performances but also the limitations of the approach and open interesting perspectives, particularly on the collaborative and adaptive aspects that would capitalize in the application expert knowledge and would make the system more efficient.
29

L'approche juridique de la gestion durable du littoral méditerranéen à travers la problématique et la mise en place d'une opération d'intérêt national dans la plaine du Var / The legal approach to the sustainable management of the mediterranean coast through the problem and the implantation of an operation of national interest in the plain of the Var

Experton, Thomas 06 June 2016 (has links)
Un territoire correspond à une entité spécifique et à une logique qui lui est propre. Le rôle du juriste est de créer des règles et des concepts pour prévenir, gérer et protéger ledit territoire. Ce territoire doit être géré de manière intégrée, que ce soit au niveau terrestre ou au niveau maritime. On note bien que cette gestion intégrée du littoral méditerranéen, et plus particulièrement la gestion intégrée des zones côtières, a une influence directe sur la plaine du Var. Réciproquement, la partie terrestre avec l’outil juridique de l’Opération d’Intérêt National promeut une gestion intégrée de ladite plaine. Ce concept de ville durable de la plaine du Var se traduit juridiquement par des règles d’urbanisme (OIN) qui sont en adéquation avec un développement durable et des normes protectrices de l’environnement. Le régime juridique utilisé sur ce territoire est dérogatoire au droit commun de l’urbanisme. Il reste l’une des dernières manifestations de la puissance publique, caractéristique de la France. Ce régime juridique cultive les paradoxes et présente donc un intérêt scientifique de premier ordre. / A territory corresponds with a specific entity which has its own logic. The jurist’s role is both to create rules and concepts in order to organize prevention, protection and management of the aforementionned territory: the “Var’s Plain”. It is well noticed that this integrated management of the Mediterranean Coast and more particulary, coastal’s zones integrated management has a direct impact on the “Var’s Plain”. Reciprocally, the land territory with legal tool of the Interest National Operation promotes one integrated management of the aforementioned Plain. Moreover, the tittle of the thesis suggests the idea according which there‘s a mutual influence, an elective affinity as would say Max WEBER, from the earth towards the coast and vice-versa, in order to manage sustainably the territory. This management is done by the establishement of legal provisions. The legal regime commonly used on this territory is an exception of the common law of urbanism. However, it remains one of the last demonstration of public authorities, which is a characteristic of France. This legal regime cultivates paradoxes and thus presents a leading science interest of first class.
30

Bornes garanties de l'erreur locale en élastoplasticité / Local strict upper bounds in elastoplasticity

Blaysat, Benoît 08 December 2011 (has links)
Ce travail présente une méthode générale fournissant des bornes garanties de l'erreur de discrétisation sur une quantité locale issue d'un calcul éléments finis. Formulée dans un cadre général, la méthode est illustrée sur un cas 2D d'élastoplasticité. Le cadre non-linéaire de cette implémentation a soulevé des problèmes d'un type nouveau au sein de la thématique de vérification. Après avoir défini les problèmes miroir et central, nous proposons des solutions pour les résoudre.La mise en place de l'outil introduit est détaillée. Ainsi, des bornes garanties de l'erreur locale sur une composante de la déformation plastique sont calculées. Une première étude sur des cas académiques est présentée avant de s'intéresser à un cas plus complexe. Enfin une amélioration de la méthode est introduite, permettant l'obtention de bornes plus pertinentes. / This work presents a general method providing good control on the discretization error on a local quantity of a finite element solution. Formulated using a general formulation, this method is illustrated in a 2D case of elastoplasticity. Nonlinear part of this implementation has raised issues of a new type in the subject of verification. Mirror and the central problems are defined, and we offer solutions for both.The implementation of this tool is introduced in detail. Thus, the guarantees bounds of the local error on a component of plastic deformation are calculated. An initial study on academic case is presented before focusing on a more complex one. Finally an improved method is introduced, allowing the calculation of more relevant bounds.

Page generated in 0.0794 seconds