• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 16
  • 3
  • Tagged with
  • 48
  • 48
  • 18
  • 18
  • 16
  • 12
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Contrôle d'accès efficace pour des données XML : problèmes d'interrogation et de mise-à-jour / Efficient Access Control to XML Data : Querying and Updating Problems

Mahfoud, Houari 18 February 2014 (has links)
Le langage XML est devenu un standard de représentation et d'échange de données à travers le web. Le but de la réplication de données au sein de différents sites est de minimiser le temps d'accès à ces données partagées. Cependant, différents problèmes sont liés à la sécurisation de ces données. Le but de cette thèse est de proposer des modèles de contrôles d'accès XML qui prennent en compte les droits de lecture et de mise-à-jour et qui permettent de surmonter les limites des modèles qui existent. Nous considérons les langages XPath et XQuery Update Facility pour la formalisation des requêtes d'accès et des requêtes de mise-à-jour respectivement. Nous donnons des descriptions formelles de nos modèles de contrôles d'accès et nous présentons des algorithmes efficaces pour le renforcement des politiques de sécurité spécifiées à la base de ces modèles. L'autre partie de cette thèse est consacrée à l'étude pratique de nos propositions. Nous présentons notre système appelé SVMAX qui met en oeuvre nos solutions, et nous conduisons une étude expérimentale basée sur une DTD réelle pour montrer son efficacité. Plusieurs systèmes de bases de données natives (systèmes de BDNs) ont été proposés récemment qui permettent une manipulation efficace des données XML en utilisant la plupart des standards du W3C. Nous montrons que notre système SVMAX peut être intégré facilement et efficacement au sein d'un large ensemble de systèmes de BDNs. A nos connaissances, SVMAX est le premier système qui permet la sécurisation des données XML conformes à des DTDs arbitraires (récursives ou non) et ceci en moyennant un fragment significatif de XPath et une classe riche d'opérations de mise-à-jour XML / XML has become a standard for representation and exchange of data across the web. Replication of data within different sites is used to increase the availability of data by minimizing the access's time to the shared data. However, the safety of the shared data remains an important issue. The aim of the thesis is to propose some models of XML access control that take into account both read and update rights and that overcome limitations of existing models. We consider the XPath language and the XQuery Update Facility to formalize respectively user access queries and user update operations. We give formal descriptions of our read and update access control models and we present efficient algorithms to enforce policies that can be specified using these models. Detailed proofs are given that show the correctness of our proposals. The last part of this thesis studies the practicality of our proposals. Firstly, we present our system, called SVMAX, that implements our solutions and we conduct an extensive experimental study, based on real-life DTD, to show that it scales well. Many native XML databases systems (NXD systems) have been proposed recently that are aware of the XML data structure and provide efficient manipulation of XML data by the use of most of W3C standards. Finally, we show that our system can be integrated easily and efficiently within a large set of NXD systems, namely BaseX, Sedna and eXist-db. To the best of our knowledge, SVMAX is the first system for securing XML data in the presence of arbitrary DTDs (recursive or not), a significant fragment of XPath and a rich class of XML update operations
32

Searches for ttH and flavour-changing t –> Hq productions in multileptonic final states with the ATLAS detector / Recherche de productions ttH et t -> Hq avec changement de saveur dans les états finaux multileptoniques avec le détecteur ATLAS

Wolff, Robert 20 September 2018 (has links)
Cette thèse de doctorat décrit la recherche de la production du boson de Higgs associée à une paire de quarks tops (tt̅H) dans un ensemble de données de collisions proton-proton à une énergie de centre de masse de √s = 13 TeV et avec une luminosité intégrée de 36,1 fb⁻¹, enregistrée par le détecteur ATLAS en 2015 et 2016. Sept états finaux, correspondants à différentes désintégrations du boson de Higgs, sont optimisés pour une meilleure séparation du signal par rapport au bruit de fond. Un excès d’événements par rapport au bruit de fond MS est observé avec une signification de 4,1 écarts types, tandis que 2,8 sont attendus. En combinaison avec des résultats de recherches avec d’autres canaux de désintégration du boson de Higgs, la production de tt̅H a été découverte par le détecteur ATLAS en utilisant jusqu’à 79,8 fb⁻¹ de données de collisions à √s = 7, 8 et 13 TeV.Les courants neutres, qui changent de saveur dans la désintégration du quark top en un boson de Higgs et un quark léger (t → Hq), sont fortement supprimés dans le MS. Des nouveaux modèles physiques peuvent prédire un rapport d’embranchement de t → Hc de 0,15%. La recherche de ces désintégrations, avec un état final à deux ou trois leptons, n’observe aucun signal. Une limite supérieure sur le ratio d’embranchement de t → Hc (t → Hu) avec un niveau de confiance de 95% est observé à 0,16% (0,19%) avec une limite attendue de 0,15% (0,15%).Pour contourner la limitation du nombre insuffisant des collisions, le LHC et ses expériences prévoient un plan de mise à niveau ambitieux. Un système de démonstration est en service depuis 2015 et ses performances étudiées avec des données de calibrations et de collisions. / This doctoral thesis describes the search for the associated Higgs boson production with a pair of top quarks (tt̅H) in a dataset of proton-proton collisions at a center-of-mass energy of √s = 13 TeV and with an integrated luminosity of 36.1 fb⁻¹, recorded by the ATLAS detector in 2015 and 2016. Seven final states, associated to different Higgs boson decay, are optimised to get the best signal to background separation. An excess of events over the SM background is observed with a significance of 4.1 standard deviations, while 2.8 are expected. In combination with search results obtained for other Higgs boson decay channels, the tt̅H production has been discovered with the ATLAS detector using up to 79.8 fb⁻¹ of collision data at √s = 7, 8 and 13 TeV.Flavour-changing neutral currents in top quark decays into a Higgs boson and a light up-type quark (t → Hq) are strongly suppressed in the SM. New physics models can predict a t → Hc decay branching ratio of 0.15%. The search for these decays in final states with two or three leptons observes no signal. An upper limit on the t → Hc (t → Hu) decay branching ratio at a 95% confidence level is set at 0.16% (0.19%) with an expected limit of 0.15% (0.15%).To bypass the limitation of an insufficient amount of collision data, the LHC and its experiments foresee an ambitious upgrade plan. The current ATLAS Liquid Argon Calorimeter readout will be replaced to get an increased granularity to improve the trigger selectivity and avoid bandwidth saturation at high luminosity. A demonstrator system has been operated since 2015 and its performance studied with calibration and collision data.
33

Methodology for knowledge-based engineering template update : focus on decision support and instances update / Méthodologie de mise-à-jour de knowledge-based engineering template : focus sur l'aide à la décision et la mise-à-jour des instances

Kuhn, Olivier 22 October 2010 (has links)
Les travaux de recherche présentés adressent des problèmes de mises à jour de knowledge-based engineering templates dans le cadre de la conception de produits. La réutilisation de connaissances de conception est devenue un avantage clé pour la compétitivité des entreprises. Le savoir faire ainsi que les bonnes pratiques peuvent être stockés au sein de templates par le biais de formules, règles, scripts, etc. Ces connaissances de conception peuvent alors être réutilisées en instanciant le template. L’instanciation résulte en la création d’une instance du template dans le contexte spécifié.Dans le cadre de produit complexes et imposants tels que des voitures ou des avions, la maintenance des templates est une tache ambitieuse. Plusieurs ingénieurs de diverses disciplines travaillent ensemble et font évoluer les templates pour augmenter leurs aptitudes ou pour corriger des problèmes. De plus, dans certains cas, les modifications faites aux templates devraient être appliquées à leurs instances afin qu’elles puissent bénéficier de ces modifications. Ces problèmes ralentissent l’adoption à grande envergure des templates au sein des entreprises. L’objectif de ce travail est de proposer une approche afin d’épauler les ingénieurs dans les tâches relatives à la mise à jour des templates.Pour traiter ces problèmes, un processus adressant les tâches relatives à la mise à jour des templates est défini. Ensuite, un framework est proposé dans le but d’aider les ingénieurs de conception au cours du processus de mise à jour, en fournissant un système d’aide à la décision ainsi qu’une stratégie de mise à jour des instances. Le premier est un système conçu pour faciliter la collaboration entre les différent experts dans le but de résoudre les problèmes liés aux templates. Le second a pour but d’élaborer une séquence de mise à jour à fin d’appliquer les modifications du template à ses instances. La séquence est calculée avec les données extraites à partir des modèles CAD et des templates. Ces données sont stockées dans une ontologie conçue spécialement à cet effet. L’ontologie est utilisée pour représenter et inférer des connaissances sur les templates, les produits et leur relations. Cela facilite la construction des séquences de mises à jour en fournissant une vue d’ensemble sur les relations entre documents, même implicites. / The present Ph.D. thesis addresses the problem of knowledge-based engineering template update in product design. The reuse of design knowledge has become a key asset for the company’s competitiveness. Knowledge-based engineering templates allow to store best practices and knowhow via formulas, rules, scripts, etc. This design knowledge can then be reused by instantiating the template. The instantiation results in the creation of an instance of the template in the specified context. In the scope of complex and large products, such as cars or aircrafts, the maintenance of knowledge-based engineering templates is a challenging task. Several engineers from various disciplines work together and make evolve the templates in order to extend their capabilities or to fix bugs. Furthermore, in some cases, the modifications applied to templates should be forwarded to their instances in order that they benefit from the changes. These issues slow down the adoption of template technologies at a large scale within companies. The objective of this work is to propose an approach in order to support engineers in the template update related tasks. In order to address these issues, a process supporting the template update related tasks is defined. Then a framework is proposed that helps design engineers during the template update process by providing a decision support system and a strategy for the update of template instances. The former is a system designed to ease the collaboration between various experts in order to solve template related problems. The latter aims at providing a sequence of updates to follow, in order to forward the templates’ modifications to their instances. This sequence is computed with data extracted from models and templates, which are stored in an ontology designed for this purpose. The ontology is used to represent and to infer knowledge about templates, products and their relations. This facilitates the construction of update sequences as it provides an efficient overview of relationships, even implicit ones.
34

Nouveaux modèles de contours actifs d'ordre supérieur, formes «a priori» et analyse multi-échelle : leurs application à l'extraction de réseaux routiers à partir des images satellitaires à très haute résolution

Peng, Ting 18 November 2008 (has links) (PDF)
L'objectif de cette thèse est de développer et de valider des approches robustes d'extraction semi-automatique de réseaux routiers en zone urbaine dense à partir d'images satellitaires optiques à très haute résolution (THR). Nos modèles sont fondés sur une modélisation par champs de phase des contours actifs d'ordre supérieur (CAOS). Le probléme est difficile pour deux raisons principales : les images THR sont intrinsèquement complexes, et certaines zones des réseaux peuvent prendre une topologie arbitraire. Pour remédier à la complexité de l'information contenue dans les images THR, nous proposons une modélisation statistique multi-résolution des données ainsi qu'un modèle multi-résolution contraint a priori. Ces derniers permettent l'intégration des résultats de segmentation de résolution brute et de résolution fine. De plus, dans le cadre particulier de la mise à jour de réseaux routiers, nous présentons un modèle de forme a priori spécifique, dérivé d'une ancienne carte numérique issue d'un SIG. Ce terme spécifique a priori équilibre l'effet de la connaissance a priori générique apportée par le modèle de CAOS, qui décrit la forme géométrique générale des réseaux routiers. Cependant, le modèle classique de CAOS souffre d'une limitation importante : la largeur des branches du réseau est contrainte à d'être similaire au maximum du rayon de courbure des branches du réseau, fournissant ainsi un modèle non satisfaisant dans le cas de réseaux aux branches droites et étroites ou aux branches fortement incurvées et larges. Nous résolvons ce problème en proposant deux nouveaux modèles : l'un contenant un terme additionnel, nonlocal, non-linéaire de CAOS, et l'autre contenant un terme additionnel, nonlocal, linéaire de CAOS. Ces deux termes permettent le contrôle séparé de la largeur et de la courbure des branches, et fournissent une meilleure prolongation pour une même largeur. Le terme linéaire a plusieurs avantages : d'une part il se calcule plus efficacement, d'autre part il peut modéliser plusieurs largeurs de branche simultanément. Afin de remédier à la difficulté du choix des paramètres de ces modèles, nous analysons les conditions de stabilité pour une longue barre d'une largeur donnée décrite par ces énergies, et montrons ainsi comment choisir rigoureusement les paramètres des fonctions d'énergie. Des expériences sur des images satellitaires THR et la comparaison avec d'autres modèles démontrent la supériorité de nos modèles.
35

Mise à jour de la Base de Données Topographiques du Québec à l'aide d'images à très haute résolution spatiale et du progiciel Sigma0 : le cas des voies de communication

Bélanger, Jean 12 1900 (has links)
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus. / In order to optimize and reduce the cost of road map updating, the Ministry of Natural Resources and Wildlife is considering exploiting high definition color aerial photography within a global automatic detection process. In that regard, Montreal based SYNETIX Inc, teamed with the University of Montreal Remote Sensing Laboratory (UMRSL) in the development of an application indented for the automatic detection of road networks on complex radiometric high definition imagery. This application named SIGMA-ROUTES is a derived module of a software called SIGMA0 earlier developed by the UMRSL for optic and radar imagery of 5 to 10 meter resolution. SIGMA-ROUTES road detections relies on a map guided filtering process that enables the filter to be driven along previously known road vectors and tagged them as intact, suspect or lost depending on the filtering responses. As for the new segments updating, the process first implies a detection of potential starting points for new roads within the filtering corridor of previously known road to which they should be connected. In that respect, it is a very challenging task to emulate the human visual filtering process and further distinguish potential starting points of new roads on complex radiometric high definition imagery. In this research, we intend to evaluate the application’s efficiency in terms of total linear distances of detected roads as well as the spatial location of inconsistencies on a 2.8 km2 test site containing 40 km of various road categories in a semi-urban environment. As specific objectives, we first intend to establish the impact of different resolutions of the input imagery and secondly establish the potential gains of enhanced images (segmented and others) in a preemptive approach of better matching the image property with the detection parameters. These results have been compared to a ground truth reference obtained by a conventional visual detection process on the bases of total linear distances and spatial location of detection. The best results with the most efficient combination of resolution and pre-processing have shown a 78% intact detection in accordance to the ground truth reference when applied to a segmented resample image. The impact of image resolution is clearly noted as a change from 84 cm to 210 cm resolution altered the total detected distances of intact roads of around 15%. We also found many roads segments ignored by the process and without detection status although they were directly liked to intact neighbours. By revising the algorithm and optimizing the image pre-processing, we estimate a 90% intact detection performance can be reached. The new segment detection is non conclusive as it generates an uncontrolled networks of false detections throughout other entities in the images. Related to these false detections of new roads, we were able to identify numerous cases of new road detections parallel to previously assigned intact road segments. We conclude with a proposed procedure that involves enhanced images as input combined with human interventions at critical level in order to optimize the final product.
36

Généralisation de l'approche d'ensemble à la prévision hydrologique dans les bassins versants non jaugés

Randrianasolo, Rindra Annie 19 December 2012 (has links) (PDF)
La prévision des crues est un exercice hydrologique complexe : les incertitudes y sont nombreuses, aussi bien dans le processus de modélisation hydrologique, dans la détermination de l'état initial du bassin versant avant le lancement de la prévision, que dans l'évolution des conditions météorologiques futures. Dans le cas des bassins versants non jaugés, où les observations de débits sont lacunaires voire absentes, ces incertitudes sont encore plus importantes, et le besoin de les réduire devient incontournable. Cette thèse s'intéresse à des méthodes simples et robustes qui peuvent apporter de l'information pertinente pour quantifier les incertitudes de prévision dans les bassins versants non jaugés. Le but est d'étudier la meilleure stratégie pour chercher l'information dans les bassins jaugés "donneurs", et pour la transférer vers le site non jaugé. Nous étudions les besoins pour mettre en place un modèle de simulation pluie-débit et pour effectuer une mise à jour du modèle de prévision en temps réel. Ces deux composantes de la prévision sont ainsi découplées dans notre approche. Cette thèse s'appuie sur une large base de données constituée d'environ 1000 bassins versants français, dont un jeu clé de 211 bassins versants qui permet la validation des approches développées. Elle s'appuie également sur une archive d'environ 4,5 années de prévisions d'ensemble de pluies, utilisées en forçage à la modélisation hydrologique journalière. La démarche adoptée consiste à intégrer les scenarios de transfert de l'information régionale disponible et les scenarios de la prévision météorologique d'ensemble dans un système de prévision orienté vers les bassins versants non jaugés. L'approche de prévision d'ensemble est ainsi généralisée à ce cas particulier de la prévision hydrologique. A travers plusieurs scénarios de débits futurs, nous cherchons à quantifier les incertitudes de prévisions dans les sites cibles non jaugés. Pour évaluer les différents scénarios des prévisions hydrologiques émis, un cadre de diagnostic d'évaluation des principales qualités d'un système de prévision d'ensemble, comprenant plusieurs critères numériques et graphiques, a été mis en place. Dans cette thèse, une attention particulière est prêtée aux attributs "fiabilité" et "précision" des prévisions. Nous proposons ainsi un nouveau critère graphique, nommé diagramme de précision d'ensemble. Ce critère permet notamment de mettre en valeur la qualité des prévisions qui ne sont pas forcément fiables, mais qui sont précises. Les résultats obtenus ont mis en évidence que la fiabilité des prévisions peut être améliorée sur un bassin versant non jaugé par l'utilisation de plusieurs jeux de paramètres issus des bassins versants voisins. Si la variabilité apportée par le voisinage géographique influe sur la dispersion des membres, et augmente ainsi la fiabilité des prévisions, la prise en compte des caractéristiques physiques, principalement de la surface des bassins versants, est apparue comme une alternative intéressante, influençant positivement aussi l'attribut précision des prévisions sur le site cible. De plus, il a été montré que la précision des prévisions d'ensemble sur le site non jaugé est améliorée par l'intermédiaire du transfert des bassins versants jaugés vers le site cible des corrections faites lors de la mise à jour sur les bassins voisins (mise à jour caractérisée ici par l'assimilation de la dernière observation de débit dans le modèle hydrologique, avant l'instant de prévision). Les différentes mesures de performance ont montré que la meilleure option pour améliorer la précision des prévisions serait de considérer les corrections effectuées sur le bassin le plus proche à chaque pas de temps de prévision. Le krigeage a également donné des résultats satisfaisants, marqués en plus par l'influence positive sur l'attribut fiabilité des prévisions.
37

Entrepôts et analyse en ligne de données complexes centrés utilisateur : un nouveau défi

Bentayeb, Fadila 24 November 2011 (has links) (PDF)
Les entrepôts de données répondent à un réel besoin en matière d'accès à l'information résumée. Cependant, en suivant le processus classique d'entreposage et d'analyse en ligne (OLAP) de données, les systèmes d'information décisionnels (SID) exploitent très peu le contenu informationnel des données. Alors même que les SID sont censés être centrés utilisateur, l'OLAP classique ne dispose pas d'outils permettant de guider l'utilisateur vers les faits les plus intéressants du cube. La prise en compte de l'utilisateur dans les SID est une problématique nouvelle, connue sous le nom de personnalisation, qui pose plusieurs enjeux peu ou pas étudiés. Le travail présenté dans ce mémoire vise à proposer des solutions innovantes dans le domaine de la personnalisation dans les entrepôts de données complexes. L'originalité de nos travaux de recherche a consisté à montrer qu'il est pertinent d'intégrer la sémantique dans tout le processus d'entreposage, soit en invitant l'utilisateur à exprimer ses propres connaissances métier, soit en utilisant les méthodes de fouille de données pour extraire des connaissances cachées. En s'appuyant sur l'intuition que des connaissances sur le métier, sur les données entreposées et leur usage (requêtes) peuvent contribuer à aider l'utilisateur dans son exploration et sa navigation dans les données, nous avons proposé une première approche de personnalisation basée sur les connaissances explicites des utilisateurs. En empruntant le concept d'évolution de schéma, nous avons relâché la contrainte du schéma fixe de l'entrepôt, pour permettre d'ajouter ou de supprimer un niveau de hiérarchie dans une dimension. Ces travaux ont été étendus pour recommander à l'utilisateur des hiérarchies de dimension nouvelles basées sur la découverte de nouvelles structures naturelles grâce aux principes d'une méthode de classification (K-means). Nous avons par ailleurs développé la fouille en ligne en s'appuyant uniquement sur les outils offerts par les systèmes de gestion de bases de données (SGBD). La fouille en ligne permet d'étendre les capacités analytiques des SGBD, support des entrepôts de données, de l'OLAP vers une analyse structurante, explicative et prédictive ; et venir en appui à la personnalisation. Afin de prendre en compte à la fois l'évolution des données et celle des besoins tout en garantissant l'intégration structurelle et sémantique des données, nous avons proposé une approche d'analyse en ligne à la demande, qui s'appuie sur un système de médiation à base d'ontologies. Par ailleurs, nous avons proposé un modèle multidimensionnel d'objets complexes basé sur le paradigme objet qui permet de représenter les objets de l'univers de façon plus naturelle et de capter la sémantique qu'ils véhiculent. Un opérateur de projection cubique est alors proposé pour permettre à l'utilisateur de créer des cubes d'objets complexes personnalisés. Toutes nos solutions ont été développées et testées dans le contexte des entrepôts de données relationnels et/ou XML.
38

Dynamic sound rendering of complex environments

Loyet, Raphaël 18 December 2012 (has links) (PDF)
De nombreuses études ont été menées lors des vingt dernières années dans le domaine de l'auralisation.Elles consistent à rendre audible les résultats d'une simulation acoustique. Ces études se sont majoritairementfocalisées sur les algorithmes de propagation et la restitution du champ acoustique dans desenvironnements complexes. Actuellement, de nombreux travaux portent sur le rendu sonore en tempsréel.Cette thèse aborde la problématique du rendu sonore dynamique d'environnements complexes selonquatre axes : la propagation des ondes sonores, le traitement du signal, la perception spatiale du son etl'optimisation informatique. Dans le domaine de la propagation, une méthode permettant d'analyser lavariété des algorithmes présents dans la bibliographie est proposée. A partir de cette méthode d'analyse,deux algorithmes dédiés à la restitution en temps réel des champs spéculaires et diffus ont été extraits.Dans le domaine du traitement du signal, la restitution est réalisée à l'aide d'un algorithme optimisé despatialisation binaurale pour les chemins spéculaires les plus significatifs et un algorithme de convolutionsur carte graphique pour la restitution du champ diffus. Les chemins les plus significatifs sont extraitsgrace à un modèle perceptif basé sur le masquage temporel et spatial des contributions spéculaires.Finalement, l'implémentation de ces algorithmes sur des architectures parallèles récentes en prenant encompte les nouvelles architectures multi-coeurs et les nouvelles cartes graphiques est présenté.
39

Un système personnalisé de recommandation à partir de concepts quadratiques dans les folksonomies / A personalized recommentder system based on quadri-concepts in folksonomies

Jelassi, Mohamed Nidhal 11 May 2016 (has links)
Les systèmes de recommandation ont acquis une certaine popularité parmi les chercheurs, où de nombreuses approches ont été proposées dans la littérature. Les utilisateurs des folksonomies partagent des items (e.g., livres, films, sites web, etc.) en les annotant avec des tags librement choisis. Avec l'essor du Web 2.0, les utilisateurs sont devenus les principaux acteurs du système étant donné qu'ils sont à la fois les contributeurs et créateurs de l'information. Ainsi, il est important de répondre à leurs besoins en leur proposant une recommandation plus ciblée. Pour ce faire, nous considérons une nouvelle dimension dans une folksonomie classiquement composée de trois dimensions <utilisateurs,tags,ressources> et nous proposons une approche afin de regrouper les utilisateurs ayant des intérêts proches à travers des structures appelées concepts quadratiques. Ensuite, nous utilisons ces structures afin de proposer un nouveau système personnalisé de recommandation. Nous évaluons nos approches sur divers jeux de données du monde réel. Ces expérimentations ont démontré de bons résultats en termes de précision et de rappel ainsi qu'une bonne évaluation sociale. De plus, nous étudions quelques unes des métriques utilisées pour évaluer le systèmes de recommandations, comme la couverture, la diversité, l'adaptivité, la sérendipité ou encore la scalabilité. Par ailleurs, nous menons une étude de cas sur quelques utilisateurs comme complément à notre évaluation afin d'avoir l'avis des utilisateurs sur notre système. Enfin, nous proposons un nouvel algorithme qui permet de mettre à jour un ensemble de concepts triadiques sans avoir à re-scanner l'entière folksonomie. Les premiers résultats comparant les performances de notre proposition par rapport au redémarrage du processus d'extraction des concepts triadiques sur quatre jeux de données du monde réel a démontré son efficacité. / Recommender systems are now popular both commercially as well as within the research community, where many approaches have been suggested for providing recommendations. Folksonomies' users are sharing items (e.g., movies, books, bookmarks, etc.) by annotating them with freely chosen tags. Within the Web 2.0 age, users become the core of the system since they are both the contributors and the creators of the information. In this respect, it is of paramount importance to match their needs for providing a more targeted recommendation. For such purpose, we consider a new dimension in a folksonomy classically composed of three dimensions <users,tags,resources> and propose an approach to group users with close interests through quadratic concepts. Then, we use such structures in order to propose our personalized recommendation system of users, tags and resources. We carried out extensive experiments on two real-life datasets, i.e., MovieLens and BookCrossing which highlight good results in terms of precision and recall as well as a promising social evaluation. Moreover, we study some of the key assessment metrics namely coverage, diversity, adaptivity, serendipity and scalability. In addition, we conduct a user study as a valuable complement to our evaluation in order to get further insights. Finally, we propose a new algorithm that aims to maintain a set of triadic concepts without the re-scan of the whole folksonomy. The first results comparing the performances of our proposition andthe running from scratch the whole process over four real-life datasets show its efficiency.
40

An integrated method for the transient solution of reduced order models of geometrically nonlinear structural dynamic systems / Une méthode intégrée pour les réponses transitoires des modèles d’ordre réduit de structures en dynamique nonlinéaire géométrique

Lülf, Fritz Adrian 05 December 2013 (has links)
Pour les solutions transitoires répétées des structures géométriquement nonlinéaires l’effort numérique présente souvent une contrainte importante. Ainsi, l’introduction d’un modèle d’ordre réduit, qui prend en compte les effets nonlinéaires et qui accélère considérablement les calculs, s’avère souvent nécessaire.Ce travail aboutit à une méthode qui permet des solutions transitoires accélérées, fidèles et paramétrables, à travers d’un modèle réduit de la structure initiale. La structure est discrétisée et son équilibre dynamique décrit par une équation matricielle. La projection sur une base réduite est introduite afin d’obtenir un modèle réduit. Une étude numérique complète sur plusieurs bases communes démontre que la simple introduction d’une base constante ne suffit pas pour prendre en compte le comportement nonlinéaire. Trois exigences sont déduites pour une solution transitoire accélérée, fidèle et paramétrable. L’algorithme de solution doit permettre un suivi de l’évolution nonlinéaire de la solution transitoire, la solution doit être autonome des termes nonlinéaires en éléments finis et la base doit être adaptée à des paramètres externes.Trois approches sont mises en place, chacune répondant à une exigence. Ces approches sont assemblées dans la méthode intégrée. Les approches sont la mise-à-jour et augmentation de la base , la formulation polynomiale des termes nonlinéaires et l’interpolation de la base. Un algorithme de type Newmark forme le cadre de la méthode intégrée. L’application de la méthode intégrée sur des cas test en élément finis géométriquement nonlinéaires confirme qu’elle répond au but initial d’obtenir des solutions transitoires accélérées, fidèles et paramétrables. / For repeated transient solutions of geometrically nonlinear structures the numerical effort often poses a major obstacle. Thus, the introduction of a reduced order model, which takes the nonlinear effects into account and accelerates the calculations considerably, is often necessary.This work yields a method that allows for rapid, accurate and parameterisable solutions by means of a reduced model of the original structure. The structure is discretised and its dynamic equilibrium described by a matrix equation. The projection on a reduced basis is introduced to obtain the reduced model. A comprehensive numerical study on several common reduced bases shows that the simple introduction of a constant basis is not sufficient to account for the nonlinear behaviour. Three requirements for an rapid, accurate and parameterisable solution are derived. The solution algorithm has to take into account the nonlinear evolution of the solution, the solution has to be independent of the nonlinear finite element terms and the basis has to be adapted to external parameters.Three approaches are provided, each responding to one requirement. These approaches are assembled to the integrated method. The approaches are the update and augmentation of the basis, the polynomial formulation of the nonlinear terms and the interpolation of the basis. A Newmark-type time-marching algorithm provides the frame of the integrated method. The application of the integrated method on test-cases with geometrically nonlinear finite elements confirms that this method leads to the initial aim of a rapid, accurate and parameterisable transient solution.

Page generated in 0.0459 seconds