• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 517
  • 143
  • 84
  • 5
  • 3
  • 1
  • 1
  • Tagged with
  • 765
  • 180
  • 169
  • 154
  • 111
  • 76
  • 76
  • 70
  • 67
  • 64
  • 64
  • 62
  • 62
  • 61
  • 59
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Diagnostic et adaptation des trajectoires robotiques en projection thermique

Fang, Dandan 08 December 2010 (has links) (PDF)
Robots manipulateurs sont couramment utilisés pour la projection thermique, qui peuvent être programmés de deux façons : par apprentissage et par la programmation hors-ligne. La programmation par apprentissage ne peut pas garantir la qualité de revêtements, en particulier pour les pièces de forme complexe. La technologie de la programmation hors-ligne est une bonne solution, en utilisant le fichier CAO de la pièce à revêtir. Le but de cette étude est de développer une trousse à outil - Thermal Spray Toolkit (TST) sous RobotStudio™ 5 (ABB), un logiciel de programmation hors-ligne, pour générer la trajectoire adaptée à l'application de projection thermique en fonction de la forme de la pièce et des paramètres cinématiques tels que la distance de projection, l'orientation normal à la surface, le débordement, le pas de balayage etc. Cela résout les difficultés de génération de la trajectoire adaptée à la projection thermique sur la pièce complexe sous RobotStudio™. En outre, deux méthodes d'amélioration de la trajectoire sont proposées pour maintenir la vitesse du CDO après les analyses. Les simulations et les essais ont prouvé que ces deux méthodes peuvent améliorer efficacement la stabilité de la vitesse du CDO ainsi que la qualité du revêtement. A la fin, l'axe externe rotatif a été appliqué en projection thermique et la programmation d'axe externe automatique a été intégrée également dans le TST. Les trajectoires verticale et horizontale ont été générées et analysées sur une pièce qui nécessite de l'utilisation d'un axe externe. Les simulations et les essais ont été réalisés pour ces différents programmes, ils ont montré que la trajectoire verticale a donné de meilleurs résultats que la trajectoire horizontale.
382

Reconnaissance des formes dans un environnement dynamique appliquée au diagnostic et au suivi des systèmes évolutifs

Hartert, Laurent 24 November 2010 (has links) (PDF)
De nombreux systèmes actuels sont évolutifs, i.e. leur comportement est dynamique et il entraîne des changements dans leurs caractéristiques de fonctionnement. Le suivi des modes de fonctionnement des systèmes évolutifs est un problème majeur pour les méthodes de diagnostic. En effet, dans ces conditions il est nécessaire d'utiliser ou de développer des méthodes tenant compte des nouvelles informations caractéristiques du comportement actuel d'un système et permettant l'adaptation des modes de fonctionnement connus. Nous avons choisi de travailler avec les méthodes de reconnaissance des formes pour leur capacité à fonctionner sur des applications pour lesquelles seules des observations sont connues. Plusieurs méthodes de classification dynamique ont été proposées afin de tenir compte des changements de caractéristiques des formes et des classes au cours du temps. D'une part la méthode Fuzzy Pattern Matching Dynamique (FPMD) a été développée pour tenir compte du changement graduel des caractéristiques des classes après la classification de chaque nouvelle forme. La méthode intègre plusieurs mécanismes tels que des indices de représentativité des données, un résidu permettant de suivre les évolutions des classes, et des procédures de scission et de fusion permettant d'adapter les classes dynamiques. D'autre part, une version Supervisée et une version Semi-Supervisée des K-Plus Proches Voisins Flous Dynamique (KPPVFD) ont également été proposées : KPPVFD-S et KPPVFD-SS. Ces méthodes KPPVFD utilisent des procédures de détection et de confirmation des évolutions de classes puis elles réalisent l'adaptation de ces dernières en utilisant les formes les plus caractéristiques de la tendance actuelle du système. Les méthodes proposées permettent de détecter en ligne l'évolution du comportement d'un système, de valider cette évolution et de procéder à l'adaptation d'une classe lorsque ses caractéristiques ont changées. Deux approches de reconnaissance des formes (structurelle et mixte) ont également été proposées. L'approche structurelle repose sur une méthode de segmentation ne nécessitant pas la définition d'un seuil d'erreur d'approximation et sur un nombre adaptatif de primitives défini par rapport à chaque phase caractéristique d'une forme dynamique. Une fois la segmentation des formes dynamiques réalisée, la méthode estime leur tendance à l'aide des primitives sélectionnées puis la phase de classification peut avoir lieu en utilisant une mesure de similarité. La méthode mixte repose sur l'utilisation de données statistiques et structurelles pour réaliser la classification des données dynamiques. Une signature mixte est obtenue pour chaque forme dynamique traitée. Cette signature mixte permet d'obtenir une information caractéristique interprétable. Une mesure de similarité mixte, basée à la fois sur la similarité entre caractéristiques structurelles et statistiques, est ensuite calculée à partir de cette signature mixte pour mesurer l'appartenance d'une forme à une classe. Cette mesure permet également de quantifier l'évolution que peut réaliser une forme suite à un changement de caractéristiques d'un système. L'ensemble des méthodes proposées a été utilisé sur plusieurs applications simulées et réelles. Ces applications concernaient le milieu industriel (détection de soudures de mauvaise qualité, détection d'une fuite dans un générateur de vapeur) et le milieu médical (caractérisation de la coordination inter-segmentaire des patrons de marche des patients hémiparétiques).
383

Étude géomophologique des flux glaciaires dans les Alpes nord-occidentales au Pléistocène récent. Du maximum de la dernière glaciation aux premières étapes de la déglaciation

Coutterand, Sylvain 21 June 2010 (has links) (PDF)
C'est dans le contexte spatio-temporel du dernier cycle glaciaire würmien que ce travail a été réalisé, le cadre paléogéographique correspondant à la zone intra-würmienne de Bourdier (1961). La reconstitution des flux glaciaires des Alpes nord-occidentales pendant le maximum d'englacement würmien en constitue l'objectif principal. L'acquisition de nouvelles observations géomorphologiques a permis, dans un premier temps, la réalisation d'une cartographie paléogéographique cohérente du système glaciaire au maximum würmien, tant pour les bassins versants amont (zones d'alimentation) que pour le domaine aval (lobes de piémont). Dans un second temps, l'étude s'est attachée à déterminer l'origine des différents flux glaciaires ayant alimenté les lobes de piémont des Alpes nord-occidentales (lobe suisse du glacier du Rhône, lobe lyonnais et lobe de Moirans). Pour mener à terme ce travail, le croisement de différentes méthodes d'analyse a été nécessaire : (i) une approche glacio-morphologique permettant de déterminer l'altitude de la ligne d'équilibre glaciaire ; (ii) des analyses pétrographiques des blocs erratiques permettant d'identifier les bassins versant sources des blocs erratiques (iii) ; et des analyses des minéraux lourds contenus dans la fraction fine des tills d'ablation, complétant et confirmant les analyses pétrographiques. Les premières étapes de la déglaciation correspondant à l'individualisation des flux issus des quatre principaux appareils du Rhône, de l'Arve de l'Isère et de la Romanche ont été reconstituées. Elles sont suivies des premiers stades du Tardiglaciaire ancien des vallées de l'Arve et du Rhône. Enfin, une approche chronologique a été menée et notamment la datation du maximum d'englacement würmien. Elle s'appuie sur l'analyse des données disponibles et tente de dégager les grandes tendances. Les résultats acquis apportent une importante contribution aux reconstitutions paléogéographiques et à l'étude de l'organisation des flux glaciaires lors du maximum würmien. Ces nouveaux éléments permettent une interprétation nouvelle de l'organisation du réseau glaciaire dans les Alpes nord-occidentales et remettent en cause, en particulier, la vision traditionnelle du glacier du Rhône atteignant le «complexe des moraines internes». En effet, les analyses démontrent que la totalité des glaces du lobe de piémont lyonnais provenait des zones d'accumulation de la partie interne des Alpes du nord françaises (sens géographique) : sud du massif du Mont-Blanc, Beaufortin, Tarentaise et une partie de la Maurienne. De plus, elles confirment la puissance des appareilsglaciaires ayant occupé les grandes cluses des massifs subalpins (cluses d'Annecy-Faverges et de Chambéry) et soulignent le rôle essentiel des glaciers transversaux originaires de la zone centrale des Alpes dans l'alimentation du lobe de piémont lyonnais. Quant à l'alimentation du lobe de Moirans, les analyses pétrographiques et les comptages de minéraux lourds apportent la preuve d'une contribution majeure du glacier de la Romanche. Ces résultats accréditent les hypothèses esquissées au XIXe siècle par certains auteurs (Lory, 1860 ; Falsan et Chantre, 1879). L'étude des étapes de la déglaciation souligne l'importance relative des différents appareils. Elle met notamment en évidence L'influence prépondérante et tardive du glacier isérois, dont l'importance à été bien souvent sous estimée par les auteurs. Enfin, l'approche chronologique a été abordée et une tentative de datation du WGM a été proposée. Sans pour autant apporter de nouveaux éléments déterminants, elle permet d'envisager un diachronisme entre les extensions des appareils du nord des Alpes (maximum tardif) et les appareils occidentaux (maximum ancien).
384

Discrétisation des modèles sigma invariants conformes sur des supersphères et superespaces projectifs

Candu, Constantin 31 October 2008 (has links) (PDF)
Le but de cette thèse a été l'étude de quelques représentants des modèles sigma en deux dimensions invariants conformes et avec symétrie continue qui sortent du cadre traditionnel, établie par la recherche des dernières décennies dans le domaine des théories conformes, des modèles sigma de Wess-Zumino-Witten ou des modèles gaussiens. Les modèles sigma sur des superespaces symétriques, définis par une action métrique standard, offrent de tels exemples. La difficulté de résoudre ces modèles sigma est relié au fait qu'ils ne possèdent pas de symétrie de Kac-Moody, qui est normalement nécessaire pour intégrer les théories conformes nongaussiennes avec symétrie continue. Dans cette thèse on considère les modèles sigma sur les supersphères S^(2S+1/2S) et sur les superespaces projectifs). Les deux modèles continus admettent une discrétisation par un gaz de boucles denses qui s'intersectent et dont l'algèbre des matrices de transfert est une algèbre de type Brauer. La stratégie principale qu'on a adoptée dans la recherche des résultats exacts sur ces modèles sigma est l'étude détaillée des symétries de la théorie continue, d'un coté, et du modèle discret, de l'autre. Cette analyse permet de faire le pont entre le comportement du modèle discret et la théorie continue. L'analyse détaillée des symétries discrètes - en particulier la structure des blocs de l'algèbre de Brauer - combinée à des calculs perturbatifs donne lieu à une proposition pour, selon les cas, le spectre partiel ou complet de la théorie conforme. Une dualité exacte du type couplage faible/couplage fort est également conjecturée dans les cas des modèles sigma sur les supersphères.
385

Films nématiques minces sur substrats liquides

Delabre, Ulysse 10 November 2009 (has links) (PDF)
Ce travail de thèse analyse l'organisation des films de cristaux liquides nématiques sur substrats liquides (eau et glycérol). Dans ce cas, l'ancrage planaire au niveau du substrat liquide est plus fort que l'ancrage homéotrope à l'interface libre. En dessous d'une épaisseur critique de l'ordre de 0.5-0.6 µm, des stries qui correspondent à une modulation de l'orientation du directeur, apparaissent. La longueur d'onde de ces stries est largement supérieure à l'épaisseur du film. Nous avons analysé la situation spécifique des films très minces et montré qu'une phase striée existait pour des films plats jusqu'à des épaisseurs de l'ordre de 20-40 nm. La pertinence de l'introduction des termes élastiques dits de surface (K24 et K13) dans l'analyse théorique des stries a été discutée. Sur l'eau, les films nématiques coexistent avec une tricouche de molécules dont l'organisation est régie par des interactions à très courte portée avec le substrat. Les gradients d'épaisseur présents en bord de film empêchent la formation de stries. Des mesures statiques et dynamiques de l'énergie d'un bord de film ont été effectuées. Il semble alors que le film nématique puisse accommoder un état distordu grâce à la formation de stries bien en dessous de l'épaisseur critique de transition de confinement. Enfin, une étude du processus de coalescence contrôlée par la tension de ligne a permis de mettre en évidence deux régimes de dissipation : aux temps courts la dissipation s'effectue en surface alors qu'aux temps longs, la dissipation se fait principalement dans la sous-phase. Une analyse en loi d'échelle permet de rendre compte de la dynamique observée expérimentalement.
386

Modélisation, simulation et contrôle des installations cryogéniques du CERN

Bradu, Benjamin 04 March 2010 (has links) (PDF)
Cette thèse présente le développement d'un simulateur de processus cryogéniques de grande taille appliqué aux installations cryogéniques de l'accélérateur de particules LHC (Large Hadron Collider) au CERN (Organisation Européenne pour la Recherche Nucléaire). Ce simulateur est basé sur une approche de modélisation orientée objet où chaque équipement (échangeur, turbine, compresseur, etc.) est représenté à partir d'un ensemble d'équations physiques algébro-différentielles. L'architecture de contrôle du CERN est également simulée en intégrant le contrôle réalisé par des automates programmables (PLC) avec le système de supervision. Ce simulateur à été développé pour servir différents desseins comme l'entraînement des opérateurs, la vérification des programmes automates (virtual commissioning) et l'optimisation des stratégies de contrôle. Le système cryogénique d'un détecteur de particules a d'abord été simulé pour valider les modèles, puis un liquéfacteur d'hélium a été modélisé pour réaliser un virtual commissioning. Les réfrigérateurs à hélium à 4,5 K du LHC ainsi que les unités de réfrigération à 1,8 K avec la ligne de distribution cryogénique du LHC ont également été modélisés et simulés. Le développement d'une nouvelle loi de commande basée sur un contrôle à modèle interne (IMC) en utilisant une commande robuste H infinie est présenté pour améliorer la régulation de la haute pression des réfrigérateurs à hélium du LHC. De plus, un système de pressions flottantes a été développé à partir du simulateur de manière à adapter automatiquement la puissance de réfrigération à la charge. Cette technique a pour principal objectif de réduire la puissance électrique des compresseurs.
387

La formalisation des publications scientifiques en sciences humaines : les sciences humaines et sociales à la recherche de fondements scientifiques

Delmotte, Stéphanie 14 December 2007 (has links) (PDF)
Les sciences humaines et sociales s'interrogent sur les fondements du discours scientifique depuis les années 1950. Depuis les années 1980, l'enseignement à distance évolue, et les années 2002-2007 des supports innovants sont créés pour répondre au traitement électronique de l'information. L'information scientifique doit s'adapter aux nouvelles formes de diffusion du savoir. Le discours scientifique dans les sciences humaines reste un « objet réglé par le système rhétorique ». Il propose un raisonnement, soit selon une culture de l'évidence rationnelle et expérimentale, soit selon une culture de l'argumentation. Sa représentation donnera lieu alors soit à une structure figée, soit à un plan créatif. Ces points de vue seront illustrés par les nouveaux supports et les résultats sous des formes multimédia. Les pratiques d'écriture, de référencement, d'édition, de validation, de diffusion et de lecture du discours en sciences humaines changent et doivent être accompagnées d'une réflexion approfondie. Les publications scientifiques jouent un rôle capital dans le système de la communication scientifique. Elles doivent répondre à deux exigences symbolisées par les deux pôles : celui de l'information (l'aspect logique et rationnel) et celui de la communication (l'aspect relationnel). Le numérique ainsi que les discours qui l'accompagnent peuvent être définis comme un phénomène émergent dans la communication scientifique. L'influence du traitement numérique de l'information entraîne une évolution des formes de représentation des champs scientifiques dans les sciences humaines. Il oblige plus qu'auparavant à caractériser le discours scientifique dans les sciences humaines et à le définir. La formalisation des publications scientifiques propose une organisation et une structuration du contenu avec des langages de balisage, des normes et des standards adaptés aux besoins des communautés pour assurer l'efficacité de la production de documents numériques.
388

Essays on Online Auction Design and Bidding Behavior / Essais sur la conception d'enchères en ligne et le comportement des enchérisseurs

Ducarroz, Caroline 17 December 2007 (has links)
On the one hand, time-honored practices of open outcry, bazaar and other flea markets, as well as Sotheby's and Christie's, the traditional auction houses. On the other hand, the Internet technology quickly and cheaply connects people anywhere in the world at anytime. A true love story then began and gave rise to online auctions, which are undoubtedly one of the greatest successes of e-commerce. Thanks to the Internet, individual consumers, average people, generally used to posted prices, discover an efficient mechanism of price setting. The weak popularity of auctions until the dawn of the third millennium (auctions were intended to B2B transactions, or to B2C transactions but in specific markets, such as the art market) certainly justifies the lack of interest of researchers in marketing for this mechanism. On the other hand, economists made auctions one of their favorite topics, as this mechanism constitutes a wonderful application of game theory, which has been playing a preponderant role in economics for twenty-five years. Entitled “Essays on Online Auction Design and Bidding Behavior”, this doctoral dissertation helps enrich the traditional economic approach of auctions by a behavioral and dynamic approach. The original part of the research is structured in three main stages, which go deeper and deeper in the study of bidders' behavior and auction dynamics. The whole research is based on online auctions organized by the French airline company Air France and by the auction site eBay. In the first stage of the research, on the basis of hypotheses coming from the auction theory, the impact of auction rules on bidders’ participation and seller's revenue is econometrically studied, using simultaneous equations models and the 2SLS method. Does a high opening bid have a negative effect on the number of bidders and a positive one on the auction revenue, as predicted by the auction theory? Do sequential auctions of similar items lead to similar auction price? These are examples of questions that are investigated. While the auction theory literature typically takes the number of bidders as exogenously given, we chose to consider it as endogenous. Even though an increasing number of researchers acknowledge the endogenous feature of auction participation, no empirical study really takes this feature into account. Hypotheses from the auction theory turn out to be confirmed, as far as the minimum bid and the number of bidders are concerned. Interesting results are found regarding the performance of sequential auctions of similar items, since auctions in a sequence turn out to yield increasing revenues. Furthermore, the impact of the starting bid turns out to be moderated by the effect of these sequential auctions. In the second stage of this research, a disaggregated perspective (at the bidder’s level) is adopted, since a typology of bidding behaviors based on bidders' choices is built. This part is thus aimed at investigating whether heterogeneity exists in bidder’s behavior in online auctions, contrary to the longstanding assumption of homogenous, rational and strategic bidders made by the auction theory. A clustering analysis is conducted, based on decisions that bidders have to make during an auction, whose keywords are certainly: when? How? How much? For example: do bidders submit a small or a large number of bids? Do they react quickly when they lose auction leadership? When do they make their bids: at the beginning of the auction, at the end of it, or during the whole auction? What increment do they use? Results, based on two different samples related to Air France and eBay auctions provide a description of different bidding behaviors. The analysis focusing on Air France auctions highlights five types of bidding behavior: jump bidders, rational bidders, active bidders, bottom fishers and pioneers. Slightly different results are obtained for eBay auctions, since six types of bidding behavior are highlighted: snipers, evaluators, unmasking bidders, bottom fishers, pioneers and late pioneers. A closer look is given to the group of bidders who turned out to win an auction, in order to determine whether these bidders are characterized by specific bidding decisions, and thus, by specific bidding behaviors. The third stage focuses on the dynamic bidding process of an English auction, by specifically studying the impact of signals – namely, promotional messages – sent during an online auction on the final auction price. It proposes to test a model of the genesis and the impact of these messages aimed at informing current bidders and potential bidders about the item or urging them to submit a bid. This impact is modeled through a disaggregated and dynamic model. It exploits the recent behavioral view that each bid submitted by a bidder in an English auction is a particular decision that may be influenced by signals sent by the auctioneer during the auction, that is, between the decisions that the bidder makes. This model simultaneously takes into account the following three factors: (i) the direct impact of marketing messages on the auction price when messages affect bidders’ valuations, (ii) the indirect impact of messages on this price when messages attract a new bidder to the auction, and (iii) the possibility that the auctioneer’s strategy for sending messages depends on past events in the auction and on the timing of past messages. In this model, we thus propose that messages influence final auction prices through a dual-path system. The model also reflects an important feature of auction messages, which is the real time interactivity between the auctioneer and auction participants. The results, obtained through Bayesian inference, support the proposed model. This doctoral dissertation globally helps better understand bidders’ behavior in view of the rules set by the seller, and estimate how this seller can maximize his/her revenues. The main original aspects of this research consist in considering the English auction as a dynamic process and in focusing on bidders’ behavior, these two elements being ignored by economists. From a managerial point of view, this research can help online auction designers to better design their auctions in order to maximize their revenue.
389

Parcours d'enseignement différencié appuyés sur un diagnostic en algèbre élémentaire à la fin de la scolarité obligatoire : modélisation, implémentation dans une plateforme en ligne et évaluation

Pilet, Julia 11 December 2012 (has links) (PDF)
Notre recherche vise à répondre aux difficultés des enseignants à gérer l'hétérogénéité des apprentissages des élèves en algèbre élémentaire en fin de scolarité obligatoire en France (15 ans). La thèse, qui s'inscrit dans le projet de recherche PepiMeP, porte sur la modélisation didactique de parcours d'enseignement différencié appuyés par un logiciel de diagnostic et sur leur implémentation informatique dans des systèmes de ressources en ligne. Nous la situons dans le cadre de la théorie anthropologique du didactique pour étudier et comprendre les conditions de production et de circulation des savoirs dans les institutions. Tirant parti de recherches antérieures en didactique de l'algèbre, nous définissons une organisation mathématique épistémologique de référence. Elle sert de fondement pour, d'une part, analyser le savoir à enseigner et formuler des hypothèses sur la présence de savoirs et savoir-faire implicites dans les institutions considérées et, d'autre part, mettre en relation les rapports personnels des élèves, caractérisés par le diagnostic, avec les rapports institutionnels en algèbre. Ces analyses éclairent sur les questions génératrices à aborder dans les parcours et fournissent des éléments pour sélectionner des types de tâches, souvent rarement présents en classe, et pour organiser leur gestion didactique. L'analyse d'expérimentations, menées dans le cadre d'un travail collaboratif avec des enseignants du secondaire, des chercheurs en informatique et l'association de professeurs de mathématique Sésamath, nous permet d'évaluer la pertinence cognitive et épistémologique du modèle et d'envisager son écologie possible dans l'enseignement secondaire actuel.
390

Vers l'OLAP sémantique pour l'analyse en ligne des données complexes

Loudcher, Sabine 29 June 2011 (has links) (PDF)
L'analyse en ligne OLAP permet une navigation interactive dans les données, une visualisation rapide de l'information et une exploration de la structure multidimensionnelle des données. Une des limites est de se restreindre à des aspects exploratoires et navigationnels. De plus, avec l'avènement des données complexes (données multi-format et/ou multi-structure et/ou multi-source et/ou multi-modale et/ou multi-version), l'analyse en ligne doit s'adapter à la nature spécifique de ces données tout en gardant l'esprit de l'OLAP. Les opérateurs OLAP sont définis pour des données classiques et sont souvent inadaptés quand il s'agit de données complexes par exemple composées de textes, images, son ou vidéos. Les limites de l'OLAP ainsi que la spécificité des données complexes nécessitent une évolution ou adaptation de l'OLAP. Il devient nécessaire de : (1) enrichir les possibilités de l'analyse OLAP en la dotant de nouvelles possibilités ; (2) créer une analyse en ligne adaptée aux données complexes ; (3) faire évoluer l'OLAP vers une analyse sémantique des données. Dans cette vaste problématique, nous choisissons de traiter les questions d'agrégation et visualisation des données complexes, de réorganisation du cube pour identifier des régions d'analyse intéressantes, et d'étendre l'OLAP à des possibilités d'explication et de prédiction. Pour toutes ces questions, nous essayons également de tenir compte de la sémantique véhiculée par les données. Pour apporter des premières solutions, nous orientons vers une combinaison des principes de l'OLAP, de la fouille de données et de la recherche d'information. Afin d'introduire une analyse explicative dans l'OLAP, nous faisons une recherche guidée de règles d'association dans le cube. Cela nous conduit à modifier la définition du support et de la confiance d'une règle. Les arbres de régression nous permettent de proposer à l'utilisateur de faire de la prédiction dans le cube et d'avoir ainsi une démarche de type What If Analysis. Pour l'analyse des données complexes, deux méthodes factorielles (AFC et ACM) rendent possible la visualisation des faits dans un cube et la détection de régions intéressantes en réorganisant les dimensions du cube. Nous proposons également une agrégation sémantique des faits et une nouvelle hiérarchie de dimension construite automatiquement grâce aux principes d'une méthode de classification (CAH). Nos propositions sont une première démonstration de la faisabilité de combiner l'OLAP à d'autres techniques comme la fouille de données et la recherche d'information pour faire significativement évoluer l'analyse en ligne et s'adapter aux données complexes. L'OLAP a commencé à s'adapter à leur structure et à leur spécificité (XOLAP - XML OLAP, SOLAP - spatial OLAP). Mais il faut aller au delà et nous pensons qu'un des défis est d'extraire et d'analyser (en ligne) la sémantique contenue dans les données complexes. Ce point constitue un véritable verrou scientifique mais qui est que partiellement abordé par la communauté scientifique. Il faudrait également identifier tous les problèmes posés par les données complexes et ce quels que soient leur nature, contexte ou spécificités. Nous voulons poursuivre nos travaux dans cette voie et faire évoluer l'OLAP vers une nouvelle génération d'analyse en ligne : l'OLAP sémantique. Les problèmes majeurs à traiter seront comment : (1) modéliser toutes les formes de données complexes, leur sémantique et leurs liens ; (2) analyser en ligne les données complexes ; (3) Intégrer les connaissances de l'utilisateur dans le processus de l'analyse ?

Page generated in 0.4909 seconds