Spelling suggestions: "subject:"analyse een ligne"" "subject:"analyse enn ligne""
1 |
Maîtrise de la sélectivité par application de la technologie microfluidique à des réactions rapides concurrentes : application à la génération de carbénoïdes vinyliques et à la neutralisation d'agents chimiques de guerre. / Control of selectivity by application of microflow technology to fast competitive reactions : applications to vinylic carbenoids generation and sulfur containing CWA neutralizationPicard, Baptiste 18 December 2018 (has links)
Le but de ces travaux est de mettre en application les caractéristiques particulières des microréacteurs en flux dans le cadre de la synthèse organique. Ces particularités sont expliquées dans l’avant-propos de ce manuscrit, afin de comprendre comment elles peuvent influencer le déroulement d’une réaction. La première partie de ces travaux de thèse concerne l’emploi des réacteurs microfluidiques pour la génération de carbénoïdes vinyliques hautement instables (avec des demi-vies souvent inférieures à la seconde), et leur emploi en synthèse. Même si des conditions de génération efficaces ont été mises au point, le piégeage d’électrophiles variés reste difficile en raison des cinétiques extrêmes mises en jeu. La seconde partie décrit la neutralisation d’agents de guerre chimique (CWA), avec une emphase sur la possibilité d’augmentation d’échelle et la sécurité. Des voies de neutralisation oxydantes ont été explorées sur des thioethers de type hémimoutardes (sulfures de 2-chloroéthyle), analogues de l’ypérite. La méthode développée offre une conversion en sulfoxyde quantitative, et ne produit que des effluents bénins à partir de réactifs disponibles et abordables. Cette méthode d’oxydation en flux a pu être extrapolée rapidement et facilement sur une quantité importante d’hémimoutarde (25g), et couplée à une analyse RMN en ligne. L’applicabilité de cette méthode à des phosphonothioates a également été envisagée. Constituants majoritaires de la série V, ces molécules organophosphorés neurotoxiques peuvent également être neutralisées par l’oxydation sélective d’un atome de soufre. Pour réaliser cette étude, une nouvelle voie d’accès au motif phosphonothioate a été explorée avec succès. Ceci a permis la synthèse du PhX (analogue phénylé proche du VX), ainsi que d’autres analogues pertinents de la série V. Cette méthode offre un rendement élevé à une échelle adaptée au laboratoire, et permet un accès très rapide au produit final. La réactivité de ces modèles a ensuite pu être évaluée vis-à-vis de divers oxydants. Une méthode unique n’a pour le moment pas pu être développée, mais la compréhension plus poussée des mécanismes oxydants impliqués dans ces processus pourrait permettre de répondre prochainement à ce défi. / The goal of this work was to put in application the unmatched properties of fluidic microreactors in the field of organic synthesis. Those particular properties are discussed in this document, in an attempt to rationalize their effects on reaction courses. The first part of this work is dedicated to exploiting unstable vinylic carbenoids as nucleophiles despite their very short half-lives (often inferior to the second). Even if some results show efficient trapping of those elusive intermediates, applicability in synthesis remains very limited because of the extreme nature of the kinetics involved. The second part describes the application of microreactors to neutralization of chemical warfare agent (CWA) with an emphasis on scalability and safety. Oxidative neutralization pathways were explored on half-mustard thioethers (2-chloroethyl sulfides), as yperite simulants. The developed method allows their full conversion to sulfoxides, and only produces non-toxic effluents. This oxidative method was easily scaled up to 25g of half-mustard, and was successfully coupled with an in-line NMR analysis.Effectiveness of this method on phosphonothioates was also explored. These neurotoxic organophosphorus molecules, which are the majority constituents of the V series, can also be neutralized by the selective oxidation of a sulfur atom. To perform this study, a new pathway to phosphonothioate moiety was successfully explored. This allowed a new synthetic path for PhX (a close, phenyl analogue of VX), along with other relevant V series analogues. This method offers good yields at lab scale, in an expedient fashion. Reactivity of these CWA simulants was then evaluated against multiple oxidants. Even if a unified method could not yet be developed, a better understanding of the involved oxidative mechanisms could allow to address this challenge.
|
2 |
Analyse d'une protéine ciblée par immunoaffinité et digestion sur micro-réacteur enzymatique couplés en ligne à une analyse par chromatographie liquide et spectrométrie de masse : synthèse, caractérisation et miniaturisation des outils bioanalytiquesCingöz, Annabelle 21 September 2009 (has links) (PDF)
L'étude de protéines ciblées comme des biomarqueurs dans des matrices biologiques est un réel défi pour le diagnostic médical. De nos jours, la technique de choix est la chromatographie en phase liquide couplée à la spectrométrie de masse. Cependant, l'analyse d'une protéine induit une étape de traitement d'échantillon afin de purifier au mieux la matrice biologique. En vue d'une automatisation totale de l'analyse, une étape d'extraction sélective a été couplée à un réacteur enzymatique suivie de l'analyse par CPL-SM. Tout d'abord, différents réacteurs enzymatiques ont été préparés et évalués. Puis, une étape extraction a été développée via un immunoadsorbant (IS). L'IS a ensuite été couplé à l'analyse pour une application à un échantillon de plasma dopé. Enfin, un des défis analytiques actuels est la miniaturisation du système analytique afin d'augmenter la sensibilité. Ainsi, un réacteur enzymatique a été préparé dans en format capillaire. L'efficacité de digestion a été démontrée sur un substrat de faible poids moléculaire. La synthèse d'un IS miniaturisé sera envisagée dans le but d'un couplage avec le réacteur enzymatique et l'analyse par nano-CPL/SM.
|
3 |
MODELISATION DES GRANDS SYSTEMES ELECTRIQUES INTERCONNECTES : APPLICATION A L'ANALYSE DE SECURITE DANS UN ENVIRONNEMENT COMPETITIFAlcheikh-Hamoud, Khaled 06 April 2010 (has links) (PDF)
La restructuration du secteur de l'énergie électrique et la dérégulation du marché de l'électrécité, les contraintes environnementales et dans certains cas des investissements insuffisants dans les infrastructures des systèmes électriques forment actuellement les principaux facteurs qui poussent les opérateurs des systèmes électriques à faire fonctionner ces derniers dans des conditions opérationnelles contraignantes, à savoir de plus en plus près de leurs limites de stabilité. En effet, afin de pouvoir exploiter leurs réseaux électriques avec des marges de sécurité réduites sans détérioration significative de la sûreté de fonctionnement, les gestionnaires des réseaux de transport (GRTs) ont récemment adopté un nouvel outil pour se prémunir contre le risque des pannes généralisées (blackouts) des réseaux électriques. Il s'agit de l'analyse en ligne de sécurité. A l'heure actuelle, en l'absence d'un coordinateur de sécurité central ou d'échanges complets de données en ligne entre tous les GRTs, l'analyse en ligne de sécurité des grands systèmes électriques interconnectés se fait d'une manière décentralisée au niveau du GRT de chaque zone de réglage. Le problème majeur de l'analyse décentralisée des systèmes interconnectés réside dans le fait que chaque GRT n'est pas capable d'évaluer la vulnérabilité de son système à l'égard des contingences externes originaires des zones de réglage voisines. Dans cette thèse, nous proposons comme solution à ce problème un nouveau cadre de coopération et de coordination entre les GRTs. Dans ce cadre, les GRTs s'échangent en ligne et hors ligne les données nécessaires permettant à chacun d'entre eux premièrement d'évaluer l'impact de ses contingences externes sur la sécurité de sa zone, deuxièmement de concevoir, en utilisant des techniques d'apprentissage automatique, des filtres qu'il utilise ensuite en ligne pour le filtrage rapide de ses contingences externes de sorte que seules les contingences externes potentiellement dangereuses soient sélectionnées pour une analyse détaillée en ligne.
|
4 |
Développement de la LIBS pour l'analyse en ligne de produits uranifères ou plutonifères solides / Development of LIBS for online analysis of solid nuclear materialsPicard, Jessica 22 January 2015 (has links)
Avec l’objectif de mettre en œuvre une technique d’analyse en ligne rapide pour le contrôle de matériaux nucléaires solides, la spectrométrie de plasma créé par laser (LIBS) est développée pour la quantification d’impuretés dans l’uranium et le plutonium. Etant donné que ces matrices ont un spectre d’émission très dense dans l’UV-Visible, le domaine Vacuum Ultra-Violet (VUV), moins riche en raies, est exploré. Le but de cette thèse est de réaliser le développement analytique de la LIBS-VUV pour l’analyse quantitative entre 500 et 5000 ppm avec une incertitude de 3%. Pour cela, quatre étapes ont été définies. Premièrement, pour des raisons pratiques et de sécurité, il est généralement préférable de faire des expériences sur des substituts non radioactifs. La LIBS reposant sur l’interaction laser-matière, il est pertinent de rechercher un substitut des matériaux d’intérêt du point de vue de l’ablation laser. Une étude complète de l’ablation laser de plusieurs métaux a permis de construire un modèle opérationnel prédictif de l’efficacité d’ablation. L’acier inoxydable et le titane ont été définis comme les matériaux de substitution du plutonium et de l’uranium. En second lieu, les performances analytiques de la LIBS-VUV ont été optimisées pour plusieurs éléments dans quatre métaux. Puis, deux méthodes d’étalonnage sont utilisées pour déterminer les performances analytiques. Les limites de quantification sont de l’ordre de quelques centaines de ppm, ce qui valide l’objectif d’une quantification des impuretés entre 500 et 5000 ppm. L’incertitude est inférieure à 3% dans les meilleurs cas. Enfin, un transfert d’étalonnage entre les différentes matrices a été étudié. / With the objective to implement a fast, online analysis technique for control of solid metal nuclear materials, laser-induced breakdown spectroscopy (LIBS) technique is developed for quantitative analysis in uranium and plutonium. Since these matrices have a very dense emission spectrum in the UV-Visible range, the Vacuum Ultra-Violet (VUV) spectral range, less rich in lines, is explored. The aim of this thesis is to perform the analytical development of VUV-LIBS for quantitative analysis between 500 and 5000 ppm with an uncertainty of 3%. For that purpose, four steps were defined. First, for practical and safety reasons, it is generally better to perform experiments on surrogate materials. LIBS based on laser-material interaction, it is relevant to seek a surrogate of material of interest from the viewpoint of the ablated mass. Thus, a complete study of laser ablation of several metals was enabled to build a predictive model of the ablation efficiency. Titanium and stainless steel were defined as surrogate materials of plutonium and uranium for laser ablation. Secondly, the VUV-LIBS setup analytical performances were optimized for several elements of interest in four metals. Then, two calibration methods are used to determine the analytical performances. The limits of quantification are of the order of a few hundreds of ppm for all studied matrices, which validates the objective of impurities quantitation in the 500-5000 ppm range. Uncertainty is lower than 3% in the best cases. Finally, the calibration transfer between the four matrices was studied. A normalization of the nickel net signal measured in three matrices was presented.
|
5 |
Développement d'un appareil spectrofluorométrique pour l'analyse quantitative en-ligne d'un mélange particulaire pharmaceutiqueGuay, Jean-Maxime January 2014 (has links)
La réalité d’amélioration de la qualité par le design de procédé (QdB) ainsi que l’apprentissage et le contrôle des variables critiques devient de plus en plus prédominant dans le milieu pharmaceutique. En effet, les risques associés à la mentalité d’analyse traditionnelle sur le produit fini uniquement et l’avènement des techniques d’analyse de procédés (PAT) ouvrent la voie à un contrôle plus complet et en temps réel de la qualité, tel que recommandé par les instances règlementaires. Ceci implique des économies d’échelle pour l’industrie étant donné la réduction des efforts (temps et argent) associés à l’analyse laboratoire par les techniques conventionnelles.
Les appareils spectroscopiques constituent une technologie très utile pour l’analyse d’une formulation étant donné qu’ils sont généralement non-invasifs et non-destructifs. Dans le cadre de ce projet de recherche, il sera question de l’évaluation et du développement de la technique light-induced fluorescence spectroscopy (LIFS) afin de déterminer en-ligne la faible concentration d’un ingrédient actif dans une étape de mélange. Pour se faire, il sera tout d’abord nécessaire d’établir des modèles de calibration et d’évaluer l’impact des facteurs environnementaux et physico-chimiques sur les performances de ceux-ci, ainsi que sur le phénomène de photoblanchiment. Suite à une analyse de sensibilité, il sera possible d’élaborer un modèle optimisé et robuste.
La méthodologie pour atteindre ces objectifs est la suivante : détermination des longueurs d’onde d’opération (excitation et émission); acquisition de spectres en mode dynamique, mais aussi en mode statique en faisant varier les paramètres de concentration, d’humidité, de taille de particule et de pression appliquée; traitement des données par analyse multivariée; établissement d’un modèle de calibration et validation de celui-ci par des essais à l’échelle pilote.
La technologie LIFS, mais surtout son utilisation comme PAT, est très novatrice. De plus, les instruments développés antérieurement n’ont pas donné les résultats escomptés, ce qui renforce la pertinence de continuer les efforts de développement. Plus encore, le phénomène de photoblanchiment est encore mal défini et très peu d’études ont été faites sur des mélanges de poudres. En établissant de façon claire l’impact des différents facteurs sur la justesse, la précision, la répétabilité et la robustesse du modèle et de l’appareil, il sera possible de développer une technologie fiable permettant de quantifier des molécules fluorescentes en faible concentration dans un mélange particulaire.
|
6 |
Faisabilité d'un capteur spectroscopique proche infrarouge pour la détermination chimiométrique de cractéristiques physico-chimiques de matériaux plats en cours de fabricationTrupin, Séverine 14 November 2007 (has links) (PDF)
Les industries de fabrication de matériaux plats sont utilisatrices de systèmes de mesure en ligne qui permettent de contrôler certaines caractéristiques. Les films plastiques constitués de plusieurs couches sont particulièrement employés pour le conditionnement des aliments grâce à leurs propriétés d'étanchéité. Une mesure spécifique de l'épaisseur des couches barrières est de grand intérêt. Les techniques actuelles de contrôle ne peuvent pas les discriminer. L'objectif est donc de développer un capteur spectroscopique infrarouge capable de mesurer une ou plusieurs couches par adaptation de modèles chimiométriques.<br />Le proche infrarouge permet l'analyse d'une plus large gamme d'épaisseur par rapport à l'infrarouge moyen, mais exalte les interférences optiques à cause des faibles absorbances. Ce problème est traité mathématiquement par la transformée de Fourier rapide et les ondelettes. Une méthode instrumentale basée sur la polarisation de la lumière à angle de Brewster s'avère être la plus efficace.<br />Des modèles prédictifs performants ont été développés par la méthode PLS pour les films monocouches. L'étude des films multicouches a nécessité la recherche d'une méthode de référence, aucune n'étant admise actuellement. Différentes techniques comme la microscopie électronique à balayage ou l'ellipsométrie spectroscopique ont été testées. Finalement, la superposition d'échantillons monocouches d'épaisseur connue a fourni de meilleurs résultats. Ceux-ci ont été confirmés par réflectométrique optique à faible cohérence. L'analyse quantitative des films plastiques est donc possible par spectroscopie proche infrarouge couplée à la chimiométrie.
|
7 |
Etudes préalables à l'adsorption en phase gazeuse dynamique de dioxines sur une zéolithe pour la mesure à l'émission. / Preliminary studies for gaseous dynamic dioxin adsorption on a zeolite, for emission monitoringBonvalot, Lise 14 May 2013 (has links)
L’incinération des ordures ménagères entraîne la formation de dioxines. Ces composés sont reconnus comme toxiques voire cancérigènes. La connaissance des quantités émises en temps réel est donc nécessaire.Ces travaux de thèses s’inscrivent dans une étude globale d’un dispositif permettant l’analyse en ligne des dioxines grâce à un système pré-concentrateur utilisant l’adsorption sélective de congénères toxiques sur des zéolithes, supportant la thermo-désorption, et un analyseur en masse.Dans un premier temps, les enjeux sont exposés. Puis une étude des écoulements dans les milieux poreux a pour but de déterminer quelle est la meilleure mise en forme des zéolithes pour favoriser l’adsorption en phase gazeuse dynamique. Ensuite, la mise en place et la caractérisation d’un système de génération de dioxines en phase gazeuse sont détaillées. Cette source est ajustable en concentration et en débit, permettant des études d’adsorption en laboratoire.Les premiers essais d’adsorption en phase gazeuse montrent, en accord avec les prédictions de la première étude, l’importance d’un adsorbant régulier de faible granulométrie. L’analyse par thermodésorption des dioxines piégées sur des grains de FAU [NaX] est réalisée en quelques heures.La facilité d’utilisation de zéolithes dans un système de prélèvement comme adsorbants et leur analyse par les méthodes de la norme EN 1948 a été prouvée lors de deux campagnes sur une unité d’incinération d’ordures ménagères.Ces travaux ont montré que l’analyse quotidienne en ligne des dioxines est d’actualité et pertinente. / The waste incineration leads to the formation of dioxins. These compounds are known to be toxic, even carcinogenic. Therefore, the emitted amounts have to be monitored.This work is part of a comprehensive study of a device for the online analysis of dioxins by means of a pre-concentrator using selective adsorption of toxic congener upon zeolites, allowing thermal desorption and a mass spectrometer.At first, the stakes are exposed. Then a study of flow in porous media aims to determine the best shape of zeolites to promote dynamic gas-phase adsorption. Then the establishment and characterization of a system for gas phase dioxins generation are detailed. This source is adjustable both in concentration and flow, allowing laboratory adsorption studies.The first gas phase adsorption tests show, in agreement with the predictions of the first study, the importance of a regular-shaped adsorbent with small particle sizes. The analysis by thermal desorption of dioxins trapped on grains FAU [NaX] is carried out in a few hours.The ease of use of zeolites in sampling train as adsorbent and their analysis according to EN 1948 standards has been proved during two campaigns at a waste incinerator facility.
|
8 |
Vers l'OLAP sémantique pour l'analyse en ligne des données complexesLoudcher, Sabine 29 June 2011 (has links) (PDF)
L'analyse en ligne OLAP permet une navigation interactive dans les données, une visualisation rapide de l'information et une exploration de la structure multidimensionnelle des données. Une des limites est de se restreindre à des aspects exploratoires et navigationnels. De plus, avec l'avènement des données complexes (données multi-format et/ou multi-structure et/ou multi-source et/ou multi-modale et/ou multi-version), l'analyse en ligne doit s'adapter à la nature spécifique de ces données tout en gardant l'esprit de l'OLAP. Les opérateurs OLAP sont définis pour des données classiques et sont souvent inadaptés quand il s'agit de données complexes par exemple composées de textes, images, son ou vidéos. Les limites de l'OLAP ainsi que la spécificité des données complexes nécessitent une évolution ou adaptation de l'OLAP. Il devient nécessaire de : (1) enrichir les possibilités de l'analyse OLAP en la dotant de nouvelles possibilités ; (2) créer une analyse en ligne adaptée aux données complexes ; (3) faire évoluer l'OLAP vers une analyse sémantique des données. Dans cette vaste problématique, nous choisissons de traiter les questions d'agrégation et visualisation des données complexes, de réorganisation du cube pour identifier des régions d'analyse intéressantes, et d'étendre l'OLAP à des possibilités d'explication et de prédiction. Pour toutes ces questions, nous essayons également de tenir compte de la sémantique véhiculée par les données. Pour apporter des premières solutions, nous orientons vers une combinaison des principes de l'OLAP, de la fouille de données et de la recherche d'information. Afin d'introduire une analyse explicative dans l'OLAP, nous faisons une recherche guidée de règles d'association dans le cube. Cela nous conduit à modifier la définition du support et de la confiance d'une règle. Les arbres de régression nous permettent de proposer à l'utilisateur de faire de la prédiction dans le cube et d'avoir ainsi une démarche de type What If Analysis. Pour l'analyse des données complexes, deux méthodes factorielles (AFC et ACM) rendent possible la visualisation des faits dans un cube et la détection de régions intéressantes en réorganisant les dimensions du cube. Nous proposons également une agrégation sémantique des faits et une nouvelle hiérarchie de dimension construite automatiquement grâce aux principes d'une méthode de classification (CAH). Nos propositions sont une première démonstration de la faisabilité de combiner l'OLAP à d'autres techniques comme la fouille de données et la recherche d'information pour faire significativement évoluer l'analyse en ligne et s'adapter aux données complexes. L'OLAP a commencé à s'adapter à leur structure et à leur spécificité (XOLAP - XML OLAP, SOLAP - spatial OLAP). Mais il faut aller au delà et nous pensons qu'un des défis est d'extraire et d'analyser (en ligne) la sémantique contenue dans les données complexes. Ce point constitue un véritable verrou scientifique mais qui est que partiellement abordé par la communauté scientifique. Il faudrait également identifier tous les problèmes posés par les données complexes et ce quels que soient leur nature, contexte ou spécificités. Nous voulons poursuivre nos travaux dans cette voie et faire évoluer l'OLAP vers une nouvelle génération d'analyse en ligne : l'OLAP sémantique. Les problèmes majeurs à traiter seront comment : (1) modéliser toutes les formes de données complexes, leur sémantique et leurs liens ; (2) analyser en ligne les données complexes ; (3) Intégrer les connaissances de l'utilisateur dans le processus de l'analyse ?
|
9 |
Évolution de schémas dans les entrepôts de données : mise à jour de hiérarchies de dimension pour la personnalisation des analysesFavre, Cécile 12 December 2007 (has links) (PDF)
Cette thèse a été réalisée en collaboration avec l'établissement bancaire LCL-Le Crédit Lyonnais. Elle s'inscrit dans le domaine des entrepôts de données. Ces derniers constituent un élément fondamental de l'architecture décisionnelle, sur lesquels reposent des outils permettant de répondre à des besoins d'analyse. Or, l'émergence de nouveaux besoins d'analyse individuels fait apparaître la nécessité d'une personnalisation des analyses. Pour permettre cette personnalisation, nous proposons une solution basée sur une évolution du schéma de l'entrepôt guidée par les utilisateurs. Il s'agit en effet de recueillir les connaissances de l'utilisateur et de les intégrer dans l'entrepôt de données afin de créer de nouveaux axes d'analyse. Cette solution s'appuie sur la définition d'un modèle formel d'entrepôt de données évolutif, basé sur des règles "si-alors", que nous appelons règles d'agrégation, qui permettent de représenter les connaissances utilisateurs. Notre modèle d'entrepôt évolutif est soutenu par une architecture qui place l'utilisateur au cœur du processus d'évolution du schéma de l'entrepôt. Nous nous sommes par ailleurs intéressés à l'évaluation de la performance de notre modèle d'entrepôt de données évolutif. L'évaluation de performances se base généralement sur une charge (ensemble de requêtes). Dans le contexte évolutif dans lequel nous nous plaçons, nous proposons alors une méthode de mise à jour incrémentale d'une charge donnée en répercutant l'évolution de schéma subie par l'entrepôt. Pour valider nos différentes contributions, nous avons développé la plateforme WEDriK (data Warehouse Evolution Driven by Knowledge).
|
10 |
Vers l'OLAP sémantique pour l'analyse en ligne des données complexesLoudcher, Sabine 29 June 2011 (has links) (PDF)
L'analyse en ligne OLAP permet une navigation interactive dans les données, une visualisation rapide de l'information et une exploration de la structure multidimensionnelle des données. Une des limites est de se restreindre à des aspects exploratoires et navigationnels. De plus, avec l'avènement des données complexes (données multi-format et/ou multi-structure et/ou multi-source et/ou multi-modale et/ou multi-version), l'analyse en ligne doit s'adapter à la nature spécifique de ces données tout en gardant l'esprit de l'OLAP. Les opérateurs OLAP sont définis pour des données classiques et sont souvent inadaptés quand il s'agit de données complexes par exemple composées de textes, images, son ou vidéos. Les limites de l'OLAP ainsi que la spécificité des données complexes nécessitent une évolution ou adaptation de l'OLAP. Il devient nécessaire de : (1) enrichir les possibilités de l'analyse OLAP en la dotant de nouvelles possibilités ; (2) créer une analyse en ligne adaptée aux données complexes ; (3) faire évoluer l'OLAP vers une analyse sémantique des données. Dans cette vaste problématique, nous choisissons de traiter les questions d'agrégation et visualisation des données complexes, de réorganisation du cube pour identifier des régions d'analyse intéressantes, et d'étendre l'OLAP à des possibilités d'explication et de prédiction. Pour toutes ces questions, nous essayons également de tenir compte de la sémantique véhiculée par les données. Pour apporter des premières solutions, nous orientons vers une combinaison des principes de l'OLAP, de la fouille de données et de la recherche d'information. Afin d'introduire une analyse explicative dans l'OLAP, nous faisons une recherche guidée de règles d'association dans le cube. Cela nous conduit à modifier la définition du support et de la confiance d'une règle. Les arbres de régression nous permettent de proposer à l'utilisateur de faire de la prédiction dans le cube et d'avoir ainsi une démarche de type What If Analysis. Pour l'analyse des données complexes, deux méthodes factorielles (AFC et ACM) rendent possible la visualisation des faits dans un cube et la détection de régions intéressantes en réorganisant les dimensions du cube. Nous proposons également une agrégation sémantique des faits et une nouvelle hiérarchie de dimension construite automatiquement grâce aux principes d'une méthode de classification (CAH). Nos propositions sont une première démonstration de la faisabilité de combiner l'OLAP à d'autres techniques comme la fouille de données et la recherche d'information pour faire significativement évoluer l'analyse en ligne et s'adapter aux données complexes. L'OLAP a commencé à s'adapter à leur structure et à leur spécificité (XOLAP - XML OLAP, SOLAP - spatial OLAP). Mais il faut aller au delà et nous pensons qu'un des défis est d'extraire et d'analyser (en ligne) la sémantique contenue dans les données complexes. Ce point constitue un véritable verrou scientifique mais qui est que partiellement abordé par la communauté scientifique. Il faudrait également identifier tous les problèmes posés par les données complexes et ce quels que soient leur nature, contexte ou spécificités. Nous voulons poursuivre nos travaux dans cette voie et faire évoluer l'OLAP vers une nouvelle génération d'analyse en ligne : l'OLAP sémantique. Les problèmes majeurs à traiter seront comment : (1) modéliser toutes les formes de données complexes, leur sémantique et leurs liens ; (2) analyser en ligne les données complexes ; (3) Intégrer les connaissances de l'utilisateur dans le processus de l'analyse ?
|
Page generated in 0.1279 seconds