• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 163
  • 67
  • 31
  • 2
  • 1
  • 1
  • Tagged with
  • 267
  • 267
  • 103
  • 102
  • 88
  • 60
  • 53
  • 42
  • 40
  • 30
  • 30
  • 30
  • 28
  • 25
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Nouvelle approche d'identification dans les bases de données biométriques basée sur une classification non supervisée

Chaari, Anis 06 October 2009 (has links) (PDF)
Les travaux effectués dans le cadre de cette thèse portent sur l'identification automatique de visages dans des bases de données d'images numériques. L'objectif est de simplifier le déroulement de l'identification biométrique qui consiste à la recherche de l'identité requête parmi l'ensemble des individus de la base de données préenregistrée, appelée aussi galerie. En effet, le schéma d'identification classique est complexe et très coûteux notamment dans le cas de grandes bases de données biométriques. Le processus original que nous proposons ici a pour objectif de réduire la complexité et d'améliorer les performances en terme de temps de calcul et de taux d'identification. Dans ce cadre biométrique, nous avons proposé une étape de classification non supervisée ou clustering des visages pour partitionner la base d'images en plusieurs sous ensembles cohérents et bien discriminés. Pour ce faire, l'algorithme de clustering vise à extraire, pour chaque visage, un ensemble de descripteurs, appelé signature, qui lui soit spécifique. Trois techniques de représentation faciales ont été développées dans le but d'extraire des informations différentes et complémentaires décrivant le visage humain : deux méthodes factorielles d'analyse multidimensionnelle et de projection des données (méthodes dites « Eigenfaces » et « Fisherfaces ») ainsi qu'une méthode d'extraction des moments géométriques de Zernike. Sur la base des différentes classes de signatures extraites pour chaque visage plusieurs méthodes de clustering sont mises en compétition afin de dégager la classification optimale qui conduit à une meilleure réduction de la galerie. Les méthodes retenues sont, soit de type « centres mobiles » telles que les K-moyennes et les centres mobiles de Forgy, ou de type « agglomérative » telle que la méthode de BIRCH. Sur la base de la dépendance des partitions générées, ces différentes stratégies classificatoires sont ensuite combinées suivant une architecture parallèle de manière à optimiser la réduction de l'espace de recherche à un sous ensemble de la base de données. Les clusters retenus in fine étant ceux pour lesquels la probabilité d'appartenance de l'identité requête est quasi certaine.
102

Technologies propres : Méthodes de minimisation des rejets et de choix des procédés de valorisation des effluents. Application aux ateliers de traitement de surface.

Laforest, Valérie 10 December 1999 (has links) (PDF)
Le traitement des eaux constitue actuellement la part essentielle des investissements industriels pour la protection de l'environnement. En France, les moyens consacrés à la dépollution des eaux sont de l'ordre de 20 milliards de Francs dont la plus grosse part est consacrée à l'activité industrielle. Les actions engagées se font par une gestion globale des effluents en privilégiant les actions de réduction à la source notamment par la mise en place de technologies propres (optimisation, changement et modification du procédé de production). Nous avons concentré notre étude sur la mise en place des technologies propres dans les ateliers de traitement de surface (consommateur et générateur d'eau et de produits chimiques). Pour cela, nous avons mis au point deux méthodes de gestion de l'information qui ont abouti au développement de deux systèmes informatiques d'aide à la décision. • La première a pour objectif de minimiser la consommation et les rejets en eau tout en optimisant le procédé de production en assurant une efficacité et un rendement optima des rinçages. • La deuxième concerne le choix des procédés de valorisation suivant les objectifs de valorisation, les caractéristiques de l'effluent et les paramètres limitant l'utilisation des procédés. Notre approche entre dans une démarche globale de gestion des effluents du traitement de surface. Elle a pour but de limiter la quantité des effluents générés, de valoriser les flux et d'une manière générale de mettre en place les technologies propres dans un contexte de développement durable.
103

Clustering-based Approximate Answering of Query Result in Large and Distributed Databases

Bechchi, Mounir 15 September 2009 (has links) (PDF)
Les utilisateurs des bases de données doivent faire face au problème de surcharge d'information lors de l'interrogation de leurs données, qui se traduit par un nombre de réponses trop élevé à des requêtes exploratoires. Pour remédier à ce problème, nous proposons un algorithme efficace et rapide, ap- pelé ESRA (Explore-Select-Rearrange Algorithm), qui utilise les résumés SAINTETIQ pré-calculés sur l'ensemble des données pour regrouper les réponses à une requête utilisateur en un ensemble de classes (ou résumés) organisées hiérarchiquement. Chaque classe décrit un sous-ensemble de résul- tats dont les propriétés sont voisines. L'utilisateur pourra ainsi explorer la hiérarchie pour localiser les données qui l'intéressent et en écarter les autres. Les résultats expérimentaux montrent que l'al- gorithme ESRA est efficace et fournit des classes bien formées (i.e., leur nombre reste faible et elles sont bien séparées). Cependant, le modèle SAINTETIQ, utilisé par l'algorithme ESRA, exige que les données soient disponibles sur le serveur des résumés. Cette hypothèse rend inapplicable l'algo- rithme ESRA dans des environnements distribués où il est souvent impossible ou peu souhaitable de rassembler toutes les données sur un même site. Pour remédier à ce problème, nous proposons une collection d'algorithmes qui combinent deux résumés générés localement et de manière autonome sur deux sites distincts pour en produire un seul résumant l'ensemble des données distribuées, sans accéder aux données d'origine. Les résultats expérimentaux montrent que ces algorithmes sont aussi performants que l'approche centralisée (i.e., SAINTETIQ appliqué aux données après regroupement sur un même site) et produisent des hiérarchies très semblables en structure et en qualité à celles produites par l'approche centralisée.
104

Conception et réalisation du système de gestion de séries chronologiques du logiciel MODULECO

Sefsaf, Belkacem 19 November 1981 (has links) (PDF)
Présentation d'un logiciel permettant de gérer les données temporelles. On insiste particulièrement sur la spécificité de ces données qui amène, après une étude des logiciels existants, à développer un logiciel spécifique.
105

Systèmes d'aide à la décision pour le traitement des déchets industriels spéciaux

Debray, Bruno 01 July 1997 (has links) (PDF)
Les déchets industriels spéciaux constituent une source potentielle de pollution importante. A ce titre il est nécessaire de les traiter en vue d'aboutir soit à une valorisation soit à un rejet écocompatible et au stockage d'un déchet ultime. La mise en oeuvre pratique de ces traitements fait intervenir une grande variété de filières et de procédés suivant la nature et les caractéristiques du déchet. Le choix d'une solution de traitement est une opération délicate qui implique la connaissance de toutes les options disponibles et de leurs critères de choix. Pour aider les producteurs de déchets, nous avons identifié dans deux contextes différents, les raisonnements et les données qui permettent d'aboutir à la liste des solutions applicables : centres et filières de traitement dans le cas du traitement externe, procédés de traitement et position dans l'unité productrice du déchet pour le traitement interne. Ce travail méthodologique, dont l'objectif est la proposition d'outils pour aider les industriels dans le choix de solutions de traitement, a débouché sur deux systèmes informatiques d'aide à la décision : * le premier pour l'orientation des déchets industriels spéciaux vers des solutions externes de traitement, * le second pour l'identification de solutions de traitement interne pour les ateliers de traitement de surface. A travers le développement de ces outils, nous avons pu mettre en évidence l'importance des systèmes d'identification et de caractérisation des déchets et proposer une méthode générale pour l'identification de solutions de traitement.
106

Traçabilité modulée pour la conformité à Sarbanes-Oxley

Lepage, Yves January 2009 (has links) (PDF)
La traçabilité est un mécanisme qui est indispensable dans la conduite des activités de vérification de la conformité des compagnies à la loi Sarbanes-Oxley. Cette loi rend les administrateurs (PDG, Chef des affaires financières, etc.) responsables des déclarations faites dans les états financiers. Elle a été établie dans la foulée des scandales corporatifs aux États-Unis, comme ceux des compagnies Enron et Worldcom. Les données utilisées pour produire les états financiers, lesquelles sont produites par des systèmes informatiques périphériques, transitent toujours par des bases de données. L'implantation d'un mécanisme de traçabilité des bases de données se heurte à plusieurs problèmes, dont le plus important est la gestion du volume des données de traçabilité, lequel devient rapidement trop important pour rendre les données de traçabilité utiles. Ce mémoire démontre qu'une solution envisageable pour résoudre ce problème consiste à identifier et à définir les comportements typiques de la fraude et d'utiliser ces comportements comme indicateurs de fraude potentielle. Jumelés à des techniques de classification telles que la classification Baysienne qui est utilisée dans le domaine de la détection du pourriel, les indicateurs permettront la classification des transactions potentiellement frauduleuses, dans le but d'appliquer le mécanisme de traçabilité qu'à ces transactions. Ainsi, nous démontrons que l'application de la classification Baysienne sur ces attributs, permet effectivement de détecter et de classifier des transactions frauduleuses comme tel et qu'en conséquence, un traitement de traçage spécifique peut être effectué sur ces transactions. En ne traçant plus spécifiquement que les transactions identifiées comme frauduleuses, le volume de données de traçabilité est alors réduit à son expression la plus utile et simple et du coup le problème de la gestion du volume des données de traçage s'en trouve d'autant diminué. Notre expérimentation démontre le bien-fondé de cette approche pour différencier les transactions honnêtes des transactions frauduleuses. Cette différenciation s'est faite avec un haut taux de succès et avec grande fiabilité, tel que démontré par les taux de détection obtenus pour les transactions frauduleuses. Les résultats détaillés sont documentés dans ce mémoire et prouvent la viabilité de cette approche. Comme les attributs utilisés qui sont basés sur les indicateurs de comportements sont intimement liés au domaine d'application, nous proposons une approche pour raffiner les résultats et ainsi rendre possible la différenciation des différents types de fraude à l'intérieur de ces transactions frauduleuses. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Fraude, Sarbanes-Oxley, Traçabilité, Détection automatique, Classification, Bayes.
107

Profil des internautes bancaires et données géo-référencées

Abbassi, Aziza 07 1900 (has links) (PDF)
Depuis déjà plusieurs années, les nombreux progrès technologiques dans le monde des affaires modifient amplement les caractéristiques de l'économie mondiale. Pour les entreprises, les mots d'ordre sont : rapidité, précision et réduction des coûts. L'avènement d'Internet dans les pratiques commerciales représente justement l'une des principales facettes de ce progrès technologique. Aujourd'hui, le consommateur peut quasiment tout faire à distance : recherche d'informations, magasinage, participation à la conception des produits, opérations d'achats et de ventes, participation à des recherches marketing, suggestions et apport de nouvelles idées aux entreprises etc. C'est particulièrement le cas de l'industrie financière. En effet, dans beaucoup de pays, le client jouit d'une très grande liberté par rapport à son comportement bancaire. Il peut, en effet, gérer ses comptes, payer ses factures ou encore transférer des fonds, partout et en tout temps. D'où les deux concepts : 1- l'Internet bancaire, représentant les services bancaires via Internet et 2- l'Internaute bancaire, c'est à dire, le client opérant sur Internet. Les internautes bancaires sont de plus en plus nombreux et leurs profils deviennent très diversifiés. Cependant ce fait, peu de recherches s'intéressent aujourd'hui à décrire cette vaste population. Il nous a donc semblé pertinent de réaliser un travail de segmentation ayant comme objectifs afin de mettre en lumière et de décrire les différents profils des utilisateurs de l'Internet bancaire. Pour cela, nous avons sélectionné un échantillon de 30191 internautes bancaires, clients d'une grande institution financière canadienne, avec des données sur leur comportement transactionnel, afin de mettre en lumière les différents segments de marché. Ensuite, nous avons eu recours à la base de données « Mosaic » du Canada, base constituée de vingt catégories de profils canadiens, afin de décrire ces segments d'utilisateurs avec des variables géodémographiques. Notre analyse nous a permis d'identifier trois segments d'internautes bancaires distincts, à savoir : les petits, les moyens et les gros utilisateurs de l'Internet bancaire. Selon la base de données Mosaic, ces trois segments de marché sont associés à cinq profils Mosaic, à savoir : les Non-Revolving Borrowers, les Borrowing Families, les Mature Québécois, les Young Francophone et les Francophone Traditionalists. Ainsi, nous avons pu obtenir une description détaillée de chacun des trois segments d'Internautes bancaires, comprenant leur situation familiale, âge, style d'habitation, zone géographique, niveau de scolarité, occupation, revenu, montant de leurs dépenses, catégories de dépenses, catégories d'assurances prises, passe temps, sports pratiqués...etc. Ce genre de descriptions représente des informations clés pour les institutions financières et peut s'avérer extrêmement utile pour leurs prises de décision. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Évolutions technologiques, Industrie financière, Comportement bancaire, Internet bancaire, Internaute bancaire, Profils, Segmentation, Institution financière, Mosaic, variables géodémographiques.
108

La performance en analyse sensorielle, une approche base de données

Pineau, Nicolas 13 December 2006 (has links) (PDF)
...
109

Modélisation sémantique des bases de données d'inventaires en cycle de vie

Bertin, Jean-Marie 25 June 2013 (has links) (PDF)
L'analyse des impacts environnementaux de la production de biens et de services est aujourd'hui devenue un enjeu majeur. L'analyse en cycle de vie est la méthode consacrée pour modéliser les impacts environnementaux des activités humaines. L'inventaire en cycle de vie, qui est l'une des étapes de cette méthode, consiste à décomposer les activités économiques en processus interdépendants. Chaque processus a des impacts environnementaux et la composition de ces processus nous donne l'impact cumulé des activités étudiées. Plusieurs entreprises et agences gouvernementales fournissent des bases de données d'inventaires en cycle de vie pour que les experts puissent réutiliser des processus déjà étudiés lors de l'analyse d'un nouveau système. L'audit et la compréhension de ces inventaires nécessite de s'intéresser à un très grand nombre de processus et à leurs relations d'interdépendance. Ces bases de données peuvent comporter plusieurs milliers de processus et des dizaines de milliers de relations de dépendance. Pour les experts qui utilisent les bases de données d'inventaire en cycle de vie, deux problèmes importants sont clairement identifiés : - organiser les processus pour avoir une meilleure compréhensibilité du modèle ; - calculer les impacts d'une modélisation (composition de processus) et, le cas échéant, détecter les raisons de la non convergence du calcul. Dans cette thèse, nous : - mettons en évidence de l'existence de similarités sémantiques entre les processus et leurs relations d'interdépendance et proposons une nouvelle approche pour modéliser les relations d'interdépendance entre les processus d'une base de données d'inventaire. Elle se base sur un étiquetage sémantique des processus à l'aide d'une ontologie et une modélisation multi-niveaux des relations d'interdépendance entre les processus. Nous étudions aussi deux approches déclaratives d'interaction avec ce modèle multi-niveau. - étudions les différentes méthodes de calcul des impacts basées sur des notions classiques d'algèbre linéaire et de théorie des graphes. Nous étudions aussi les conditions de non convergence de ces méthodes en présence de cycle dans le modèle des relations de dépendances. Un prototype implémentant cette approche a montré des résultats probants sur les cas étudiés. Nous avons réalisé une étude de cas de ce prototype sur les processus de production d'électricité aux États-Unis extraits de la base de données d'inventaire en cycle de vie de l'agence environnementale américaine. Ce prototype est à la base d'une application opérationnelle utilisée par l'entreprise.
110

Systèmes d'Information Scientifique : des modèles conceptuels aux annotations sémantiques Application au domaine de l'archéologie et des sciences du vivant

Savonnet, Marinette 12 September 2013 (has links) (PDF)
Les Systèmes d'Information Scientifique (SIS) sont des Systèmes d'Information (SI) dont le but est de produire de la connaissance et non pas de gérer ou contrôler une activité de production de biens ou de services comme les SI d'entreprise. Les SIS se caractérisent par des domaines de recherche fortement collaboratifs impliquant des équipes pluridisciplinaires et le plus souvent géographiquement éloignées, ils manipulent des données aux structures très variables dans le temps qui vont au-delà de la simple hétérogénéité : nuages de points issus de scanner 3D, modèles numériques de terrain, cartographie, publications, données issues de spectromètre de masse ou de technique de thermoluminescence, données attributaires en très grand volume, etc. Ainsi, contrairement aux bases de données d'entreprise qui sont modélisées avec des structures établies par l'activité qu'elles supportent, les données scientifiques ne peuvent pas se contenter de schémas de données pré-definis puisque la structure des données évolue rapidement de concert avec l'évolution de la connaissance. La gestion de données scientifiques nécessite une architecture de SIS ayant un niveau d'extensibilité plus élevé que dans un SI d'entreprise. Afin de supporter l'extensibilité tout en contrôlant la qualité des données mais aussi l'interopérabilité, nous proposons une architecture de SIS reposant sur : - des données référentielles fortement structurées, identifiables lors de la phase d'analyse et amenées à évoluer rarement ; - des données complémentaires multi-modèles (matricielles, cartographiques, nuages de points 3D, documentaires, etc.). Pour établir les liens entre les données complémentaires et les données référentielles, nous avons utilisé un unique paradigme, l'annotation sémantique. Nous avons proposé un modèle formel d'annotation à base ontologique pour construire des annotations sémantiques dont la cohérence et la consistance peuvent être contrôlées par une ontologie et des règles. Dans ce cadre, les annotations offrent ainsi une contextualisation des données qui permet de vérifier leur cohérence, par rapport à la connaissance du domaine. Nous avons dressé les grandes lignes d'une sémantique du processus d'annotation par analogie avec la sémantique des langages de programmation. Nous avons validé notre proposition, à travers deux collaborations pluridisciplinaires : - le projet ANR CARE (Corpus Architecturae Religiosae Europeae - IV-X saec. ANR-07- CORP-011) dans le domaine de l'archéologie. Son objectif était de développer un corpus numérique de documents multimédia sur l'évolution des monuments religieux du IVe au XIe siècle (http://care.tge-adonis.fr). Un assistant d'annotation a été développé pour assurer la qualité des annotations par rapport à la connaissance représentée dans l'ontologie. Ce projet a donné lieu au développement d'une extension sémantique pour MediaWiki ; - le projet eClims dans le domaine de la protéomique clinique. eClims est un composant clinique d'un LIMS (Laboratory Information Management System) développé pour la plate-forme de protéomique CLIPP. eClims met en oeuvre un outil d'intégration basé sur le couplage entre des modèles représentant les sources et le système protéomique, et des ontologies utilisées comme médiatrices entre ces derniers. Les différents contrôles que nous mettons en place garantissent la validité des domaines de valeurs, la complétude, la consistance des données et leur cohérence. Le stockage des annotations est assuré par une Base de Données orientées colonnes associée à une Base de Données relationnelles.

Page generated in 0.0652 seconds