• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 63
  • 20
  • 7
  • Tagged with
  • 92
  • 34
  • 34
  • 22
  • 20
  • 17
  • 15
  • 14
  • 13
  • 12
  • 12
  • 10
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Monotone Modal Logic and Friends

Frittella, Sabine 01 December 2014 (has links)
Cette thèse étudie la théorie de la correspondance et la théorie des preuves pour la logique modale monotone et les logiques qui en sont proches.La première partie de la thèse établit une connexion formelle entre la théorie de la correspondance algorithmique et des résultats de caractérisation duale pour les treillis finis, similaire à la caractérisation par Nation d'une hiérarchie de variétés de treillis qui généralise les treillis distributifs. Cette connexion formelle est établie en utilisant la logique modale monotone. Nous adaptons l'algorithme ALBA pour la correspondance à l'environnement de la logique modale monotone, et nous utilisons un encodage, induit par une dualité, des treillis finis sous forme de 'neighbourhood frames' pour traduire les termes de la théorie des treillis en formules de la logic modal monotone.La deuxième partie de la thèse étend la théorie des 'display calculi' à la logique Baltag-Moss-Solecki pour les actions épistémiques et la connaissance (Epistemic Actions and Knowledge), à la logique modale monotone et à la logique propositionnelle dynamique (PDL). Nos résultats incluent plusieurs méta-théorèmes d'élimination de la coupure qui généralisent le théorème original de Belnap dans des dimensions différentes et indépendantes. Les deux principales généralisations des 'display calculi' traitées dans la thèse sont : la généralisation d'une théorie pour les langages ne contenant qu'un seul type à une théorie pour les langages contenant plusieurs types, et la généralisation d'une théorie pour les calculs satisfaisant la propriété de 'display' aux calculs ne la satisfaisant pas. / The present thesis focuses on Monotone Modal Logic and closely related logics from the point of view of Correspondence Theory and Proof Theory.The first part of the thesis establishes a formal connection between algorithmic corre- spondence theory and certain dual characterization results for finite lattices, similar to Nation's characterization of a hierarchy of pseudovarieties of finite lattices progressively generalizing finite distributive lattices. This formal connection is established through monotone modal logic. Specifically, we adapt the correspondence algorithm ALBA to the setting of monotone modal logic, and we use a certain duality-induced encoding of finite lattices as monotone neighbourhood frames to translate lattice terms into formulas in monotone modal logic.The second part of the thesis extends the theory of display calculi to Baltag-Moss- Solecki's logic of Epistemic Actions and Knowledge (EAK), Monotone Modal Logic (MML), and Propositional Dynamic Logic (PDL). Our results include several cut-elimination metatheorems, which generalize the original metatheorem of Belnap in different and mutually independent dimensions. The two main generalizations of display calculi treated in the thesis are: the generalization from single type to multi-type languages, and from the full or relativized display property to no display property.
72

Tatouage conjoint a la compression d'images fixes dans JPEG2000 / joint watermarking and compression of JPEG2000 images

Goudia, Dalila 06 December 2011 (has links)
Les technologies numériques et du multimédia ont connu de grandes avancées ces dernières années. La chaîne de transmission des images est constituée de plusieurs traitements divers et variés permettant de transmettre un flux de données toujours plus grand avec toujours plus de services à la clé. Nous citons par exemple, la compression, l'augmentation de contenu, la confidentialité, l'intégrité et l'authenticité des images pendant leur transmission. Dans ce contexte, les approches conjointes ont suscité un intérêt certain de la part de la communauté du traitement d'images car elles permettent d'obtenir des systèmes de faible complexité calculatoire pouvant être utilisés dans des applications nécessitant peu de ressources matérielles. La dissimulation de données ou Data Hiding, est l'art de cacher un message dans un support numérique. L'une des branches les plus importantes du data hiding est le tatouage numérique ou watermarking. La marque doit rester présente dans l'image hôte même si celle-ci subit des modifications appelées attaques. La compression d'images a comme objectif de réduire la taille des images stockées et transmises afin d'augmenter la capacité de stockage et de minimiser le temps de transmission. La compression représente une opération incontournable du stockage ou du transfert d'images. Elle est considérée par le data hiding comme une attaque particulièrement destructrice. La norme JPEG2000 est le dernier standard ISO/ITU-T pour le codage des images fixes. Dans cette thèse, nous étudions de manière conjointe la compression avec perte et le data hiding dans le domaine JPEG2000. L'approche conjointe offre de nombreux avantages dont le plus important est que la compression ne constitue plus une attaque vis-à-vis du data hiding. Les contraintes à respecter sont exprimées en termes de compromis à atteindre: compromis entre la quantité d'information insérée (payload), le taux de compression, la distorsion induite par l'insertion du message et la robustesse de la marque dans le cas du tatouage.Nos travaux de recherche ont conduit à l'élaboration de plusieurs schémas conjoints : un schéma conjoint d'insertion de données cachées et deux schémas conjoints de tatouage dans JPEG2000. Tous ces systèmes conjoints reposent sur des stratégies d'insertion informée basées sur la quantification codée par treillis (TCQ). Les propriétés de codage de canal de la TCQ sont exploitées pour pouvoir à la fois quantifier et insérer un message caché (ou une marque) pendant l'étape de quantification de JPEG2000. / Technological advances in the fields of telecommunications and multimedia during the two last decades, derive to create novel image processing services such as copyright protection, data enrichment and information hiding applications. There is a strong need of low complexity applications to perform seveval image processing services within a single system. In this context, the design of joint systems have attracted researchers during the last past years. Data hiding techniques embed an invisible message within a multimedia content by modifying the media data. This process is done in such a way that the hidden data is not perceptible to an observer. Digital watermarking is one type of data hiding. The watermark should be resistant to a variety of manipulations called attacks. The purpose of image compression is to represent images with less data in order to save storage costs or transmission time. Compression is generally unavoidable for transmission or storage purposes and is considered as one of the most destructive attacks by the data hiding. JPEG2000 is the last ISO/ ITU-T standard for still image compression.In this thesis, joint compression and data hiding is investigated in the JPEG2000 framework. Instead of treating data hiding and compression separately, it is interesting and beneficial to look at the joint design of data hiding and compression system. The joint approach have many advantages. The most important thing is that compression is no longer considered as an attack by data hiding.The main constraints that must be considered are trade offs between payload, compression bitrate, distortion induced by the insertion of the hidden data or the watermark and robustness of watermarked images in the watermarking context. We have proposed several joint JPEG2000 compression and data hiding schemes. Two of these joint schemes are watermarking systems. All the embedding strategies proposed in this work are based on Trellis Coded Quantization (TCQ). We exploit the channel coding properties of TCQ to reliably embed data during the quantization stage of the JPEG2000 part 2 codec.
73

Seismic vulnerability of aluminium and steel lattice domes

Efio-Akolly, Akossiwa Constance 19 July 2022 (has links)
Les dômes en treillis sont utilisés dans la construction de stades et d'aéroports pour accueillir un grand nombre de personnes. Ces structures entrent dans la catégorie d'importance sismique élevée car elles servent d'abris en cas d'événement sismique. Il existe des informations basées sur la recherche concernant la performance sismique des dômes ; cependant, l'application pratique de ces informations pour la conception reste un défi de taille. Essentiellement, il n'y a pas de directives établies pour la conception sismique des dômes. L'utilisation d'alliages d'aluminium peut présenter une solution efficace pour les dômes exposés à des environnements agressifs tels que les installations de stockage de produits chimiques, les dômes couvrant de grands espaces tels que les stades, et pour les dômes où des formes extrudées spécialisées peuvent faciliter les connexions efficaces entre les éléments structurels. La préférence pour ce matériau s'explique par sa durabilité, son faible rapport résistance/poids et son extrudabilité. Cependant, les alliages d'aluminium sont également connus pour être plus susceptibles à la rupture par fatigue oligocyclique. La fatigue oligocyclique peut conduire à la rupture d'un élément structurel sous l'effet de cycles de déformation induits par un tremblement de terre. La vulnérabilité des dômes en aluminium aux mouvements du sol dus aux tremblements de terre peut être affectée par la résistance à la fatigue oligocyclique du matériau. Cette étude de recherche évalue la performance sismique et la vulnérabilité sismique d'un dôme en treillis en alliage d'aluminium, en comparaison avec un dôme en treillis en acier. La vulnérabilité sismique des dômes en aluminium et en acier sous la même charge de gravité est comparée en développant des fonctions de fragilité basées sur des analyses dynamiques incrémentales. Pour les analyses dynamiques incrémentales, une suite de onze mouvements de sol non échelonnés avec une accélération maximale du sol allant de 0,2 g à 0,82 g, a été considérée. Il a été observé que les caractéristiques modales des deux dômes étaient similaires. Il n'y avait pas de déformation plastique dans les deux dômes soumis à la suite sélectionnée de mouvements de sol non échelonnés. Cependant, il y avait des déformations plastiques dans les deux dômes soumis à la suite de mouvements du sol mis à l'échelle à des intensités sismiques plus élevées. Les dômes en aluminium ont subi un déplacement deux fois plus important que le dôme en acier pour toutes les intensités sismiques considérées. Les résultats ont montré que la rupture par fatigue est attendue dans les dômes en aluminium qui sont soumis à des tremblements de terre sévères, avec une accélération spectrale supérieure à 1,5 g. Il a également été observé que le dôme en aluminium démontré une bonne résistance sismique pour les intensités de mouvement du sol représentatives du spectre de conception de l'Ouest du Canada, en particulier Vancouver, BC. / Lattice domes are used to construct stadiums and airports that accommodate many people. These structures fit into the high seismic importance category because they serve as shelters during seismic events. Information based on research regarding the seismic performance of domes exists; however, the practical application of this information for design remains a daunting challenge. Essentially, there are no established guidelines for the seismic design of domes. The use of aluminium alloys may present an effective solution for domes exposed to aggressive environments such as chemical storage facilities, domes covering large spaces such as stadiums, and for domes where specialized extruded shapes may facilitate efficient connections between structural elements. The preference for this material is due to its durability, low strength-to-weight ratio and extrudability. However, aluminium alloys are also known to be more susceptible to failure under low-cycle fatigue. Low cycle fatigue may lead to the rupture of a structural member under earthquake-induced strain cycles. The vulnerability of aluminium domes under earthquake ground motions may be affected by the low cycle fatigue resistance of the material. This research study assesses the seismic performance and seismic vulnerability of an aluminium lattice dome compared to a steel lattice dome. The seismic vulnerability of aluminium and steel domes under the same gravity load are compared by developing fragility functions based on incremental dynamic analyses. For the incremental dynamic analyses, a suite of eleven unscaled ground motions with peak ground acceleration ranging from 0.2 g and 0.82 g was considered. It was observed that the modal characteristics of both domes were similar. There was no plastic deformation in both domes subjected to the selected suite of unscaled ground motions. However, there were plastic deformations in both domes subjected to the suite of ground motions scaled to higher seismic intensities. The aluminium domes experienced twice as much displacement as the steel dome for all seismic intensities considered. The results also showed that fatigue failure is expected in aluminium domes subjected to severe earthquakes, with a spectral acceleration greater than 1.5 g. It was also observed that the aluminium dome showed a good seismic resistance for ground motion intensities representative of the design spectrum of western Canada, particularly Vancouver, BC.
74

Homogénéisation automatique de milieux discrets périodiques : applications aux mousses polymères et aux milieux auxétiques / Automatic homogenization of discrete periodic media : applications to polymers foams and to auxetic media

Dos Reis, Francisco 21 October 2010 (has links)
La première réalisation de ce travail est la construction unifiée et automatique d’un milieu continu équivalent à un treillis de poutres, dans le domaine élastique, en adoptant un modèle de poutres de Bernoulli. Une extension a été réalisée au domaine plastique, selon un algorithme de suivi de la loi de comportement après écrouissage. Suivant l’ordre des développements asymptotiques choisi, on obtient pour le comportement élastique un milieu continu classique ou micropolaire. On se restreint dans ce dernier cas aux treillis à cellules élémentaires centro-symétriques. Les codes de calculs obtenus fournissent de façon automatique les lois de comportement effectives et les modules mécaniques homogénéisés. Une grande variété de treillis, existants ou originaux, a été étudiée. Les résultats ont été systématiquement comparés aux données de la littérature et vérifiés par des simulations éléments finis avec une bonne concordance. La méthode utilisée montre également une capacité à prédire et comprendre le comportement atypique de certains treillis dits auxétiques présentant des coefficients de contraction négatifs. L’homogénéisation dans le domaine plastique a été limitée aux treillis à dominante extensionnelle. Le domaine de résistance élastique a été construit pour différents treillis, et un algorithme d’évolution du comportement avec écrouissage, de type retour-radial a été conçu et implémenté dans un code dédié. Un modèle de poutre élastoplastique à écrouissage isotrope est utilisé. L’application de l’algorithme à une simulation de charge-décharge montre une bonne concordance entre le treillis homogénéisé et les simulations éléments finis / The first achievement of this work is to construct a unified and effective continuum equivalent to a lattice of beams, in the elastic domain, using a Bernoulli beam model. An extension has been done to calculate the elastic domain resistance of such lattices and to build an algorithm for monitoring the constitutive law taking into account work hardening. The choice of the asymptotic expansions leads to a classical continuous or to a micropolar elastic continuum. We restrict in this last case our study to lattices with centro-symmetric unit cells. The numerical codes developed provide the stress-strain relationship and the effective mechanical moduli. A wide variety of trusses has been studied, either existing or original, including typical geometries of foams and various auxetic lattices, exhibiting negative contraction coefficients. The results were systematically compared with data from literature and verified by finite element simulations with a good agreement. The homogenization in the plastic range has been limited to stretching dominated lattices. The equilibrium equations of the discrete asymptotic homogenization have been used to automatically obtain the elastic resistance domain for several trusses, and a return-mapping algorithm for the follow up of the stress-strain relationship including hardening has been conceived and implemented in a dedicated code. An isotropic hardening elastoplastic model of the beam has been used. The application of the algorithm to the simulation of a loading-unloading cycle shows a good agreement between the homogenized lattice and finite element simulations
75

Identification et localisation des préoccupations fonctionnelles dans un code légataire Java

El Kharraz, Amal 06 1900 (has links)
Traditionnellement, les applications orientées objets légataires intègrent différents aspects fonctionnels. Ces aspects peuvent être dispersés partout dans le code. Il existe différents types d’aspects : • des aspects qui représentent des fonctionnalités métiers ; • des aspects qui répondent à des exigences non fonctionnelles ou à d’autres considérations de conception comme la robustesse, la distribution, la sécurité, etc. Généralement, le code qui représente ces aspects chevauche plusieurs hiérarchies de classes. Plusieurs chercheurs se sont intéressés à la problématique de la modularisation de ces aspects dans le code : programmation orientée sujets, programmation orientée aspects et programmation orientée vues. Toutes ces méthodes proposent des techniques et des outils pour concevoir des applications orientées objets sous forme de composition de fragments de code qui répondent à différents aspects. La séparation des aspects dans le code a des avantages au niveau de la réutilisation et de la maintenance. Ainsi, il est important d’identifier et de localiser ces aspects dans du code légataire orienté objets. Nous nous intéressons particulièrement aux aspects fonctionnels. En supposant que le code qui répond à un aspect fonctionnel ou fonctionnalité exhibe une certaine cohésion fonctionnelle (dépendances entre les éléments), nous proposons d’identifier de telles fonctionnalités à partir du code. L’idée est d’identifier, en l’absence des paradigmes de la programmation par aspects, les techniques qui permettent l’implémentation des différents aspects fonctionnels dans un code objet. Notre approche consiste à : • identifier les techniques utilisées par les développeurs pour intégrer une fonctionnalité en l’absence des techniques orientées aspects • caractériser l’empreinte de ces techniques sur le code • et développer des outils pour identifier ces empreintes. Ainsi, nous présentons deux approches pour l’identification des fonctionnalités existantes dans du code orienté objets. La première identifie différents patrons de conception qui permettent l’intégration de ces fonctionnalités dans le code. La deuxième utilise l’analyse formelle de concepts pour identifier les fonctionnalités récurrentes dans le code. Nous expérimentons nos deux approches sur des systèmes libres orientés objets pour identifier les différentes fonctionnalités dans le code. Les résultats obtenus montrent l’efficacité de nos approches pour identifier les différentes fonctionnalités dans du code légataire orienté objets et permettent de suggérer des cas de refactorisation. / Object oriented applications integrate various functional aspects. These aspects can be scattered everywhere in the code. There are various types of aspects : • aspects which represent business functionalities ; • aspects related to non functional requirements or to design concerns such as robustness, distribution, and security. The code representing such aspects can be located in different class hierarchies. Researchers have been interested in the problem of the modularisation of these aspects and many approaches were proposed : oriented programming subjects, oriented programming Aspects and oriented programming view. These approaches offer techniques and tools for designing object oriented applications based on the composition of slices of various aspects. The main benefit of the separation of aspects is supporting reuse and maintenance. Consequently, it is well worth identifying and extracting aspects of legacy object oriented applications. Our work mainly focuses on functional aspects. Assuming that the code of a functional aspect or a feature has a functional cohesion (dependencies between elements), we suggest methods for identifying such features from the code. The idea is to identify, in the absence of any aspect oriented paradigm, the techniques used for implementing a feature in the code. Our approach consists of : • identifying techniques used by developers to integrate a feature in the absence of aspect oriented techniques • characterizing the patterns of these techniques • and developing tools to identify these patterns. We present two approaches for the identification of the existing features in the object oriented code. The first one identifies various design patterns which integrates these features in the code. The second approach uses the formal concept analysis to identify the recurring features in the code. We experiment our approaches to identify functional features in different open source object oriented applications. The results show the efficiency of our approaches in identifying various functional features in the legacy object oriented, and can some times suggest refactoring.
76

Vitesse de convergence de l'échantillonneur de Gibbs appliqué à des modèles de la physique statistique / The convergence rate of the Gibbs sampler for some statistical mechanics models

Helali, Amine 11 January 2019 (has links)
Les méthodes de Monte Carlo par chaines de Markov MCMC sont des outils mathématiques utilisés pour simuler des mesures de probabilités π définies sur des espaces de grandes dimensions. Une des questions les plus importantes dans ce contexte est de savoir à quelle vitesse converge la chaine de Markov P vers la mesure invariante π. Pour mesurer la vitesse de convergence de la chaine de Markov P vers sa mesure invariante π nous utilisons la distance de la variation totale. Il est bien connu que la vitesse de convergence d’une chaine de Markov réversible P dépend de la deuxième plus grande valeur propre en valeur absolue de la matrice P notée β!. Une partie importante dans l’estimation de β! consiste à estimer la deuxième plus grande valeur propre de la matrice P, qui est notée β1. Diaconis et Stroock (1991) ont introduit une méthode basée sur l’inégalité de Poincaré pour estimer β1 pour le cas général des chaines de Markov réversibles avec un nombre fini d'état. Dans cette thèse, nous utilisons la méthode de Shiu et Chen (2015) pour étudier le cas de l'algorithme de l'échantillonneur de Gibbs pour le modèle d'Ising unidimensionnel avec trois états ou plus appelé aussi modèle de Potts. Puis, nous généralisons le résultat de Shiu et Chen au cas du modèle d’Ising deux- dimensionnel avec deux états. Les résultats obtenus minorent ceux introduits par Ingrassia (1994). Puis nous avons pensé à perturber l'échantillonneur de Gibbs afin d’améliorer sa vitesse de convergence vers l'équilibre. / Monte Carlo Markov chain methods MCMC are mathematical tools used to simulate probability measures π defined on state spaces of high dimensions. The speed of convergence of this Markov chain X to its invariant state π is a natural question to study in this context.To measure the convergence rate of a Markov chain we use the total variation distance. It is well known that the convergence rate of a reversible Markov chain depends on its second largest eigenvalue in absolute value denoted by β!. An important part in the estimation of β! is the estimation of the second largest eigenvalue which is denoted by β1.Diaconis and Stroock (1991) introduced a method based on Poincaré inequality to obtain a bound for β1 for general finite state reversible Markov chains.In this thesis we use the Chen and Shiu approach to study the case of the Gibbs sampler for the 1−D Ising model with three and more states which is also called Potts model. Then, we generalize the result of Shiu and Chen (2015) to the case of the 2−D Ising model with two states.The results we obtain improve the ones obtained by Ingrassia (1994). Then, we introduce some method to disrupt the Gibbs sampler in order to improve its convergence rate to equilibrium.
77

Co-évolution dans les Réseaux Epistémiques<br />- Un exemple de reconstruction en sciences sociales

Roth, Camille 19 November 2005 (has links) (PDF)
Des agents produisant, manipulant et échangeant des connaissances constituent un système complexe socio-sémantique, dont l'étude représente un défi à la fois théorique, dans la perspective d'étendre la naturalisation des sciences sociales, et pratique, avec des applications permettant aux agents de connaître la dynamique du système dans lequel ils évoluent.<br /><br />Cette thèse se situe dans le cadre de ce programme de recherche. Parallèlement et plus largement, nous nous intéressons à la question de la reconstruction en sciences sociales. La reconstruction est un problème inverse comprenant deux volets complémentaires: (i) la déduction d'observations de haut-niveau à partir de phénomènes de bas-niveau; et (ii) la reproduction de l'évolution des observations de haut-niveau à partir de la dynamique des objets de bas-niveau.<br /><br />Nous affirmons que plusieurs aspects significatifs de la structure d'une communauté de savoirs sont principalement produits par la dynamique d'un réseau épistémique où co-évoluent agents et concepts. En particulier, nous résolvons le premier volet du problème de la reconstruction en utilisant des treillis de Galois afin de recréer des taxonomies de communautés de savoirs à partir de simples relations entre agents et concepts; nous obtenons de fait une description historique se rapportant à la progression des champs, leur déclin, leur spécialisation ou leurs interactions (fusion ou scission). Nous micro-fondons ensuite la structure de ces communautés de savoirs en exhibant et en estimant empiriquement des processus d'interaction au niveau des agents, en co-évolution avec les concepts au sein du réseau épistémique, qui rendent compte de la morphogenèse et de l'émergence de plusieurs faits stylisés structurels de haut-niveau - il s'agit là du deuxième volet.<br /><br />Nous défendons finalement un point de vue épistémologique concernant la méthodologique générale de reconstruction d'un système complexe qui appuie notre choix d'un cadre co-évolutionnaire.
78

Deux critères de sécurité pour l'exécution de code mobile

Grall, Hervé 15 December 2003 (has links) (PDF)
Les programmes mobiles, comme les applettes, sont utiles mais potentiellement hostiles, et il faut donc pouvoir s'assurer que leur exécution n'est pas dangereuse pour le système hôte. Une solution est d'exécuter le programme mobile dans un environnement sécurisé, servant d'interface avec les ressources locales, dans le but de contrôler les flux d'informations entre le code mobile et les ressources, ainsi que les accès du code mobile aux ressources. Nous proposons deux critères de sécurité pour l'exécution de code mobile, obtenus chacun à partir d'une analyse de l'environnement local. Le premier porte sur les flux d'informations, garantit la confidentialité, est fondé sur le code de l'environnement, et est exact et indécidable ; le second porte sur les contrôles d'accès, garantit le confinement, s'obtient à partir du type de l'environnement, et est approché et décidable. Le premier chapitre, méthodologique, présente l'étude d'objets infinis représentés sous la forme d'arbres. Nous avons privilégié pour les définir, une approche équationnelle, et pour raisonner sur eux, une approche déductive, fondée sur l'interprétation co-inductive de systèmes d'inférence. Dans le second chapitre, on montre dans le cas simple du calcul, comment passer d'une sémantique opérationnelle à une sémantique dénotationnelle, en utilisant comme dénotation d'un programme son observation. Le troisième chapitre présente finalement en détail les deux critères de sécurité pour l'exécution de code mobile. Les techniques développées dans les chapitres précédents sont utilisées pour l'étude de la confidentialité, alors que des techniques élémentaires suffisent à l'étude du confinement.
79

Data Mining : algorithmes d'extraction et de réduction des règles d'association dans les bases de données

Pasquier, Nicolas 31 January 2000 (has links) (PDF)
L'extraction de connaissances dans les bases de données, également appelé data mining, désigne le processus non trivial permettant d'extraire des informations et des connaissances utiles qui sont enfouies dans les bases de données, les entrepôts de données (data warehouse) ou autres sources de données. Les recherches en ce domaine sont motivées par la croissance très rapide des volumes de données stockées et le potentiel de telles informations pour l'aide à la décision dans de nombreux domaines. Dans ce mémoire, nous traitons du problème de la génération efficace des règles d'association. Une règle d'association est une implication conditionnelle entre ensembles d'attributs binaires appelés items. Dans l'ensemble des travaux existants, ce problème est décomposé en deux sous-problèmes qui sont la recherche des ensembles fréquents d'items et la génération des règles d'association à partir de ces ensembles. Le premier sous-problème a une complexité exponentielle dans la taille de la relation en entrée et nécessite de parcourir à plusieurs reprises la totalité de la relation. L'extraction des ensembles fréquents d'items constitue donc la phase la plus coûteuse en termes de temps d'exécution et d'espace mémoire pour les algorithmes d'extraction des règles d'association. Nous proposons une nouvelle sémantique pour le problème de l'extraction des règles d'association basée sur la connexion de Galois d'une relation binaire finie. Utilisant cette sémantique, nous démontrons que les ensembles fermés fréquents d'items constituent une base, c'est à dire un ensemble générateur non redondant, pour les ensembles fréquents d'items et les règles d'association. Nous proposons deux nouveaux algorithmes, nommés Close et A-Close, permettant l'extraction des ensembles fermés fréquents d'items, à partir desquels les ensembles fréquents d'items et les règles d'association peuvent être dérivés sans accéder au jeu de données. Les résultats expérimentaux démontrent que ces algorithmes permettent de réduire les temps d'extraction des règles d'association dans le cas de jeux de données constitués de données denses ou corrélées. Utilisant la sémantique définie, nous proposons d'améliorer la pertinence et l'utilité des règles d'association extraites en limitant l'extraction à des bases pour les règles d'association. Nous adaptons pour cela les bases pour les règles d'implication définies en analyse de données et nous définissons de nouvelles bases constituées des règles non redondantes d'antécédents minimaux et de conséquences maximales à partir des ensembles fermés fréquents. Nous proposons également des algorithmes efficaces de génération de ces bases.
80

Identification et localisation des préoccupations fonctionnelles dans un code légataire Java

El Kharraz, Amal 06 1900 (has links)
Traditionnellement, les applications orientées objets légataires intègrent différents aspects fonctionnels. Ces aspects peuvent être dispersés partout dans le code. Il existe différents types d’aspects : • des aspects qui représentent des fonctionnalités métiers ; • des aspects qui répondent à des exigences non fonctionnelles ou à d’autres considérations de conception comme la robustesse, la distribution, la sécurité, etc. Généralement, le code qui représente ces aspects chevauche plusieurs hiérarchies de classes. Plusieurs chercheurs se sont intéressés à la problématique de la modularisation de ces aspects dans le code : programmation orientée sujets, programmation orientée aspects et programmation orientée vues. Toutes ces méthodes proposent des techniques et des outils pour concevoir des applications orientées objets sous forme de composition de fragments de code qui répondent à différents aspects. La séparation des aspects dans le code a des avantages au niveau de la réutilisation et de la maintenance. Ainsi, il est important d’identifier et de localiser ces aspects dans du code légataire orienté objets. Nous nous intéressons particulièrement aux aspects fonctionnels. En supposant que le code qui répond à un aspect fonctionnel ou fonctionnalité exhibe une certaine cohésion fonctionnelle (dépendances entre les éléments), nous proposons d’identifier de telles fonctionnalités à partir du code. L’idée est d’identifier, en l’absence des paradigmes de la programmation par aspects, les techniques qui permettent l’implémentation des différents aspects fonctionnels dans un code objet. Notre approche consiste à : • identifier les techniques utilisées par les développeurs pour intégrer une fonctionnalité en l’absence des techniques orientées aspects • caractériser l’empreinte de ces techniques sur le code • et développer des outils pour identifier ces empreintes. Ainsi, nous présentons deux approches pour l’identification des fonctionnalités existantes dans du code orienté objets. La première identifie différents patrons de conception qui permettent l’intégration de ces fonctionnalités dans le code. La deuxième utilise l’analyse formelle de concepts pour identifier les fonctionnalités récurrentes dans le code. Nous expérimentons nos deux approches sur des systèmes libres orientés objets pour identifier les différentes fonctionnalités dans le code. Les résultats obtenus montrent l’efficacité de nos approches pour identifier les différentes fonctionnalités dans du code légataire orienté objets et permettent de suggérer des cas de refactorisation. / Object oriented applications integrate various functional aspects. These aspects can be scattered everywhere in the code. There are various types of aspects : • aspects which represent business functionalities ; • aspects related to non functional requirements or to design concerns such as robustness, distribution, and security. The code representing such aspects can be located in different class hierarchies. Researchers have been interested in the problem of the modularisation of these aspects and many approaches were proposed : oriented programming subjects, oriented programming Aspects and oriented programming view. These approaches offer techniques and tools for designing object oriented applications based on the composition of slices of various aspects. The main benefit of the separation of aspects is supporting reuse and maintenance. Consequently, it is well worth identifying and extracting aspects of legacy object oriented applications. Our work mainly focuses on functional aspects. Assuming that the code of a functional aspect or a feature has a functional cohesion (dependencies between elements), we suggest methods for identifying such features from the code. The idea is to identify, in the absence of any aspect oriented paradigm, the techniques used for implementing a feature in the code. Our approach consists of : • identifying techniques used by developers to integrate a feature in the absence of aspect oriented techniques • characterizing the patterns of these techniques • and developing tools to identify these patterns. We present two approaches for the identification of the existing features in the object oriented code. The first one identifies various design patterns which integrates these features in the code. The second approach uses the formal concept analysis to identify the recurring features in the code. We experiment our approaches to identify functional features in different open source object oriented applications. The results show the efficiency of our approaches in identifying various functional features in the legacy object oriented, and can some times suggest refactoring.

Page generated in 0.1577 seconds