141 |
Méthodes level-set et de pénalisation pour l'optimisation et le contrôle d'écoulements / .Chantalat, Frédéric 15 July 2009 (has links)
Ce travail est consacré à la résolution e?cace de problèmes d’optimisation de forme ou de contrôle d’écoulements. Le couplage entre la pénalisation, permettant d’imposer des conditions aux bords sur maillage cartésien, et la méthode Level-Set, autorisant une représentation d’obstacles non-paramétrique et un suivi d’interface précis, est implémenté. En première partie, un problème inverse modèle, puis une optimisation géométrique en régime de Stokes, sont traités itérativement. Une attention particulière est portée à la solution des EDP près des zones pénalisées, et une montée en ordre est réalisée. Divers préconditionnements du gradient de forme sont aussi discutés a?n d’améliorer la convergence. La seconde partie est dédiée à la simulation directe d’écoulements au voisinage d’un actionneur dans le cadre d’un contrôle par jets pulsés exercé sur le corps d’Ahmed. L’étude locale montre l'in?uence de paramètres comme la fréquence de pulsation ou l’allure des pro?ls de vitesse en sortie sur la qualité de l’action. En guise de synthèse, une optimisation de la forme de l’actionneur du chapitre deux est pratiquée sous contraintes topologiques et dans un cadre simpli?é, à l’aide du couplage Level-Set/pénalisation préalablement introduit. L’objectif du problème inverse posé est de modi?er la géométrie intérieure du MEMS pour obtenir un pro?l de vitesses désiré en sortie de jet. / This work deals with e?cient numerical solving of problems linked with shape optimization or ?ow control. The combination between penalization, that allows to impose boundary conditions while avoiding the use of body-?tted grids, and Level-Set methods, which enable a natural non-parametric representation of the geometries to be optimized, is implemented. In the ?rst part, a model inverse problem, and an application pertaining to optimal design in Stokes ?ows, are treated with an iterative algorithm. Special care is devoted to the solution of the PDE’s in the vicinity of the penalized regions. The discretization accuracy is increased. Various gradient preconditionings aiming at improving the convergence are also discussed. The second part is dedicated to direct numerical simulation of ?ows in the neighborhood of an actuator, in the context of active control by pulsed jets used on the Ahmed body. The local study emphasizes the in?uence of various parameters on the action quality, in particular the pulsation frequency, or the aspect of exit velocity pro?les. As a synthesis, shape optimization is performed on the actuator of chapter two, thanks to the previously introduced coupling between Level-Set and penalization. The framework is simpli?ed and topological constraints are imposed. The inverse problem we set intends to modify the MEMS inner geometry to retrieve a given jet pro?le on the exit section.
|
142 |
Segmentation of heterogeneous document images : an approach based on machine learning, connected components analysis, and texture analysis / Segmentation d'images hétérogènes de documents : une approche basée sur l'apprentissage automatique de données, l'analyse en composantes connexes et l'analyse de textureBonakdar Sakhi, Omid 06 December 2012 (has links)
La segmentation de page est l'une des étapes les plus importantes de l'analyse d'images de documents. Idéalement, une méthode de segmentation doit être capable de reconstituer la structure complète de toute page de document, en distinguant les zones de textes, les parties graphiques, les photographies, les croquis, les figures, les tables, etc. En dépit de nombreuses méthodes proposées à ce jour pour produire une segmentation de page correcte, les difficultés sont toujours nombreuses. Le chef de file du projet qui a rendu possible le financement de ce travail de thèse (*) utilise une chaîne de traitement complète dans laquelle les erreurs de segmentation sont corrigées manuellement. Hormis les coûts que cela représente, le résultat est subordonné au réglage de nombreux paramètres. En outre, certaines erreurs échappent parfois à la vigilance des opérateurs humains. Les résultats des méthodes de segmentation de page sont généralement acceptables sur des documents propres et bien imprimés; mais l'échec est souvent à constater lorsqu'il s'agit de segmenter des documents manuscrits, lorsque la structure de ces derniers est vague, ou lorsqu'ils contiennent des notes de marge. En outre, les tables et les publicités présentent autant de défis supplémentaires à relever pour les algorithmes de segmentation. Notre méthode traite ces problèmes. La méthode est divisée en quatre parties : - A contrario de ce qui est fait dans la plupart des méthodes de segmentation de page classiques, nous commençons par séparer les parties textuelles et graphiques de la page en utilisant un arbre de décision boosté. - Les parties textuelles et graphiques sont utilisées, avec d'autres fonctions caractéristiques, par un champ conditionnel aléatoire bidimensionnel pour séparer les colonnes de texte. - Une méthode de détection de lignes, basée sur les profils partiels de projection, est alors lancée pour détecter les lignes de texte par rapport aux frontières des zones de texte. - Enfin, une nouvelle méthode de détection de paragraphes, entraînée sur les modèles de paragraphes les plus courants, est appliquée sur les lignes de texte pour extraire les paragraphes, en s'appuyant sur l'apparence géométrique des lignes de texte et leur indentation. Notre contribution sur l'existant réside essentiellement dans l'utilisation, ou l'adaptation, d'algorithmes empruntés aux méthodes d'apprentissage automatique de données, pour résoudre les cas les plus difficiles. Nous démontrons en effet un certain nombre d'améliorations : sur la séparation des colonnes de texte lorsqu'elles sont proches l'une de l'autre~; sur le risque de fusion d'au moins deux cellules adjacentes d'une même table~; sur le risque qu'une région encadrée fusionne avec d'autres régions textuelles, en particulier les notes de marge, même lorsque ces dernières sont écrites avec une fonte proche de celle du corps du texte. L'évaluation quantitative, et la comparaison des performances de notre méthode avec des algorithmes concurrents par des métriques et des méthodologies d'évaluation reconnues, sont également fournies dans une large mesure.(*) Cette thèse a été financée par le Conseil Général de Seine-Saint-Denis, par l'intermédiaire du projet Demat-Factory, initié et conduit par SAFIG SA / Document page segmentation is one of the most crucial steps in document image analysis. It ideally aims to explain the full structure of any document page, distinguishing text zones, graphics, photographs, halftones, figures, tables, etc. Although to date, there have been made several attempts of achieving correct page segmentation results, there are still many difficulties. The leader of the project in the framework of which this PhD work has been funded (*) uses a complete processing chain in which page segmentation mistakes are manually corrected by human operators. Aside of the costs it represents, this demands tuning of a large number of parameters; moreover, some segmentation mistakes sometimes escape the vigilance of the operators. Current automated page segmentation methods are well accepted for clean printed documents; but, they often fail to separate regions in handwritten documents when the document layout structure is loosely defined or when side notes are present inside the page. Moreover, tables and advertisements bring additional challenges for region segmentation algorithms. Our method addresses these problems. The method is divided into four parts:1. Unlike most of popular page segmentation methods, we first separate text and graphics components of the page using a boosted decision tree classifier.2. The separated text and graphics components are used among other features to separate columns of text in a two-dimensional conditional random fields framework.3. A text line detection method, based on piecewise projection profiles is then applied to detect text lines with respect to text region boundaries.4. Finally, a new paragraph detection method, which is trained on the common models of paragraphs, is applied on text lines to find paragraphs based on geometric appearance of text lines and their indentations. Our contribution over existing work lies in essence in the use, or adaptation, of algorithms borrowed from machine learning literature, to solve difficult cases. Indeed, we demonstrate a number of improvements : on separating text columns when one is situated very close to the other; on preventing the contents of a cell in a table to be merged with the contents of other adjacent cells; on preventing regions inside a frame to be merged with other text regions around, especially side notes, even when the latter are written using a font similar to that the text body. Quantitative assessment, and comparison of the performances of our method with competitive algorithms using widely acknowledged metrics and evaluation methodologies, is also provided to a large extend.(*) This PhD thesis has been funded by Conseil Général de Seine-Saint-Denis, through the FUI6 project Demat-Factory, lead by Safig SA
|
143 |
Conception de lignes de fabrication sous incertitudes : analyse de sensibilité et approche robuste. / Production line design under uncertainty : sensitivity analysis and robust approachGurevsky, Evgeny 13 December 2011 (has links)
Les travaux présentés dans cette thèse portent sur la conception de systèmes de fabrication en contexte incertain. La conception d’un tel système peut être vue comme un problème d’optimisation qui consiste à trouver une configuration qui permet d’optimiser certains objectifs tout en respectant des contraintes technologiques et économiques connues. Les systèmes de fabrication étudiés dans ce mémoire sont des lignes d’assemblage et d’usinage. La première est une ligne qui se présente comme une chaîne de postes de travail où, dans chaque poste, les opérations d’assemblage s’exécutent de manière séquentielle. La deuxième, quant à elle, est une ligne particulière qui se compose de machines de transfert comportant plusieurs boîtiers multibroches où les opérations s’exécutent simultanément. Dans un premier temps, nous décrivons de différentes approches permettant de modéliser l’incertitude des données en optimisation. Une attention particulière est portée sur les deux approches suivantes : l’approche robuste et l’analyse de sensibilité. Puis, nous présentons trois applications : la conception d’une ligne d’assemblage et d’une ligne d’usinage soumises aux variations de temps opératoires et la conception d’une ligne d’assemblage avec les temps opératoires connus sous la forme d’intervalles des valeurs possibles. Pour chaque application, nous identifions les performances attendues ainsi que la complexité de la prise en compte de l’incertitude. Ensuite, nous proposons de nouveaux critères d’optimisation en adéquation avec la problématique introduite. Enfin des méthodes de résolution sont développées pour appréhender les différents problèmes mis en évidence par ces critères. / The presented work deals with the design of production systems in uncertain context. The design of such systems can be interpreted as an optimization problem that consists to find a configuration optimizing certain objectives and respecting technological and economical constraints. The production systems studied in this thesis are the assembly and transfer lines. The first one is the line that can be represented as a flow-oriented chain of workstations where, at each workstation, the tasks are executed in a sequential manner. The second is a particular line that is composed of transfer machines including several multi-spindle heads where the tasks are executed simultaneously. At first, we describe different approaches that permit to model the uncertainty of data in optimization. A particular attention is attracted to two following approaches: robust approach and sensitivity analysis. Then, we present three applications: the design of assembly and transfer lines under variations of task processing times and the design of an assembly line with interval task processing times. For each application, we identify the expected performances as well as the complexity of taking into account the uncertainty. Thereafter, we propose some new optimization criteria in adequacy with the introduced problematic. Finally, resolution methods are developed to solve different problems engendered by these criteria.
|
144 |
Diagnostic de défauts d'isolement dans des lignes de transmission électriques : application aux cables de signalisation SNCF / Diagnosis of insulation faults in electric transmission lines : application to railway signaling cablesDjaziri, Leila 15 July 2015 (has links)
Ces travaux de thèse portent sur la détection de défauts d'isolement dans des lignes de transmission de grandes longueurs. Il s'agit de détecter des défauts non francs liés à l'isolant entre les conducteurs d'un câble de grande longueur qui sont représentés par le paramètre de conductance de fuite. Détecter ces défauts, signes d'un possible futur court-circuit, est un enjeu important mais nécessite une méthode non invasive. Par exemple, dans le cas des câbles de signalisation SNCF, il s'agit de développer une méthode de diagnostic de très faibles conductances de fuite dans les câbles de signalisation le long des voies ferrées compatible avec la circulation des trains. Il faut savoir estimer, à partir de mesures en un seul point du câble, de fortes résistances distribuées sur plusieurs centaines de mètres sans perturber la bande de fréquences du continu à 40 kHz, réservée aux signaux de service. En effet, les câbles de signalisation de la SNCF qui nous intéressent ont une longueur moyenne de 1500 m et sont utilisés dans la bande de fréquence 0-40 kHz. Nous proposons donc une méthode fréquentielle permettant d'estimer de faibles défauts à moyenne fréquence dans des lignes de transmission uniformes avec pertes. Elle repose sur deux idées principales : une analyse fine des effets conjoints de la dissipation et de la dispersion et une méthode de comparaison de deux lignes ayant les mêmes caractéristiques et ne différant que du paramètre de conductance de fuite. Cette méthode de comparaison a été généralisée dans le cas de lignes multiconducteurs en adoptant une démarche statistique.\\Cette thèse a apporté de nouveaux résultats : des formules d'estimation de pertes découlant de l'analyse fine d'une part des effets conjoints de la dissipation et de la dispersion et d'autre part de la méthode de comparaison de deux lignes. Des simulations numériques ont été faites dans les deux cas afin de valider la méthode fréquentielle proposée. Des expériences ont été réalisées afin de valider l'analyse statistique développée dans le cas de lignes multiconducteurs. / This thesis work focuses on the detection of insulation faults in very long transmission lines. This is detecting soft defects related to the insulation between the conductors of a long cable which are represented by the leakage conductance parameter. Detect these faults, signs of a possible future short-circuit, is an important issue but requires a noninvasive method. For example, in the case of railway signaling cables, it is to develop a method of diagnosis of very low leakage conductances in signaling cables along railways compatible with the movement of trains. Be aware estimate from measurements in one point of the cable, strong resistance distributed over several hundred meters without disturbing the continuous frequency range to 40 kHz, reserved for service signals. Indeed, the signal cables from the train that interest us have an average length 1500 m and are used in the frequency band 0-40 kHz.We propose so a frequency method for estimating low defects to medium frequency in uniform transmission lines with losses. It is based on two main ideas : a detailed analysis of joint effects of dissipation and dispersion and a method of comparing two lines having the same characteristics and differing only leak conductance parameter. This method of comparison was widespread in the case of multiconductor lines by adopting a statistical approach.This thesis has brought new results : losses estimation formulas resulting from the detailed analysis of a share of joint effects of dissipation and dispersion and also the method of comparing two lines. Numerical simulations were made in both cases to validate the proposed frequency method. Experiments were performed to validate the statistical analysis in the case of multiconductor lines.
|
145 |
Modélisation et optimisation d’un plan de transport ferroviaire en zone dense du point de vue des voyageurs / Passenger-oriented modelling and optimization of the railway transportation plan in a mass transit systemBrethomé, Lucile Isabelle 20 November 2018 (has links)
La conception d’un plan de transport d’un service ferroviaire est un processus qui se réalise entre deux ans et six mois avant la mise en service de celui-ci. Les principales phases de la conception sont la définition des dessertes, le calcul de la grille horaire et enfin l’organisation des roulements de rames et des conducteurs. La manière dont le plan de transport est conçu peut avoir de nombreuses conséquences sur la qualité de service : fréquence en gare insuffisante qui peut entrainer une perte de clients, robustesse de la grille horaire face à de petits incidents... En zone dense, tous ces éléments sont à prendre en compte, dès la conception de la grille horaire.Aujourd’hui, SNCF Transilien conçoit ses plans de transport en prenant d’abord en compte l’optimisation des ressources de production (sillons, rames et agents de conduite). Toutefois, l’augmentation des ressources mises en œuvre n’améliore plus l’adéquation du plan de transport à la demande des voyageurs. Ce mode de conception ne permet donc plus de faire face à l’augmentation de la demande de mobilité. C’est pourquoi il faut repenser la conception du plan de transport en intégrant immédiatement la dimension voyageuse.Nos travaux se concentrent sur les problématiques de conception de dessertes et de grille horaire, en prenant en compte le point de vue des voyageurs. Nous présentons un modèle multiobjectif de conception de dessertes, puis nous présentons un modèle de conception de grille horaire intégrant le choix d’itinéraire des voyageurs. Ensuite, nous présentons une méthode cherchant à intégrer ces deux modèles. Enfin, nous présentons une évaluation de nos résultats grâce à des indicateurs de fiabilité / The design of a railway transportation plan is a process achieved between two years and six months before it is put into service. The main phases in the design of a transportation plan are the line planning, the timetabling, the rolling stock and the crew scheduling.The design of the transportation plan can have many consequences on the quality of service: an inadequate frequency in station can cause a loss of passengers, sufficient number of seated places, robustness of the timetable in the face of small incidents... In dense area, as in the Ile-de-France region, all these elements must be taken into account as the transportation plan is designed.Today, SNCF Transilien designs its transportation plans by first taking into account the optimization of production resources (train paths, rolling stock units and drivers). However, today, the increase in resources implemented no longer improves the adequacy of the transportation plan to passengers’ demand. This design method no longer makes it possible to cope with the increase in the demand for mobility (+3% each year since 2000). This is why we must rethink the design of the transport plan by immediately integrating the passenger dimension. Our work focuses on issues of line planning and timetabling in a passenger-oriented approach. First, we present a multi-objective model for line planning. Then, we present a model of timetabling incorporating passenger route choice. Then, we initiate a method to integrate these two models. Finally, we present an evaluation of our results thanks to reliability indicators from the literature and a macroscopic simulation of the timetables
|
146 |
Modélisation couplée Compatibilité Électromagnétique - Thermique d’architectures de câblages électriques embarquées / Coupled EMC - Thermal Modeling of Electrical Wiring Architectures EmbeddedMahiddini, Florian 24 May 2018 (has links)
Le développement d’aéronefs « plus » voire « tout » électriques a pour conséquence la conception d’architectures électriques embarquées de plus en plus complexes entraînant une très nette augmentation du nombre de câbles électriques à déployer au sein des véhicules. Parmi les contraintes rencontrées lors des phases de définition et d’intégration des réseaux de câblages, les aspects de compatibilité électromagnétique et de gestion des échauffements thermiques deviennent de plus en plus critiques. Ainsi, ces travaux de thèse sont dédiés au développement d’une méthodologie permettant la prédiction d’une part, des courants induits par et sur les réseaux de câblages et d’autre part, de leur niveaux d’échauffement. En particulier, l’analyse bibliographique effectuée à cette occasion montre que les phénomènes électrostatiques (à la base de la théorie des lignes de transmission) et de conduction stationnaire de la chaleur sont strictement analogues, ce qui autorise une résolution simultanée de ces deux problèmes pour les réseaux de câblages considérés. Les présents travaux démontrent que le calcul des paramètres électriques primaires (p.u.l) du réseau et de la distribution de température dans le plan transverse peut se faire de manière totalement couplé à l’aide d’un schéma numérique basé sur la Méthode des Moments(MoM). Le choix de l’utilisation des équations intégrales pour la résolution de ce problème de potentiel se fonde sur plusieurs avantages tels qu’une utilisation optimisée des ressources de calcul et l’utilisation d’algorithmes efficaces de résolution, de surcroît naturellement parallélisables pour de futurs développements. Les outils de calculs thermiques développés dans le cadre de cette thèse, et qui ont vocation à être intégrés dans la suite logicielle CRIPTE de l’ONERA, ont fait l’objet d’une validation expérimentale pour plusieurs configurations de harnais électriques. Les comparaisons simulations-mesures présentent de bons accords bien que les expérimentations menées aient montré la difficulté d’obtenir précisément des valeurs du coefficient d’échange thermique,même dans des conditions parfaitement maîtrisées. Les travaux ouvrent enfin des perspectives nouvelles sur l’optimisation en terme de masse des réseaux de câblage (EWIS). / The on-going development of “more” or “all” electrical aircraft leads to the design of ever-complex embeddedelectrical networks, which causes a significant increase of electrical cables to be used within these innovativevehicles. Among the constraints encountered during the definition and integration phases of the network, thoserelated to the electromagnetic compatibility between equipment as well as the management of thermal heatingby Joule’s effect become more and more stringent. Thus, this thesis is dedicated to the development of anoriginal methodology enabling the prediction of both induced and crosstalk currents as well as the heating upstate in complex bundles of cables. Indeed, literature review explicitly shows that electrostatic and stationaryheat transfer phenomena are, from a mathematical standpoint, strictly the same which allows the simultaneouscomputation of these two problems for an arbitrary network. This research work demonstrates that the determinationof primary electrical parameters (per unit length) and the temperature distribution within a givencross-section can be handled with the numerical Method Of Moment (MoM). This choice is motivated by theseveral inherent advantages of the method like an optimized use of the computer resource and the naturalparallelization of the algorithms. The developed numerical tools, intended to be fully integrated in the in-housesoftware suite CRIPTE, has been validated during an experimental campaign that has involved several typesof bundles. Although the comparisons between experimental and simulated results comply with each other,experiments reveal the hard task of getting a precise estimation of the heat transfer coefficients, even in awell-controlled environment. Finally, these works open new and very promising perspectives for future EWIS(Electrical Wiring Interconnection System) in term of mass optimization.
|
147 |
Recovering traceability links between artifacts of software variants in the context of software product line engineering / Identification des liens de traçabilité entre les artefacts logiciels d'applications similaires dans le contexte de l'ingénierie des lignes de produitsEyal Salman, Hamzeh 17 June 2014 (has links)
L'ingénierie des lignes de produits logiciels (Software Product Line Engineering-SPLE en Anglais) est une discipline qui met en œuvre des principes de réutilisation pour le développement efficace de familles de produits. Une famille de produits logiciels est un ensemble de logiciels similaires, ayant des fonctionnalités communes, mais néanmoins différents selon divers aspects; nous parlerons des différentes variantes d'un logiciel. L'utilisation d'une ligne de produit permet de développer les nouveaux produits d'une famille plus vite et d'augmenter la qualité de chacun d'eux. Ces avantages sont liés au fait que les éléments communs aux membres d'une même famille (besoin, architecture, code source, etc.) sont réutilisés et adaptés. Créer de toutes pièces une ligne de produits est une tâche difficile, coûteuse et longue. L'idée sous-jacente à ce travail est qu'une ligne de produits peut être créée par la réingénierie de logiciels similaires (de la même famille) existants, qui ont été préalablement développés de manière ad-hoc. Dans ce contexte, la contribution de cette thèse est triple. La première contribution est la proposition d'une approche pour l'identification des liens de traçabilité entre les caractéristiques (features) d'une application et les parties du code source qui les implémentent, et ce pour toutes les variantes d'une application. Ces liens sont utiles pour générer (dériver) de nouveaux logiciels par la sélection de leurs caractéristiques. L'approche proposée est principalement basée sur l'amélioration de la technique conventionnelle de recherche d'information (Information Retrieval –IR en Anglais) et des approches les plus récentes dans ce domaine. Cette amélioration est liée à deux facteurs. Le premier facteur est l'exploitation des informations liées aux éléments communs ou variables des caractéristiques et du code source des produits logiciels analysés. Le deuxième facteur concerne l'exploitation des similarités et des dépendances entre les éléments du code source. Les résultats que nous avons obtenus par expérimentation confirment l'efficacité de notre approche. Dans la deuxième contribution, nous appliquons nos résultats précédents (contribution no 1) à l'analyse d'impact (Change Impact Analysis –CIA en Anglais). Nous proposons un algorithme permettant à un gestionnaire de ligne de produit ou de produit de détecter quelles les caractéristiques (choix de configuration du logiciel) impactées par une modification du code. Cet algorithme améliore les résultats les plus récents dans ce domaine en permettant de mesurer à quel degré la réalisation d'une caractéristique est impactée par une modification. Dans la troisième contribution nous exploitons à nouveau ces liens de traçabilité (contribution No 1) pour proposer une approche permettant de satisfaire deux objectifs. Le premier concerne l'extraction de l'architecture de la ligne de produits. Nous proposons un ensemble d'algorithmes pour identifier les points de variabilité architecturale à travers l'identification des points de variabilité au niveau des caractéristiques. Le deuxième objectif concerne l'identification des liens de traçabilité entre les caractéristiques et les éléments de l'architecture de la ligne de produits. Les résultats de l'expérimentation montre que l'efficacité de notre approche dépend de l'ensemble des configurations de caractéristiques utilisé (disponibles via les variantes de produits analysés). / Software Product Line Engineering (SPLE) is a software engineering discipline providing methods to promote systematic software reuse for developing short time-to-market and quality products in a cost-efficient way. SPLE leverages what Software Product Line (SPL) members have in common and manages what varies among them. The idea behind SPLE is to builds core assets consisting of all reusable software artifacts (such as requirements, architecture, components, etc.) that can be leveraged to develop SPL's products in a prescribed way. Creating these core assets is driven by features provided by SPL products.Unfortunately, building SPL core assets from scratch is a costly task and requires a long time which leads to increasing time-to-market and up-front investment. To reduce these costs, existing similar product variants developed by ad-hoc reuse should be re-engineered to build SPLs. In this context, our thesis proposes three contributions. Firstly, we proposed an approach to recover traceability links between features and their implementing source code in a collection of product variants. This helps to understand source code of product variants and facilitate new product derivation from SPL's core assets. The proposed approach is based on Information Retrieval (IR) for recovering such traceability links. In our experimental evaluation, we showed that our approach outperforms the conventional application of IR as well as the most recent and relevant work on the subject. Secondly, we proposed an approach, based on traceability links recovered in the first contribution, to study feature-level Change Impact Analysis (CIA) for changes made to source code of features of product variants. This approach helps to conduct change management from a SPL's manager point of view. This allows him to decide which change strategy should be executed, as there is often more than one change that can solve the same problem. In our experimental evaluation, we proved the effectiveness of our approach in terms of the most used metrics on the subject. Finally, based on traceability recovered in the first contribution, we proposed an approach to contribute for building Software Product Line Architecture (SPLA) and linking its elements with features. Our focus is to identify mandatory components and variation points of components. Therefore, we proposed a set of algorithms to identify this commonality and variability across a given collection of product variants. According to the experimental evaluation, the efficiency of these algorithms mainly depends on the available product configurations.
|
148 |
Construction de lignes de produits logiciels par rétro-ingénierie de modèles de caractéristiques à partir de variantes de logiciels : l'approche REVPLINE / Reverse Engineering Feature Models From Software Variants to Build Software Product Lines : RIVEPLINE ApproachAl-Msie' Deen, Ra'Fat 24 June 2014 (has links)
Les lignes de produits logicielles constituent une approche permettant de construire et de maintenir une famille de produits logiciels similaires mettant en œuvre des principes de réutilisation. Ces principes favorisent la réduction de l'effort de développement et de maintenance, raccourcissent le temps de mise sur le marché et améliorent la qualité globale du logiciel. La migration de produits logiciels similaires vers une ligne de produits demande de comprendre leurs similitudes et leurs différences qui s'expriment sous forme de caractéristiques (features) offertes. Dans cette thèse, nous nous intéressons au problème de la construction d'une ligne de produits à partir du code source de ses produits et de certains artefacts complémentaires comme les diagrammes de cas d'utilisation, quand ils existent. Nous proposons des contributions sur l'une des étapes principales dans cette construction, qui consiste à extraire et à organiser un modèle de caractéristiques (feature model) dans un mode automatisé. La première contribution consiste à extraire des caractéristiques dans le code source de variantes de logiciels écrits dans le paradigme objet. Trois techniques sont mises en œuvre pour parvenir à cet objectif : l'Analyse Formelle de Concepts, l'Indexation Sémantique Latente et l'analyse des dépendances structurelles dans le code. Elles exploitent les parties communes et variables au niveau du code source. La seconde contribution s'attache à documenter une caractéristique extraite par un nom et une description. Elle exploite le code source mais également les diagrammes de cas d'utilisation, qui contiennent, en plus de l'organisation logique des fonctionnalités externes, des descriptions textuelles de ces mêmes fonctionnalités. En plus des techniques précédentes, elle s'appuie sur l'Analyse Relationnelle de Concepts afin de former des groupes d'entités d'après leurs relations. Dans la troisième contribution, nous proposons une approche visant à organiser les caractéristiques, une fois documentées, dans un modèle de caractéristiques. Ce modèle de caractéristiques est un arbre étiqueté par des opérations et muni d'expressions logiques qui met en valeur les caractéristiques obligatoires, les caractéristiques optionnelles, des groupes de caractéristiques (groupes ET, OU, OU exclusif), et des contraintes complémentaires textuelles sous forme d'implication ou d'exclusion mutuelle. Ce modèle est obtenu par analyse d'une structure obtenue par Analyse Formelle de Concepts appliquée à la description des variantes par les caractéristiques. L'approche est validée sur trois cas d'étude principaux : ArgoUML-SPL, Health complaint-SPL et Mobile media. Ces cas d'études sont déjà des lignes de produits constituées. Nous considérons plusieurs produits issus de ces lignes comme s'ils étaient des variantes de logiciels, nous appliquons notre approche, puis nous évaluons son efficacité par comparaison entre les modèles de caractéristiques extraits automatiquement et les modèles de caractéristiques initiaux (conçus par les développeurs des lignes de produits analysées). / The idea of Software Product Line (SPL) approach is to manage a family of similar software products in a reuse-based way. Reuse avoids repetitions, which helps reduce development/maintenance effort, shorten time-to-market and improve overall quality of software. To migrate from existing software product variants into SPL, one has to understand how they are similar and how they differ one from another. Companies often develop a set of software variants that share some features and differ in other ones to meet specific requirements. To exploit existing software variants and build a software product line, a feature model must be built as a first step. To do so, it is necessary to extract mandatory and optional features in addition to associate each feature with its name. Then, it is important to organize the mined and documented features into a feature model. In this context, our thesis proposes three contributions.Thus, we propose, in this dissertation as a first contribution a new approach to mine features from the object-oriented source code of a set of software variants based on Formal Concept Analysis, code dependency and Latent Semantic Indexing. The novelty of our approach is that it exploits commonality and variability across software variants, at source code level, to run Information Retrieval methods in an efficient way. The second contribution consists in documenting the mined feature implementations based on Formal Concept Analysis, Latent Semantic Indexing and Relational Concept Analysis. We propose a complementary approach, which aims to document the mined feature implementations by giving names and descriptions, based on the feature implementations and use-case diagrams of software variants. The novelty of our approach is that it exploits commonality and variability across software variants, at feature implementations and use-cases levels, to run Information Retrieval methods in an efficient way. In the third contribution, we propose an automatic approach to organize the mined documented features into a feature model. Features are organized in a tree which highlights mandatory features, optional features and feature groups (and, or, xor groups). The feature model is completed with requirement and mutual exclusion constraints. We rely on Formal Concept Analysis and software configurations to mine a unique and consistent feature model. To validate our approach, we applied it on three case studies: ArgoUML-SPL, Health complaint-SPL, Mobile media software product variants. The results of this evaluation validate the relevance and the performance of our proposal as most of the features and its constraints were correctly identified.
|
149 |
A Cumulative Framework for Image Registration using Level-line Primitives / Décision cumulative de vote pour la mise en correspondance des primitives de lignes de niveauxAlmehio, Yasser 04 September 2012 (has links)
Nous proposons dans cette thèse une nouvelle approche cumulative de recalage d'images basée sur des primitives construites à partir des lignes de niveaux. Les lignes de niveaux sont invariantes par rapport aux diverses perturbations affectant l'image tels que les changements de contraste. Par ailleurs, leur abondance dans une image suggère naturellement un processus de décision cumulatif. Nous proposons alors un algorithme récursif d'extraction des lignes de niveaux simple et efficace qui extrait les lignes par groupes rectiligne appelés ``segments''. Les segments sont ensuite groupés -- sous contrainte de proximité -- en fonction du modèle de transformation recherchée et afin de faciliter le calcul des invariants. Les primitives construites ont alors la forme de Z, Y ou W et sont classées en fonction de leur fiabilité, ce qui participe au paramétrage du processus de décision cumulatif. Le vote est multi-tours et constitué d'une phase préliminaire de construction de listes de préférences inspiré de la technique des mariages stables. Les primitives votent à une itération donnée en fonction de leur fiabilité. Chaque itération fournit ainsi un estimé de la transformation recherchée que le tour suivant peut raffiner. Ce procédé multi-tours permet, de ce fait, d'éliminer les ambiguïtés d'appariement générées par les motifs répétitifs présents dans les images. Notre approche a été validée pour recaler des images sous différents modèles de transformations allant de la plus simple (similarité) à la plus complexe (projective). Nous montrons dans cette thèse comment le choix pertinent de primitives basées sur les lignes de niveaux en conjonction avec un processus de décision cumulatif permet d'obtenir une méthode de recalage d'images robuste, générique et complète, fournissant alors différents niveaux de précision et pouvant ainsi s'appliquer à différents contextes. / In this thesis, we propose a new image registration method that relies on level-line primitives. Level-lines are robust towards contrast changes and proposed primitives inherit their robustness. Moreover, their abundance in the image is well adapted to a cumulative matching process based on a multi-stage primitive election procedure. We propose a simple recursive tracking algorithm to extract level lines by straight sets called "segments". Segments are then grouped under proximity constraints to construct primitives (Z, Y and W shapes) that are classified into categories according to their reliability. Primitive shapes are defined according to the transformation model. The cumulative process is based on a preliminary step of preference lists construction that is inspired from the stable marriage matching algorithm. Primitives vote in a given voting stage according to their reliability. Each stage provides a coarse estimate of the transformation that the next stage gets to refine. This process, in turn, eliminate gradually the ambiguity happened by incorrect correspondences. Our additional contribution is to validate further geometric transformations, from simple to complex ones, completing the path "similarity, affine, projective". We show in this thesis how the choice of level lines in conjunction with a cumulative decision process allows defining a complete robust registration approach that is tested and evaluated on several real image sequences including different type of transformations.
|
150 |
Mining and modeling variability from natural language documents : two case studies / Extraction automatique de modèles de variabilitéBen Nasr, Sana 05 April 2016 (has links)
L'analyse du domaine vise à identifier et organiser les caractéristiques communes et variables dans un domaine. Dans la pratique, le coût initial et le niveau d'effort manuel associés à cette analyse constituent un obstacle important pour son adoption par de nombreuses organisations qui ne peuvent en bénéficier. La contribution générale de cette thèse consiste à adopter et exploiter des techniques de traitement automatique du langage naturel et d'exploration de données pour automatiquement extraire et modéliser les connaissances relatives à la variabilité à partir de documents informels. L'enjeu est de réduire le coût opérationnel de l’analyse du domaine. Nous étudions l'applicabilité de notre idée à travers deux études de cas pris dans deux contextes différents: (1) la rétro-ingénierie des Modèles de Features (FMs) à partir des exigences réglementaires de sûreté dans le domaine de l’industrie nucléaire civil et (2) l’extraction de Matrices de Comparaison de Produits (PCMs) à partir de descriptions informelles de produits. Dans la première étude de cas, nous adoptons des techniques basées sur l’analyse sémantique, le regroupement (clustering) des exigences et les règles d'association. L'évaluation de cette approche montre que 69% de clusters sont corrects sans aucune intervention de l'utilisateur. Les dépendances entre features montrent une capacité prédictive élevée: 95% des relations obligatoires et 60% des relations optionnelles sont identifiées, et la totalité des relations d'implication et d'exclusion sont extraites. Dans la deuxième étude de cas, notre approche repose sur la technologie d'analyse contrastive pour identifier les termes spécifiques au domaine à partir du texte, l'extraction des informations pour chaque produit, le regroupement des termes et le regroupement des informations. Notre étude empirique montre que les PCMs obtenus sont compacts et contiennent de nombreuses informations quantitatives qui permettent leur comparaison. L'expérience utilisateur montre des résultats prometteurs et que notre méthode automatique est capable d'identifier 43% de features correctes et 68% de valeurs correctes dans des descriptions totalement informelles et ce, sans aucune intervention de l'utilisateur. Nous montrons qu'il existe un potentiel pour compléter ou même raffiner les caractéristiques techniques des produits. La principale leçon à tirer de ces deux études de cas, est que l’extraction et l’exploitation de la connaissance relative à la variabilité dépendent du contexte, de la nature de la variabilité et de la nature du texte. / Domain analysis is the process of analyzing a family of products to identify their common and variable features. This process is generally carried out by experts on the basis of existing informal documentation. When performed manually, this activity is both time-consuming and error-prone. In this thesis, our general contribution is to address mining and modeling variability from informal documentation. We adopt Natural Language Processing (NLP) and data mining techniques to identify features, commonalities, differences and features dependencies among related products. We investigate the applicability of this idea by instantiating it in two different contexts: (1) reverse engineering Feature Models (FMs) from regulatory requirements in nuclear domain and (2) synthesizing Product Comparison Matrices (PCMs) from informal product descriptions. In the first case study, we adopt NLP and data mining techniques based on semantic analysis, requirements clustering and association rules to assist experts when constructing feature models from these regulations. The evaluation shows that our approach is able to retrieve 69% of correct clusters without any user intervention. Moreover, features dependencies show a high predictive capacity: 95% of the mandatory relationships and 60% of optional relationships are found, and the totality of requires and exclude relationships are extracted. In the second case study, our proposed approach relies on contrastive analysis technology to mine domain specific terms from text, information extraction, terms clustering and information clustering. Overall, our empirical study shows that the resulting PCMs are compact and exhibit numerous quantitative and comparable information. The user study shows that our automatic approach retrieves 43% of correct features and 68% of correct values in one step and without any user intervention. We show that there is a potential to complement or even refine technical information of products. The main lesson learnt from the two case studies is that the exploitability and the extraction of variability knowledge depend on the context, the nature of variability and the nature of text.
|
Page generated in 0.0783 seconds