511 |
Optimisation de la conception du design du harnais de commande des véhicules spatiaux / Optimization of the design of the space vehicle control harness designRoynette, Eliott 02 July 2018 (has links)
Il y a soixante ans, le 4 octobre 1957, Spoutnik, le premier satellite artificiel conçu par l’homme, est envoyé dans l’espace. Sa seule fonction est d’émettre un bip radio à des fréquences de 20 et 40 MHz pour démontrer la puissance spatiale de l’URSS. Depuis cette époque les satellites se sont multipliés et leurs missions se sont diversifiées. Aujourd’hui, les missions des satellites sont si variées que certains quittent l’orbite terrestre. On parle dans ce cas de sondes, même si, dans le reste de cette thèse, ils seront inclus dans le terme "satellite". La mission des satellites la plus connue du grand public est la découverte de l’univers et l’exploration interplanétaire avec de célèbres satellites comme le télescope spatial international Hubble ou des sondes comme Rosetta, Voyager 1 et 2, ... Cependant de nos jours, même si l’exploration spatiale reste un enjeu majeur de l’humanité, la plupart des satellites ont des missions plus modestes qui ont pourtant un impact important sur la vie économique et politique. Les satellites en question ont aujourd’hui deux buts : la défense et le commercial. Dans les deux cas on peut diviser les satellites en deux groupes distincts : les satellites d’observation et les satellites de télécommunication. Pour fonctionner tous ces satellites utilisent un harnais électrique. Le harnais électrique regroupe tous les câbles présents dans le satellite et qui ne transportent pas de données client. Dans le cadre de cette thèse nous nous intéressons à l’optimisation de la conception du harnais électrique des satellites. / Sixty years ago, on October 4, 1957, Sputnik, the first man-made artificial satellite, was sent into space. Its only function is to emit a radio beep at frequencies of 20 and 40 MHz to demonstrate the space power of the USSR. Since then, satellites have been multiple and their missions have diversified. Today, the missions of the satellites are so varied that some leave Earth's orbit. We speak in the case of probes, even if, in the rest of this thesis, they will be included in the term "satellite". The best-known satellite mission of the general public is the discovery of the universe and interplanetary exploration with satellite satellites such as the Hubble International Space Telescope or probes such as Rosetta, Voyager 1 and 2, ... nevertheless nowadays Although space exploration remains a major issue for humanity, most satellites have smaller missions that have a significant impact on economic and political life. The satellites in question today have two goals: defense and commercial. In both cases the satellites can be divided into two distinct groups: observation satellites and telecommunication satellites. To operate all these satellites, use an electrical harness. The electrical harness includes all the cables present in the satellite and which does not carry any customer data. As part of this we are interested in optimizing the design of the electrical harness of satellites.
|
512 |
Arbitrer coût et flexibilité dans la Supply Chain / Balancing cost and flexibility in Supply ChainGaillard de Saint Germain, Etienne 17 December 2018 (has links)
Cette thèse développe des méthodes d'optimisation pour la gestion de la Supply Chain et a pour thème central la flexibilité définie comme la capacité à fournir un service ou un produit au consommateur dans un environnement incertain. La recherche a été menée dans le cadre d'un partenariat entre Argon Consulting, une société indépendante de conseil en Supply Chain et l'École des Ponts ParisTech. Dans cette thèse, nous développons trois sujets rencontrés par Argon Consulting et ses clients et qui correspondent à trois différents niveaux de décision (long terme, moyen terme et court terme).Lorsque les entreprises élargissent leur portefeuille de produits, elles doivent décider dans quelles usines produire chaque article. Il s'agit d'une décision à long terme, car une fois qu'elle est prise, elle ne peut être facilement modifiée. Plus qu'un problème d'affectation où un article est produit par une seule usine, ce problème consiste à décider si certains articles doivent être produits par plusieurs usines et par lesquelles. Cette interrogation est motivée par la grande incertitude de la demande. En effet, pour satisfaire la demande, l'affectation doit pouvoir équilibrer la charge de travail entre les usines. Nous appelons ce problème le multi-sourcing de la production. Comme il ne s'agit pas d'un problème récurrent, il est essentiel de tenir compte du risque au moment de décider le niveau de multi-sourcing. Nous proposons un modèle générique qui inclut les contraintes techniques du problème et une contrainte d'aversion au risque basée sur des mesures de risque issues de la théorie financière. Nous développons un algorithme et une heuristique basés sur les outils standards de la Recherche Opérationnelle et de l'Optimisation Stochastique pour résoudre le problème du multi-sourcing et nous testons leur efficacité sur des données réelles.Avant de planifier la production, certains indicateurs macroscopiques doivent être décidés à horizon moyen terme tels la quantité de matières premières à commander ou la taille des lots produits. Certaines entreprises utilisent des modèles de stock en temps continu, mais ces modèles reposent souvent sur un compromis entre les coûts de stock et les coûts de lancement. Ces derniers sont des coûts fixes payés au lancement de la production et sont difficiles à estimer en pratique. En revanche, à horizon moyen terme, la flexibilité des moyens de production est déjà fixée et les entreprises estiment facilement le nombre maximal de lancements. Poussés par cette observation, nous proposons des extensions de certains modèles classiques de stock en temps continu, sans coût de lancement et avec une limite sur le nombre d'installations. Nous avons utilisé les outils standard de l'Optimisation Continue pour calculer les indicateurs macroscopiques optimaux.Enfin, la planification de la production est une décision à court terme qui consiste à décider quels articles doivent être produits par la ligne de production pendant la période en cours. Ce problème appartient à la classe bien étudiée des problèmes de Lot-Sizing. Comme pour les décisions à moyen terme, ces problèmes reposent souvent sur un compromis entre les coûts de stock et les coûts de lancement. Fondant notre modèle sur ces considérations industrielles, nous gardons le même point de vue (aucun coût de lancement et une borne supérieure sur le nombre de lancement) et proposons un nouveau modèle.Bien qu'il s'agisse de décisions à court terme, les décisions de production doivent tenir compte de la demande future, qui demeure incertaine. Nous résolvons notre problème de planification de la production à l'aide d'outils standard de Recherche Opérationnelle et d'Optimisation Stochastique, nous testons l'efficacité sur des données réelles et nous la comparons aux heuristiques utilisées par les clients d'Argon Consulting / This thesis develops optimization methods for Supply Chain Management and is focused on the flexibility defined as the ability to deliver a service or a product to a costumer in an uncertain environment. The research was conducted throughout a partnership between Argon Consulting, which is an independent consulting firm in Supply Chain Operations and the École des Ponts ParisTech. In this thesis, we explore three topics that are encountered by Argon Consulting and its clients and that correspond to three different levels of decision (long-term, mid-term and short-term).When companies expand their product portfolio, they must decide in which plants to produce each item. This is a long-term decision since once it is decided, it cannot be easily changed. More than a assignment problem where one item is produced by a single plant, this problem consists in deciding if some items should be produced on several plants and by which plants. This is motivated by a highly uncertain demand. So, in order to satisfy the demand, the assignment must be able to balance the workload between plants. We call this problem the multi-sourcing of production. Since it is not a repeated problem, it is essential to take into account the risk when making the multi-sourcing decision. We propose a generic model that includes the technical constraints of the assignment and a risk-averse constraint based on risk measures from financial theory. We develop an algorithm and a heuristic based on standard tools from Operations Research and Stochastic Optimization to solve the multi-sourcing problem and we test their efficiency on real datasets.Before planning the production, some macroscopic indicators must be decided at mid-term level such as the quantity of raw materials to order or the size of produced lots. Continuous-time inventory models are used by some companies but these models often rely on a trade-off between holding costs and setups costs. These latters are fixed costs paid when production is launched and are hard to estimate in practice. On the other hand, at mid-term level, flexibility of the means of production is already fixed and companies easily estimate the maximal number of setups. Motivated by this observation, we propose extensions of some classical continuous-time inventory models with no setup costs and with a bound on the number of setups. We used standard tools from Continuous Optimization to compute the optimal macroscopic indicators.Finally, planning the production is a short-term decision consisting in deciding which items must be produced by the assembly line during the current period. This problem belongs to the well-studied class of Lot-Sizing Problems. As for mid-term decisions, these problems often rely on a trade-off between holding and setup costs. Basing our model on industrial considerations, we keep the same point of view (no setup cost and a bound on the number of setups) and propose a new model. Although these are short-term decisions, production decisions must take future demand into account, which remains uncertain. We solve our production planning problem using standard tools from Operations Research and Stochastic Optimization, test the efficiency on real datasets, and compare it to heuristics used by Argon Consulting's clients
|
513 |
Diagnostic de défauts d'isolement dans des lignes de transmission électriques : application aux cables de signalisation SNCF / Diagnosis of insulation faults in electric transmission lines : application to railway signaling cablesDjaziri, Leila 15 July 2015 (has links)
Ces travaux de thèse portent sur la détection de défauts d'isolement dans des lignes de transmission de grandes longueurs. Il s'agit de détecter des défauts non francs liés à l'isolant entre les conducteurs d'un câble de grande longueur qui sont représentés par le paramètre de conductance de fuite. Détecter ces défauts, signes d'un possible futur court-circuit, est un enjeu important mais nécessite une méthode non invasive. Par exemple, dans le cas des câbles de signalisation SNCF, il s'agit de développer une méthode de diagnostic de très faibles conductances de fuite dans les câbles de signalisation le long des voies ferrées compatible avec la circulation des trains. Il faut savoir estimer, à partir de mesures en un seul point du câble, de fortes résistances distribuées sur plusieurs centaines de mètres sans perturber la bande de fréquences du continu à 40 kHz, réservée aux signaux de service. En effet, les câbles de signalisation de la SNCF qui nous intéressent ont une longueur moyenne de 1500 m et sont utilisés dans la bande de fréquence 0-40 kHz. Nous proposons donc une méthode fréquentielle permettant d'estimer de faibles défauts à moyenne fréquence dans des lignes de transmission uniformes avec pertes. Elle repose sur deux idées principales : une analyse fine des effets conjoints de la dissipation et de la dispersion et une méthode de comparaison de deux lignes ayant les mêmes caractéristiques et ne différant que du paramètre de conductance de fuite. Cette méthode de comparaison a été généralisée dans le cas de lignes multiconducteurs en adoptant une démarche statistique.\\Cette thèse a apporté de nouveaux résultats : des formules d'estimation de pertes découlant de l'analyse fine d'une part des effets conjoints de la dissipation et de la dispersion et d'autre part de la méthode de comparaison de deux lignes. Des simulations numériques ont été faites dans les deux cas afin de valider la méthode fréquentielle proposée. Des expériences ont été réalisées afin de valider l'analyse statistique développée dans le cas de lignes multiconducteurs. / This thesis work focuses on the detection of insulation faults in very long transmission lines. This is detecting soft defects related to the insulation between the conductors of a long cable which are represented by the leakage conductance parameter. Detect these faults, signs of a possible future short-circuit, is an important issue but requires a noninvasive method. For example, in the case of railway signaling cables, it is to develop a method of diagnosis of very low leakage conductances in signaling cables along railways compatible with the movement of trains. Be aware estimate from measurements in one point of the cable, strong resistance distributed over several hundred meters without disturbing the continuous frequency range to 40 kHz, reserved for service signals. Indeed, the signal cables from the train that interest us have an average length 1500 m and are used in the frequency band 0-40 kHz.We propose so a frequency method for estimating low defects to medium frequency in uniform transmission lines with losses. It is based on two main ideas : a detailed analysis of joint effects of dissipation and dispersion and a method of comparing two lines having the same characteristics and differing only leak conductance parameter. This method of comparison was widespread in the case of multiconductor lines by adopting a statistical approach.This thesis has brought new results : losses estimation formulas resulting from the detailed analysis of a share of joint effects of dissipation and dispersion and also the method of comparing two lines. Numerical simulations were made in both cases to validate the proposed frequency method. Experiments were performed to validate the statistical analysis in the case of multiconductor lines.
|
514 |
Approche parcimonieuse pour l’imagerie 3D haute résolution de surface équivalente radar. / Sparse approach for high resolution 3D radar cross section imaging.Benoudiba-Campanini, Thomas 13 July 2018 (has links)
La SER (Surface Équivalente Radar) est une grandeur caractérisant le pouvoir rétrodiffuseurd’une cible soumise à un champ électromagnétique. Dans de nombreuses applications,il est capital d’analyser et de contrôler la SER. L’imagerie 3D est l’outil adapté pourlocaliser et caractériser en trois dimensions les principaux contributeurs à la SER. Cependant,ce traitement est un problème de synthèse de Fourier qui n’est pas inversible car il y aplus d’inconnues que de données. Les méthodes conventionnelles telles que le Polar FormatAlgorithm, consistant en un reformatage des données avec complétion de zéro suivi d’unetransformée de Fourier inverse rapide, fournissent des résultats de qualité limitée.Dans ce travail, nous proposons une nouvelle méthode haute résolution. Elle est dénomméeSPRITE (pour SParse Radar Imaging TEchnique) et permet d’accroître considérablementla qualité des cartes de rétro-diffusion estimées. Elle repose sur une régularisation duproblème consistant en la prise en compte d’informations a priori de parcimonie et d’uneinformation de support. La solution est alors définie comme le minimiseur d’un critère pénaliséet contraint. L’optimisation est assurée par l’algorithme primal-dual ADMM (AlternatingDirection Method of Multiplier) dont une adaptation aux spécificités du problème mène à descalculs efficaces à l’aide de transformées de Fourier rapides.Finalement, la méthode est évaluée sur des données synthétiques et réelles. Comparativementà la méthode conventionnelle, la résolution est drastiquement accrue. Les images 3Dproduites sont alors un outil particulièrement adapté à l’analyse et au contrôle de SER. / The RCS (Radar Cross Section) is a quantity which characterizes the scattering power ofa target exposed to an electromagnetic field. Its analysis and control are important in manyapplications. 3D imaging is a suitable tool to accurately locate and characterize in 3D themain contributors to the RCS. However, this is a non-invertible Fourier synthesis problembecause the number of unknowns is larger than the number of data. Conventional methodssuch as the Polar Format Algorithm, which consists of data reformatting including zeropaddingfollowed by a fast inverse Fourier transform, provide results of limited quality.In this work, we propose a new high resolution method, named SPRITE (for SParse RadarImaging TEchnique), which considerably increases the quality of the estimated RCS maps. Itis based on a regularization scheme that accounts for information of sparsity and support. Thesolution is then defined as the minimizer of a penalized and constrained criterion. Optimizationis ensured by an appropriate adaptation of the ADMM (Alternating Direction Methodof Multiplier) algorithm that is able to quickly perform calculations using fast Fourier transforms.Finally, the method is evaluated on both simulated and real data. Compared to the conventionalmethod, the resolution is significantly increased and the images can support a betterRCS analysis and control.
|
515 |
Modèles paramétriques pour la tomographie sismique bayésienne / Parametric models for bayesian seismic tomographyBelhadj, Jihane 02 December 2016 (has links)
La tomographie des temps de première arrivée vise à retrouver un modèle de vitesse de propagation des ondes sismiques à partir des temps de première arrivée mesurés. Cette technique nécessite la résolution d’un problème inverse afin d’obtenir un modèle sismique cohérent avec les données observées. Il s'agit d'un problème mal posé pour lequel il n'y a aucune garantie quant à l'unicité de la solution. L’approche bayésienne permet d’estimer la distribution spatiale de la vitesse de propagation des ondes sismiques. Il en résulte une meilleure quantification des incertitudes associées. Cependant l’approche reste relativement coûteuse en temps de calcul, les algorithmes de Monte Carlo par chaînes de Markov (MCMC) classiquement utilisés pour échantillonner la loi a posteriori des paramètres n'étant efficaces que pour un nombre raisonnable de paramètres. Elle demande, de ce fait, une réflexion à la fois sur la paramétrisation du modèle de vitesse afin de réduire la dimension du problème et sur la définition de la loi a priori des paramètres. Le sujet de cette thèse porte essentiellement sur cette problématique.Le premier modèle que nous considérons est basé sur un modèle de mosaïque aléatoire, le modèle de Jonhson-Mehl, dérivé des mosaïques de Voronoï déjà proposées en tomographie bayésienne. Contrairement à la mosaïque de Voronoï, les cellules de Johsnon-mehl ne sont pas forcément convexes et sont bornées par des portions d’hyperboloïdes, offrant ainsi des frontières lisses entre les cellules. Le deuxième modèle est, quant à lui, décrit par une combinaison linéaire de fonctions gaussiennes, centrées sur la réalisation d'un processus ponctuel de Poisson. Pour chaque modèle, nous présentons un exemple de validation sur des champs de vitesse simulés. Nous appliquons ensuite notre méthodologie à un modèle synthétique plus complexe qui sert de benchmark dans l'industrie pétrolière. Nous proposons enfin, un modèle de vitesse basé sur la théorie du compressive sensing pour reconstruire le champ de vitesse. Ce modèle, encore imparfait, ouvre plusieurs pistes de recherches futures.Dans ce travail, nous nous intéressons également à un jeu de données réelles acquises dans le contexte de la fracturation hydraulique. Nous développons dans ce contexte une méthode d'inférence bayésienne trans-dimensionnelle et hiérarchique afin de traiter efficacement la complexité du modèle à couches. / First arrival time tomography aims at inferring the seismic wave propagation velocity using experimental first arrival times. In our study, we rely on a Bayesian approach to estimate the wave velocity and the associated uncertainties. This approach incorporates the information provided by the data and the prior knowledge of the velocity model. Bayesian tomography allows for a better estimation of wave velocity as well asassociated uncertainties. However, this approach remains fairly expensive, and MCMC algorithms that are used to sample the posterior distribution are efficient only as long as the number of parameters remains within reason. Hence, their use requires a careful reflection both on the parameterization of the velocity model, in order to reduce the problem's dimension, and on the definition of the prior distribution of the parameters. In this thesis, we introduce new parsimonious parameterizations enabling to accurately reproduce the wave velocity field with the associated uncertainties.The first parametric model that we propose uses a random Johnson-Mehl tessellation, a variation of the Voronoï tessellation. The second one uses Gaussian kernels as basis functions. It is especially adapted to the detection of seismic wave velocity anomalies. Each anomaly isconsidered to be a linear combination of these basis functions localized at the realization of a Poisson point process. We first illustrate the tomography results with a synthetic velocity model, which contains two small anomalies. We then apply our methodology to a more advanced and more realistic synthetic model that serves as a benchmark in the oil industry. The tomography results reveal the ability of our algorithm to map the velocity heterogeneitieswith precision using few parameters. Finally, we propose a new parametric model based on the compressed sensing techniques. The first results are encouraging. However, the model still has some weakness related to the uncertainties estimation.In addition, we analyse real data in the context of induced microseismicity. In this context, we develop a trans-dimensional and hierarchical approach in order to deal with the full complexity of the layered model.
|
516 |
Analyse de vitesse par migration itérative : vers une meilleure prise en compte des réflexions multiples / Iterative Migration Velocity Analysis : extension to surface-related multiple reflectionsCocher, Emmanuel 03 March 2017 (has links)
Les expériences de sismique active sont couramment utilisées pour estimer la valeur d'un modèle de vitesse de propagation desondes P dans le sous-sol. Les méthodes dites d'« analyse de vitesse par migration » ont pour but la détermination d'un macro-modèle de vitesse, lisse, et responsable de la cinématique de propagation des ondes. Dans une première étape de « migration », une image de réflectivité est obtenue à partir des données enregistrées en utilisant une première estimation du macro-modèle. Cette image dépend d’un paramètre additionnel permettant dans un second temps d’estimer la qualité du macro-modèle puis de l'améliorer. Les images de réflectivité obtenues par les techniques de migration classiques sont cependant contaminées par des artefacts, altérant la qualité de la remise à jour du macro-modèle. En particulier, elles ne prennent pas en compte les réflexions multiples, habituellement retirées des données avant traitement. Cette étape reste cependant délicate et on se prive alors de l'information supplémentaire contenue dans les multiples.Nous proposons dans cette étude une stratégie d’optimisation imbriquée en itérant l'étape de migration avant de remettre à jour le macro-modèle. La migration itérative produit des images de réflectivité satisfaisantes pour l'analyse de vitesse et s’étend naturellement aux réflexions multiples. Un désavantage de la méthode est son coût de calcul. Un pseudo-inverse de l'opérateur de modélisation est alors utilisé comme préconditionneur pour limiter le nombre d’itérations dans la boucle interne. Une autre difficulté est l'instabilité de la remise à jour du modèle de vitesse calculée pour des modèles de réflectivité successifs proches les uns des autres. Une nouvelle approche plus robustesse est proposée, valide aussi dans le cas de multiples. Son efficacité est testée sur des jeux de données synthétiques 2D. / Active seismic experiments are commonly used to recover a model of the P-wave propagation velocity in the subsurface. “Migration Velocity Analysis” techniques aim at deriving a smooth background velocity model controlling the kinematics of wave propagation. First, a reflectivity image is obtained by “migration” of observed data using a first estimate of the background velocity. This image depends on an additional “subsurface-offset” parameter allowing to assess the quality of the background velocity model with a focusing criterion and to correct it. However classical migration techniques do not provide a sufficiently accurate reflectivity image, leading to inconsistent velocity updates. In particular they do not take into account multiple reflections, usually regarded as noise and removed from the data before processing. Multiple removal is however a difficult step, and additional information contained in multiples is discarded.In this thesis, we propose to determine the reflectivity model by iterative migration before subsequent velocity analysis, leading to a nested optimisation procedure. Iterative migration yields accurate reflectivity image and extends naturally to the case of multiples. One of its disadvantages is the associated increased computational cost. To limit the number of iterations in the innerloop, a preconditioner based on a pseudo-inverse of the modelling operator is introduced. Another difficulty is the instability of the velocity update obtained with very close successive reflectivity models. We propose a modified approach, valid in the presence of multiples, and discussed through applications on 2D synthetic data sets.
|
517 |
Configuration automatique d’un solveur générique intégrant des techniques de décomposition arborescente pour la résolution de problèmes de satisfaction de contraintes / Automatic configuration of generic solver embedding tree-decomposition techniques for solving constraint satisfaction problemsBlet, Loïc 30 September 2015 (has links)
La programmation par contraintes intègre des algorithmes de résolution génériques dans des langages de modélisation déclaratifs basés sur les contraintes : ces langages permettent de décrire des problèmes combinatoires sous la forme d’un ensemble de variables devant prendre leurs valeurs dans des domaines en satisfaisant des contraintes. Nous introduisons dans cette thèse un algorithme de résolution générique paramétré par : — une stratégie d’exploration de l’espace de recherche, à choisir parmi, chronological backtracking, conflict directed backjumping, conflict directed backjumping with reordering, dynamic backtracking, decision repair, et backtracking with tree decomposition ; — une heuristique de choix de variables, à choisir parmi, min-domain/ddeg et min-domain/wdeg ; — une technique de propagation de contraintes, à choisir parmi, forward checking et maintaining arc consistency. Ainsi, cet algorithme générique s’instancie en vingt-quatre configurations différentes ; certaines correspondant à des algorithmes connus, d’autres étant nouvelles. Ces vingt- quatre configurations ont été comparées expérimentalement sur un benchmark de plus de mille instances, chaque configuration étant exécutée plusieurs fois sur chaque instance pour tenir compte du non déterminisme des exécutions. Des tests statistiques sont utilisés pour comparer les performances. Cette évaluation expérimentale a permis de mieux comprendre la complémentarité des différents mécanismes de résolution, avec une attention particulière portée sur la capacité à tirer parti de la structure des instances pour accélérer la résolution. Nous identifions notamment treize configurations complémentaires telles que chaque instance de notre benchmark est bien résolue par au moins une des treize configurations. Une deuxième contribution de la thèse est d’introduire un sélecteur capable de choisir automatiquement la meilleure configuration de notre algorithme générique pour chaque nouvelle instance à résoudre : nous décrivons chaque instance par un ensemble de descripteurs et nous utilisons des techniques d’apprentissage automatique pour construire un modèle de choix de configuration à partir de ces descripteurs. Sachant que l’apprentissage est généralement plus difficile quand il y a beaucoup de configurations, nous exprimons le problème du choix du sous-ensemble de configurations pouvant être sélectionnées comme un problème de couverture d’ensemble et nous comparons deux critères de choix : le premier vise à maximiser le nombre d’instances résolues par au moins une configuration et le second vise à maximiser le nombre d’instances pour lesquelles il y a une bonne configuration disponible. Nous montrons expérimentalement que la seconde stratégie obtient généralement de meilleurs résultats, et que le sélecteur obtient de meilleures performances que chacune de nos vingt-quatre configurations initiales. / Constraint programming integrates generic solving algorithms within declarative languages based on constraints : these languages allow us to describe combinatorial problems as a set of variables which have to take their values in domains while satisfying constraints. Numerous real-life problems can be modelled in such a way, as for instance, planification problems, scheduling problems, . . . These problems are NP-complete in the general case of finite domains. We introduce in this work a generic solving algorithm parameterized by : — a strategy for exploring the search space, to be chosen from the following six, chronological backtracking, conflict directed backjumping, conflict directed backjumping with reordering, dynamic backtracking, decision repair, and backtracking with tree decomposition ; — a variable ordering heuristic, to be chosen from the following two, min-domain/ddeg and min-domain/wdeg ; — a constraint propagation technique, to be chosen from the following two, forward checking and maintaining arc consistency. Thus, this algorithm leads to 24 different configurations ; some corresponding to already known algorithms, others being new. These 24 configurations have been com- pared experimentally on a benchmark of more than a thousand instances, each configuration being executed several times to take into account the non-determinism of the executions, and a statistical test has been used to compare performances. This experimental evaluation allowed us to better understand the complementarity of the different solving mechanisms, with a focus on the ability to exploit the structure of the instances to speed up the solving process. We identify 13 complementary configurations such that every instance of our benchmark is well solved by at least one of the 13 configurations. A second contribution of this work is to introduce a selector able to choose automatically the best configuration of our generic solver for each new instance to be solved : we describe each instance by a set of features and we use machine learning techniques to build a model to choose a configuration based on these features. Knowing that the learning process is generally harder when there are many configurations to choose from, we state the problem of choosing a subset of configurations that can be picked as a set covering problem and we compare two criterion : the first one aims to maximize the number of instances solved by at least one configuration and the second one aims to maximize the number of instances for which there is a good configuration available. We show experimentally that the second strategy obtains generally better results and that the selector obtains better performances than each of the 24 initial configurations.
|
518 |
Approche décentralisée de l'apprentissage constructiviste et modélisation multi-agent du problème d'amorçage de l'apprentissage sensorimoteur en environnement continu : application à l'intelligence ambiante / Bootstrapping sensory-motor patterns for a constructivist learning system in continuous environments based on decentralized multi-agent approach : application to ambient intelligenceMazac, Sébastien 06 October 2015 (has links)
Nous proposons donc un modèle original d'apprentissage constructiviste adapté pour un système d'AmI. Ce modèle repose sur une approche décentralisée, permettant de multiples implémentations convenant à un environnement hétérogène. Dans les environnements réels continus sans modélisation à priori, se pose la question de la modélisation des structures élémentaires de représentation et particulièrement le problème d'amorçage de l'apprentissage sensorimoteur (comme décrit par [Kuipers06]). Dans le cadre du modèle général proposé, nous explicitons ce problème particulier et proposons de le traiter comme une forme d'auto-organisation modélisée par un système multi-agent. Cette approche permet de construire des motifs d'interaction élémentaires à partir des seules données brutes, sur lesquels peut reposer la construction d'une représentation plus élaborée (voir [Mazac14]). Nous présentons enfin une série d'expérimentations illustrant la résolution de ce problème d'amorçage : tout d'abord grâce à un environnement simulé, qui permet de maitriser les régularités de l'environnement et autorise des expérimentations rapides ; ensuite en implémentant ce système d'apprentissage au sein d'un environnement d'AmI réel. Pour cela le modèle est intégré dans le système d'AmI développé par l'entreprise partenaire de cette thèse CIFRE. Puis nous présentons une possible application industrielle des résultats de cette première étape implémentée d'amorçage de l'apprentissage sensorimoteur. Nous concluons par l'analyse des résultats et des perspectives de ce type d'approche pour l'AmI et l'application en général de l'IA aux systèmes réels en environnements continus / The theory of cognitive development from Jean Piaget (1923) is a constructivist perspective of learning that has substantially influenced cognitive science domain. Within AI, lots of works have tried to take inspiration from this paradigm since the beginning of the discipline. Indeed it seems that constructivism is a possible trail in order to overcome the limitations of classical techniques stemming from cognitivism or connectionism and create autonomous agents, fitted with strong adaptation ability within their environment, modelled on biological organisms. Potential applications concern intelligent agents in interaction with a complex environment, with objectives that cannot be predefined. Like robotics, Ambient Intelligence (AmI) is a rich and ambitious paradigm that represents a high complexity challenge for AI. In particular, as a part of constructivist theory, the agent has to build a representation of the world that relies on the learning of sensori-motor patterns starting from its own experience only. This step is difficult to set up for systems in continuous environments, using raw data from sensors without a priori modelling.With the use of multi-agent systems, we investigate the development of new techniques in order to adapt constructivist approach of learning on actual cases. Therefore, we use ambient intelligence as a reference domain for the application of our approach
|
519 |
Access control and inference problem in data integration systems / Problème d'inférence et contrôle d'accès dans les systèmes d'intégration de donnéesHaddad, Mehdi 01 December 2014 (has links)
Dans cette thèse nous nous intéressons au contrôle d’accès dans un système issu d’une intégration de données. Dans un système d’intégration de données un médiateur est défini. Ce médiateur a pour objectif d’offrir un point d’entrée unique à un ensemble de sources hétérogènes. Dans ce type d’architecture, l’aspect sécurité, et en particulier le contrôle d’accès, pose un défi majeur. En effet, chaque source, ayant été construite indépendamment, définit sa propre politique de contrôle d’accès. Le problème qui émerge de ce contexte est alors le suivant : "Comment définir une politique représentative au niveau du médiateur et qui permet de préserver les politiques des sources de données impliquées dans la construction du médiateur?" Préserver les politiques des sources de données signifie qu’un accès interdit au niveau d’une source doit également l’être au niveau du médiateur. Aussi, la politique du médiateur doit préserver les données des accès indirects. Un accès indirect consiste à synthétiser une information sensible en combinant des informations non sensibles et les liens sémantiques entre ces informations. Détecter tous les accès indirects dans un système est appelé problème d’inférence. Dans ce manuscrit, nous proposons une méthodologie incrémentale qui permet d’aborder le problème d’inférence dans un contexte d’intégration de données. Cette méthodologie est composée de trois phases. La première, phase de propagation, permet de combiner les politiques sources et ainsi générer une politique préliminaire au niveau médiateur. La deuxième phase, phase de détection, caractérise le rôle que peuvent jouer les relations sémantiques entre données afin d’inférer une information confidentielle. Par la suite, nous introduisant, au sein de cette phase, une approche basée sur les graphes afin d’énumérer tous les accès indirects qui peuvent induire l’accès à une information sensible. Afin de remédier aux accès indirects détectés nous introduisons la phase de reconfiguration qui propose deux solutions. La première solution est mise en œuvre au niveau conceptuel. La seconde solution est mise en œuvre lors de l’exécution. / In this thesis we are interested in controlling the access to a data integration system. In a data integration system, a mediator is defined. This mediator aims at providing a unique entry point to several heterogeneous sources. In this kind of architecture security aspects and access control in particular represent a major challenge. Indeed, every source, designed independently of the others, defines its own access control policy. The problem is then: "How to define a representative policy at the mediator level that preserves sources’ policies?" Preserving the sources’ policies means that a prohibited access at the source level should also be prohibited at the mediator level. Also, the policy of the mediator needs to protect data against indirect accesses. An indirect access occurs when one could synthesize sensitive information from the combination of non sensitive information and semantic constraints. Detecting all indirect accesses in a given system is referred to as the inference problem. In this manuscript, we propose an incremental methodology able to tackle the inference problem in a data integration context. This methodology has three phases. The first phase, the propagation phase, allows combining source policies and therefore generating a preliminary policy at the mediator level. The second phase, the detection phase, characterizes the role of semantic constraints in inducing inference about sensitive information. We also introduce in this phase a graph-based approach able to enumerate all indirect access that could induce accessing sensitive information. In order to deal with previously detected indirect access, we introduce the reconfiguration phase which provides two solutions. The first solution could be implemented at design time. The second solution could be implemented at runtime.
|
520 |
Le problème d’équivalence pour les variétés de Cauchy-Riemann en dimension 5 / The equivalence problem for CR-manifolds in dimension 5Pocchiola, Samuel 30 September 2014 (has links)
Ce mémoire est une contribution à la résolution du problème d'équivalence pour les variétés de Cauchy-Riemann en dimension inférieure ou égale à 5. On traite d'abord du cas des variétés CR de dimension 5, qui sont 2-nondégénérées et de rang de Levi constant égal à 1. Pour une telle variété, on obtient deux invariants, J et W, dont l'annulation simultanée caractérise l'équivalence locale à une variété modèle, le tube au-dessus du cône de lumière. Si l'un des deux invariants ne s'annule pas, on construit un parallélisme absolu, i.e. on montre que le problème d'équivalence se réduit à un problème d'équivalence entre {e}-structures de dimension 5. On étudie ensuite le problème d'équivalence pour certaines variétés CR de dimension 4 appelées variétés de Engel. Ce problème est résolu par la construction d'une connexion de Cartan sur un fibré principal de dimension 5. On traite ensuite du cas de variétés CR de dimension 5 dont le fibré CR vérifie une certaine hypothèse de dégénérecence. Le problème d'équivalence est résolu dans ce cas par la construction d'une connexion de Cartan sur un fibré de dimension 6. Enfin, on détermine les algèbres de Lie des automorphismes infinitésimaux des modèles pour les trois classes de variétés CR étudiées. / This memoir contributes to solve the equivalence problem for CR-manifolds in dimension up to 5. We first deal with the equivalence problem for 5-dimensional CR-manifolds which are 2-nondegenerate and of constant Levi rank 1. For such a manifold M, we find two invariants, J and W, the annulation of which gives a necessary and sufficient condition for M to be locally CR-equivalent to a model hypersurface, the tube over the light cone. If one of the invariants does not vanish on M, we construct an absolute parallelism on M, that is we show that the equivalence problem reduces to an equivalence problem between 5-dimensional {e}-structures. We then study the equivalence problem for 4-dimensional CR-manifolds which are known as Engel manifolds. This problem is solved by the construction of a canonical Cartan connection on a 5-dimensional bundle through Cartan's equivalence method. We also study the equivalence problem for 5-dimensional CR-manifolds whose CR-bundle satisfies a certain degeneracy assumption, and show that in this case, the problem is solved by the construction of a Cartan connection on a 6-dimensional bundle. The last part of this memoir is devoted to the determination of the Lie algebra of infinitesimal automorphisms for the model manifolds of the three previous classes.
|
Page generated in 0.049 seconds