• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 695
  • 319
  • 99
  • 2
  • 1
  • Tagged with
  • 1129
  • 414
  • 251
  • 244
  • 203
  • 183
  • 183
  • 154
  • 129
  • 126
  • 110
  • 109
  • 109
  • 102
  • 98
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Exploration des mécanismes évolutionnaires appliqués à la conception architecturale : mise en oeuvre d'un algorithme génétique guidé par les qualités solaires passives de l'enveloppe / Evolutionary mechanisms exploration for supporting initial architectural design phase

Marin, Philippe 31 May 2010 (has links)
Cette recherche porte sur l’exploration et la qualification des dispositifs évolutionnaires appliquées à la conception architecturale. Ici, ce sont les qualités environnementales et plus particulièrement les qualités solaires passives de l’enveloppe de l’édifice qui guideront le processus évolutionnaire. Nous nous attachons plus particulièrement aux phases initiales de la conception, et nous cherchons à spécifier un outil d’assistance favorisant et stimulant une conception créative. Après avoir établi et structuré une connaissance sur les processus de conception, sur la créativité, sur les qualités thermiques et sur les méthodes évolutionnaires, nous proposons un outil prototypal, fondé sur un algorithme génétique et implanté dans un logiciel de type modeleur. Celui-ci a été expérimenté dans le milieu pédagogique, et nous a conduit à caractériser les modalités de création et de conceptualisation de la forme architecturale dans le cadre d’une instrumentation évolutionnaire.Ainsi nous notons le basculement cognitif d’une pensée implicite vers une pensée explicite comme caractéristique fondamentalement de l’instrumentation générative. De plus nous insistons sur l’importance de l’indétermination signifiante comme composante essentielle de la création. Enfin nous proposons la notion de « trans-forme » comme élément caractéristique d’une pensée du processus et de la multiplicité. Cette « meta-forme » serait issue de la description des conditions de mise en forme à travers la paramétrisation des comportements aux limites et des modalités d’émergence / This research tackles the exploration and the qualification of evolutionary mechanisms applied to the architectural design. Here, it is the environmental qualities and more particularly the passive solar qualities of the envelope of the building that will guide the evolutionary process. We become attached more particularly to the initial phases of the conception, and we try to specify a aided digital tool of facilitating and stimulating a creative design. Having established and structured the knowledge on the processes of conception, on the creativity, on the thermal qualities and on the evolutionary methods, we propose a prototypal tool, based on an genetic algorithm and implanted in a modeller software. This one was experimented in the educational environment, and led to us to characterize the modalities of creation and conceptualization of the architectural shape within the framework of an evolutionary instrumentation.So we note the cognitive fall of an implicit thought towards an explicit thought as a main characteristic of the generative tools. Furthermore we insist on the importance of the significant indecision as essential constituent of the creation. Finally we propose the notion of "transform" as characteristic element of a thought of the process and the multiplicity. This "meta-shape" would arise from the description of the conditions of shaping through the parameterisation of the behaviours at the limits and from modalities of emergence
352

Algorithmes de multiplication : complexité bilinéaire et méthodes asymptotiquement rapides / Multiplication algorithms : bilinear complexity and fast asymptotic methods

Covanov, Svyatoslav 05 June 2018 (has links)
Depuis 1960 et le résultat fondateur de Karatsuba, on sait que la complexité de la multiplication (d’entiers ou de polynômes) est sous-quadratique : étant donné un anneau R quelconque, le produit sur R[X] des polynômes a_0 + a_1 X et b_0 + b_1 X, pour tous a_0, a_1, b_0 et b_1 dans R, peut être calculé en seulement trois et non pas quatre multiplications sur R : (a_0 + a_1 X)(b_0 + b_1 X) = m_0 + (m_2 - m_0 - m_1)X + m_1 X^2, avec les trois produits m_0 = a_0b_0, m_1 = a_1b_1 et m_2 = (a_0 + a_1)(b_0 + b_1). De la même manière, l’algorithme de Strassen permet de multiplier deux matrices 2nx2n en seulement sept produits de matrices nxn. Les deux exemples précédents tombent dans la catégorie des applications bilinéaires : des fonctions de la forme Phi : K^m x K^n -> K^l, pour un corps donné K, linéaires en chacune des deux variables. Parmi les applications bilinéaires les plus classiques, on trouve ainsi la multiplication de polynômes, de matrices, ou encore d’éléments d’extensions algébriques de corps finis. Étant donnée une application bilinéaire Phi, calculer le nombre minimal de multiplications nécessaires au calcul de cette application est un problème NP-difficile. L'objectif de cette thèse est de proposer des algorithmes minimisant ce nombre de multiplications. Deux angles d'attaques ont été suivis. Un premier aspect de cette thèse est l'étude du problème du calcul de la complexité bilinéaire sous l'angle de la reformulation de ce problème en termes de recherche de sous-espaces vectoriels de matrices de rang donné. Ce travail a donné lieu à un algorithme tenant compte de propriétés intrinsèques aux produits considérés tels que les produits matriciels ou polynomiaux sur des corps finis. Cet algorithme a permis de trouver toutes les décompositions possibles, sur F_2, pour le produit de polynômes modulo X^5 et le produit de matrices 3x2 par 2x3. Un autre aspect de ma thèse est celui du développement d’algorithmes asymptotiquement rapides pour la multiplication entière. Une famille particulière d'algorithmes récents ont été proposés suite à un article de Fürer publié en 2007, qui proposait un premier algorithme, reposant sur la transformée de Fourier rapide (FFT) permettant de multiplier des entiers de n bits en O(n log n 2^{O(log^* n)}), où log^* est la fonction logarithme itéré. Dans cette thèse, un algorithme dont la complexité dépend d'une conjecture de théorie des nombres est proposé, reposant sur la FFT et l'utilisation de premiers généralisés de Fermat. Une analyse de complexité permet d'obtenir une estimation en O(n log n 4^{log^* n}) / Since 1960 and the result of Karatsuba, we know that the complexity of the multiplication (of integers or polynomials) is sub-quadratic: given a ring R, the product in R[X] of polynomials a_0 + a_1 X and b_0 + b_1 X, for any a_0, a_1, b_0 and b_1 in R, can be computed with three and not four multiplications over R: (a_0 + a_1X)(b_0 + b_1X) = m_0 + (m_2 - m_0 - m_1)X + m_1X^2, with the three multiplications m_0 = a_0b_0, m_1 = a_1b_1 et m_2 = (a_0 + a_1)(b_0 + b_1). In the same manner, Strassen's algorithm allows one to multiply two matrices 2nx2n with only seven products of matrices nxn. The two previous examples fall in the category of bilinear maps: these are functions of the form Phi : K^m x K^n -> K^l, given a field K, linear in each variable. Among the most classical bilinear maps, we have the multiplication of polynomials, matrices, or even elements of algebraic extension of finite fields. Given a bilinear map Phi, computing the minimal number of multiplications necessary to the evaluation of this map is a NP-hard problem. The purpose of this thesis is to propose algorithms minimizing this number of multiplications. Two angles of attack have been studied. The first aspect of this thesis is to study the problem of the computation of the bilinear complexity under the angle of the reformulation of this problem in terms of research of matrix subspaces of a given rank. This work led to an algorithm taking into account intrinsic properties of the considered products such as matrix or polynomial products over finite fields. This algorithm allows one to find all the possible decompositions, over F_2, for the product of polynomials modulo X^5 and the product of matrices 3x2 by 2x3. Another aspect of this thesis was the development of fast asymptotic methods for the integer multiplication. There is a particular family of algorithms that has been proposed after an article by Fürer published in 2007. This article proposed a first algorithm, relying on fast Fourier transform (FFT), allowing one to multiply n-bit integers in O(n log n 2^{O(log^* n)}), where log^* is the iterated logarithm function. In this thesis, an algorithm, relying on a number theoretical conjecture, has been proposed, involving the use of FFT and generalized Fermat primes. With a careful complexity analysis of this algorithm, we obtain a complexity in O(nlog n 4^{log^* n})
353

A Polyhedral Approach for the Double TSP with Multiple Stacks and Lexicographical Orders / Une approche polyédrale pour le problème du double voyageur de commerce sous contraintes de piles et pour les ordres lexicographiques

Barbato, Michele 05 October 2016 (has links)
Dans cette thèse nous considérons deux problèmes d'optimisation combinatoire.Le premier s'appelle problème du double voyageur de commerce avec contraintes de piles. Dans ce problème, un véhicule doit ramasser un certain nombre d'objets dans une région pour les livrer à des clients situés dans une autre région. Lors du ramassage, les objets sont stockés dans les différentes piles du véhicule et la livraison des objets se fait selon une politique de type last-in-first-out. Le ramassage et la livraison consistent chacune en une tournée Hamiltonienne effectuée par le véhicule dans la région correspondante.Nous donnons une formulation linéaire en nombres entiers pour ce problème. Elle est basée sur des variables de précédence et sur des contraintes de chemins infaisables. Nous donnons par la suite des résultats polyédraux sur l'enveloppe convexe des solutions de notre formulation. En particulier, nous montrons des liens forts avec un polytope associé au problème du voyageur de commerce et des liens avec un polytope de type set covering. Cette étude polyédrale nous permet de renforcer la formulation initiale et de développer un algorithme de coupes et branchements efficace. Le deuxième problème que nous considérons consiste à trouver la description des polytopes lexicographiques. Ces derniers sont les enveloppes convexes des points entiers lexicographiquement compris entre deux points entiers fixés. Nous donnons une description complète de ces polytopes en termes d'inégalités linéaires. Nous démontrons que la famille des polytopes lexicographiques est fermée par intersection. / In this thesis we consider two problems arising in combinatorial optimization.The first one is the double traveling salesman problem with multiple stacks. In this problem a vehicle picks up a given set of items in a region and subsequently delivers them to demanding customers in another region. When an item is picked up, it is put in a stack of the vehicle. The items are delivered observing a last-in-first-out policy. The pickup phase and the delivery phase consist in two Hamiltonian circuits, each performed by the vehicle in the corresponding region. We give a new integer linear programming formulation for this problem. Its main features are the presence of precedence variables and new infeasible path constraints. We provide polyhedral results on the convex hull of the solutions to our formulation. In particular, we show strong links with a specific TSPpolytope and a specific set covering polytope. We deduce strengthening inequalities for the initial formulation, subsequently embedded in an efficient branch-and-cut algorithm. The second problem we consider consists in finding the description of the lexicographical polytopes. These are convex hulls of the integer points lexicographically between two given integer points. We give a complete description of these polytopes by means of linear inequalities. We show that the lexicographical polytope family is closed under intersection.
354

Intégration de systèmes multi-capteurs CMOS-MEMS : application à une centrale d’attitude / A CMOS-MEMS inertial measurement unit integration

Alandry, Boris 23 September 2010 (has links)
Les systèmes électroniques actuels intègrent de plus en plus de fonctionnalités nécessitant l'intégration de capteurs très variés. Ces systèmes hétérogènes sont complexes à intégrer notamment lorsque différentes technologies de fabrication sont nécessaires pour les capteurs.Les technologies de fabrication de MEMS avec un procédé CMOS-FSBM offrent un coût de production réduit et permettent d'intégrer sur un même substrat différents types de capteurs (magnétomètres et accéléromètres notamment). Ce procédé de fabrication implique cependant une détection résistive des capteurs avec tous les problèmes qui lui sont associés (faible sensibilité, offset important, bruit de l'électronique). A travers la réalisation de la première centrale inertielle sur une puce, cette thèse renforce l'intérêt d'une approche « CMOS-MEMS » pour la conception de systèmes multi-capteurs. Le système est basé sur une mesure incomplète du champ magnétique terrestre (axes X et Y) et sur la mesure complète du champ gravitationnel. Une électronique de conditionnement des capteurs performante a été développée adressant les principaux problèmes relatifs à une détection résistive permettant ainsi une optimisation de la résolution de chaque capteur. Enfin, deux algorithmes ont été développés pour la détermination de l'attitude à partir de la mesure des cinq capteurs montrant la faisabilité et l'intérêt d'un tel système. / Current electronic systems integrate more and more applications that require the integration of various kinds of sensors. The integration of such heterogeneous systems is complex especially when sensor fabrication processes differ from one to another. MEMS manufacturing processes based on CMOS-FSBM process promote a low-cost production and allow the integration of various types of sensors on the same die (e.g., magnetometers and accelerometers). However, this manufacturing process requires that sensors make use of resistive transduction with its associated drawbacks (low sensitivity, offset, electronic noise). Through the design and the implementation of the first inertial measurement unit (IMU) on a chip, this thesis demonstrates the interest of a “CMOS-MEMS” approach for the design of multi-sensor systems. The IMU is based on the incomplete measurement of the Earth magnetic field (X and Y axis) and the complete measurement of the gravity. An efficient front-end electronic has been developed addressing the most important issues of resistive transduction and thus allowing an optimization of sensor resolution. Finally, two attitude determination algorithms have been developed from the five sensor measurements showing the feasibility and the interest of such a system.
355

Architecture matérielle pour la reconstruction temps réel d'images par focalisation en tout point (FTP) / Hardware architecture for real-time imaging towards Total Focusing Method (TFM )

Njiki, Mickaël 27 September 2013 (has links)
Le contrôle non destructif (CND) a pour but de détecter et de caractériser d’éventuels défauts présents dans des pièces mécaniques. Les techniques ultrasonores actuelles utilisent des capteurs multiéléments associés à des chaînes d’instrumentations et d’acquisitions de données multi capteurs en parallèles. Compte tenu de la masse de données à traiter, l’analyse de ces dernières est généralement effectuée hors ligne. Des travaux en cours, au Commissariat à l’Energie Atomique (CEA), consistent à développer et évaluer différentes méthodes d’imageries avancées, basées sur la focalisation synthétique. Les algorithmes de calculs induits nécessitent d’importantes opérations itératives sur un grand volume de données, issues d’acquisition multiéléments. Ceci implique des temps de calculs important, imposant un traitement en différé. Les contraintes industrielles de caractérisation de pièces mécaniques in situ imposent de réaliser la reconstruction d’images lors de la mesure et en temps réel. Ceci implique d’embarquer dans l’appareil de mesure, toute l’architecture de calcul sur les données acquises des capteurs. Le travail de thèse a donc consisté à étudier une famille d’algorithmes de focalisation synthétique pour une implantation temps réel sur un instrument de mesure permettant de réaliser l’acquisition de données. Nous avons également étudié une architecture dédiée à la reconstruction d’images par la méthode de Focalisation en Tout Point (FTP). Ce travail a été réalisé dans le cadre d’une collaboration avec l’équipe ACCIS de l’institut d’Electronique Fondamentale, Université de Paris Sud. Pour ce faire, notre démarche s’est inspirée de la thématique de recherche d’Adéquation Algorithme Architecture (A3). Notre méthodologie, est basée sur une approche expérimentale consistant dans un premier temps en une décomposition de l’algorithme étudié en un ensemble de blocs fonctionnels (calculs/transferts). Cela nous a permis de réaliser l’extraction des blocs pertinents de calculs à paralléliser et qui ont une incidence majeure sur les temps de traitement. Nous avons orienté notre stratégie de développement vers une conception flot de donnée. Ce type de modélisation permet de favoriser les flux de données et de réduire les flux de contrôles au sein de l’architecture matérielle. Cette dernière repose sur une plateforme multi-FPGA. La conception et l’évaluation de telles architectures ne peuvent se faire sans la mise en place d’outils logiciels d’aide à la validation tout au long du processus de la conception à l’implantation. Ces outils faisant partie intégrante de notre méthodologie. Les modèles architecturaux des briques de calculs ont été validés au niveau fonctionnel puis expérimental, grâce à la chaîne d’outils développée. Cela inclus un environnement de simulation nous permettant de valider sur tables les briques partielles de calculs ainsi que le contrôle associé. Enfin, cela a nécessité la conception d’outils de génération automatique de vecteurs de tests, à partir de données de synthèses (issues de l’outil simulation CIVA développé par le CEA) et de données expérimentales (à partir de l’appareil d’acquisition de la société M2M-NDT). Enfin, l’architecture développée au cours de ce travail de thèse permet la reconstruction d’images d’une résolution de 128x128 pixels, à plus de 10 images/sec. Ceci est suffisant pour le diagnostic de pièces mécaniques en temps réel. L’augmentation du nombre d’éléments capteurs ultrasonores (128 éléments) permet des configurations topologiques plus évoluées (sous forme d’une matrice 2D), ouvrant ainsi des perspectives vers la reconstruction 3D (d’un volume d’une pièce). Ce travail s’est soldé par une mise en œuvre validée sur l’instrument de mesure développé par la société M2M-NDT. / Non-destructive Evaluation (NDE) regroups a set of methods used to detect and characterize potential defects in mechanical parts. Current techniques uses ultrasonic phased array sensors associated with instrumentation channels and multi-sensor data acquisition in parallel. Given the amount of data to be processed, the analysis of the latter is usually done offline. Ongoing work at the French “Commissariat à l’Energie Atomique” (CEA), consist to develop and evaluate different methods of advanced imaging based on synthetic focusing. The Algorithms induced require extensive iterative operations on a large volume of data from phased array acquisition. This involves important time for calculations and implies offline processing. However, the industrial constraint requires performing image reconstruction in real time. This involves the implementation in the measuring device, the entire computing architecture on acquired sensor data. The thesis has been to study a synthetic focusing algorithm for a real-time implementation in a measuring instrument used to perform ultrasonic data acquisition. We especially studied an image reconstruction algorithm called Total Focusing Method (TFM). This work was conducted as part of collaboration with the French Institute of Fundamental Electronics Institute team of the University of Paris Sud. To do this, our approach is inspired by research theme called Algorithm Architecture Adequation (A3). Our methodology is based on an experimental approach in the first instance by a decomposition of the studied algorithm as a set of functional blocks. This allowed us to perform the extraction of the relevant blocks to parallelize computations that have a major impact on the processing time. We focused our development strategy to design a stream of data. This type of modeling can facilitate the flow of data and reduce the flow of control within the hardware architecture. This is based on a multi- FPGA platform. The design and evaluation of such architectures cannot be done without the introduction of software tools to aid in the validation throughout the process from design to implementation. These tools are an integral part of our methodology. Architectural models bricks calculations were validated functional and experimental level, thanks to the tool chain developed. This includes a simulation environment allows us to validate partial calculation blocks and the control associated. Finally, it required the design of tools for automatic generation of test vectors, from data summaries (from CIVA simulation tool developed by CEA) and experimental data (from the device to acquisition of M2M –NDT society). Finally, the architecture developed in this work allows the reconstruction of images with a resolution of 128x128 pixels at more than 10 frames / sec. This is sufficient for the diagnosis of mechanical parts in real time. The increase of ultrasonic sensor elements (128 elements) allows more advanced topological configurations (as a 2D matrix) and providing opportunities to 3D reconstruction (volume of a room). This work has resulted in implementation of validated measurement instrument developed by M2M -NDT.
356

Development of new algorithm for improving accuracy of pole detection to the supporting system of mobility aid for visually impaired person / Développement d'un nouvel algorithme pour améliorer l'exactitude de la détection de poteau pour assister la mobilité des personnes malvoyantes

Yusro, Muhammad 18 October 2017 (has links)
Ces travaux de recherche visaient à développer un système d'aide à la mobilité pour les personnes ayant une déficience visuelle (VIP ‘Visually Impaired Person’) appelé ‘Smart Environment Explorer Stick (SEES)’. Le but particulier de cette recherche était de développer de nouveaux algorithmes pour améliorer la précision de la détection de la présence de poteaux de la canne SEE-stick en utilisant la méthode de calcul de distance et la recherche de paires de lignes verticales basées sur l'optimisation de la technique de détection de contour de Canny. Désormais, l'algorithme de détection des poteaux est appelé l’algorithme YuRHoS. Le SEES développé comme système de support d'aide à la mobilité VIP a été intégré avec succès à plusieurs dispositifs tels que le serveur distant dénommé iSEE, le serveur local embarqué dénommé SEE-phone et la canne intelligente dénommée SEE-stick. Les performances de SEE-stick ont été améliorées grâce à l'algorithme YuRHoS qui permet de discriminer avec précision les objets (obstacles) en forme de poteau parmi les objets détectés. La comparaison des résultats de détection des poteaux avec ceux des autres algorithmes a conclu que l'algorithme YuRHoS était plus efficace et précis. Le lieu et la couleur des poteaux de test d’évaluation étaient deux des facteurs les plus importants qui influaient sur la capacité du SEE-stick à détecter leur présence. Le niveau de précision de SEE-stick est optimal lorsque le test d’évaluation est effectué à l'extérieur et que les poteaux sont de couleur argentée. Les statistiques montrent que la performance de l'algorithme YuRHoS à l'intérieur était 0,085 fois moins bonne qu'à l'extérieur. De plus, la détection de la présence de poteaux de couleur argentée est 11 fois meilleure que celle de poteaux de couleur noir. / This research aimed to develop a technology system of mobility aid for Visually Impaired Person (VIP) called Smart Environment Explorer Stick (SEES).Particular purpose of this research was developing new algorithm in improving accuracy of SEE-stick for pole detection using distance calculation method and vertical line pair search based on Canny edge detection optimization and Hough transform. Henceforth, the pole detection algorithm was named as YuRHoS algorithm.The developed SEES as supporting system of VIP mobility aid had been successfully integrated several devices such as global remote server (iSEE), embedded local server (SEE-phone) and smart stick (SEE-stick). Performance of SEE-stick could be improved through YuRHoS algorithm, which was able to fix the accuracy of SEE-stick in detecting pole. Test comparison of pole detection results among others algorithm concluded that YuRHoS algorithm had better accuracy in pole detection.Two most significant factors affecting SEE-stick ability in detecting pole was test location and pole color. Level of accuracy of SEE-stick would be optimum once the test location was performed outdoor and pole color was silver. Statistics result shown that YuRHoS algorithm performance indoor was 0.085 times worse than outdoor. Meanwhile, silver-pole-color as object detection could increase YuRHoS algorithm performance as much as 11 times better compare to black-pole-color.
357

Généralisation du diagramme de Voronoï et placement de formes géométriques complexes dans un nuage de points. / Generalizing the Voronoi diagram and placing complex geometric shapes among a point-set.

Iwaszko, Thomas 22 November 2012 (has links)
La géométrie algorithmique est une discipline en pleine expansion dont l'objet est la conception d'algorithmes résolvant des problèmes géométriques. De tels algorithmes sont très utiles notamment dans l'ingénierie, l'industrie et le multimédia. Pour être performant, il est fréquent qu'un algorithme géométrique utilise des structures de données spécialisées.Nous nous sommes intéressés à une telle structure : le diagramme de Voronoï et avons proposé une généralisation de celui-ci. Ladite généralisation résulte d'une extension du prédicat du disque vide (prédicat propre à toute région de Voronoï) à une union de disques. Nous avons analysé les régions basées sur le prédicat étendu et avons proposé des méthodes pour les calculer par ordinateur.Par ailleurs, nous nous sommes intéressés aux « problèmes de placement de formes », thème récurrent en géométrie algorithmique. Nous avons introduit un formalisme universel pour de tels problèmes et avons, pour la première fois, proposé une méthode de résolution générique, en ce sens qu'elle est apte à résoudre divers problèmes de placement suivant un même algorithme.Nos travaux présentent, d'une part, l'avantage d'élargir le champ d'application de structures de données basées sur Voronoï. D'autre part, ils facilitent de manière générale l'utilisation de la géométrie algorithmique, en unifiant définitions et algorithmes associés aux problèmes de placement de formes. / Computational geometry is an active branch of computer science whose goal is the design of efficient algorithms solving geometric problems. Such algorithms are useful in domains like engineering, industry and multimedia. In order to be efficient, algorithms often use special data structures.In this thesis we focused on such a structure: the Voronoi diagram. We proposed a new generalized diagram. We have proceeded by extending the empty disk predicate (satisfied by every Voronoi region) to an arbitrary union of disks. We have analyzed the new plane regions based on the extended predicate, and we designed algorithms for computing them.Then, we have considered another topic, which is related to the first one: shape placement problems. Such problems have been studied repeatedly by researchers in computational geometry. We introduced new notations along with a global framework for such problems. We proposed, for the first time a generic method, which is able to solve various placement problems using a single algorithm.Thus, our work extend the scope of Voronoi based data structures. It also simplifies the practical usage of placement techniques by unifying the associated definitions and algorithms.
358

A development of secure and optimized AODV routing protocol using ant algorithm / Developpement d'un protocole de routage AODV sécurisé et optimisé utilisant les algorithmes de colonies de fourmis

Simaremare, Harris 29 November 2013 (has links)
Les réseaux sans fil sont devenus une technologie importante dans le secteur des télécommunications. L'une des principales technologies des réseaux sans fil sont les réseaux mobiles ad hoc (MANET). MANET est un système d'auto-configuration (autonome) des routeurs mobiles où les routeurs sont libres de se déplacer de façon aléatoire et de s'organiser arbitrairement. La topologie des réseaux sans fil peut alors changer rapidement et de manière imprévisible avec une grande mobilité et sans aucune infrastructure fixe et sans administration centrale. Les protocoles de routage MANET sont Ad Hoc on Demand Distance Vector (AODV), Optimized Link State Routing (OLSR), Topology Dissemination Based on Reverse-Path Forwarding (TBRPF) et Dynamic Source Routing (DSR).En raison des caractéristiques des réseaux mobiles ad hoc, les principaux problèmes concernent la sécurité, les performances du réseau et de la qualité de service. En termes de performances, AODV offre de meilleures performances que les autres protocoles de routage MANET. Cette thèse porte donc sur le développement d'un protocole sécurisé et sur l'acheminement optimisé basé sur le protocole de routage AODV. Dans la première partie, nous combinons la fonction de gateway de AODV + et la méthode reverse de R-AODV pour obtenir le protocole optimisé en réseau hybride. Le protocole proposé appelé AODV-UI. Mécanisme de demande inverse dans R-AODV est utilisé pour optimiser le rendement du protocole de routage AODV et le module de passerelle de AODV + est ajouté à communiquer avec le noeud d'infrastructure. Nous effectuons la simulation en utilisant NS-2 pour évaluer la performance de AODV-UI. Paramètres d'évaluation de la performance sont le taux de livraison de paquets de bout en bout retard et les frais généraux de routage. Les résultats des simulations montrent que AODV-UI surperformé AODV + en terme de performance.La consommation d'énergie et les performances sont évaluées dans les scénarios de simulation avec un nombre différent de noeuds source, la vitesse maximale différente, et également des modèles de mobilité différents. Nous comparons ces scénarios sous Random Waypoint (RWP) et Reference Point Group Mobility (RPGM) modèles. Le résultat de la simulation montre que sous le modèle de mobilité RWP, AODV-UI consommer petite énergie lorsque la vitesse et le nombre de nœuds accéder à la passerelle sont augmentés. La comparaison des performances lors de l'utilisation des modèles de mobilité différents montre que AODV-UI a une meilleure performance lors de l'utilisation modèle de mobilité RWP. Globalement, le AODV-UI est plus appropriée pour l'utilisation de modèle de mobilité RWP.Dans la deuxième partie, nous proposons un nouveau protocole AODV sécurisé appelé Trust AODV en utilisant le mécanisme de la confiance. Les paquets de communication sont envoyés uniquement aux nœuds voisins de confiance. Calcul de confiance est basée sur les comportements et les activités d'information de chaque nœud. Il est divisé en Trust Global (TG) et Trust Local (TL). TG est un calcul de confiance basée sur le total de paquets de routage reçues et le total de l'envoi de paquets de routage. TL est une comparaison entre les paquets reçus au total et nombre total de paquets transmis par nœud voisin de nœuds spécifiques. Noeuds concluent le niveau de confiance totale de ses voisins en accumulant les valeurs TL et TG. Quand un noeud est soupçonné d'être un attaquant, le mécanisme de sécurité sera l'isoler du réseau avant que la communication est établie. [...] / Currently wireless networks have grown significantly in the field of telecommunication networks. Wireless networks have the main characteristic of providing access of information without considering the geographical and the topological attributes of a user. One of the most popular wireless network technologies is mobile ad hoc networks (MANET). A MANET is a decentralized, self-organizing and infrastructure-less network. Every node acts as a router for establishing the communication between nodes over wireless links. Since there is no administrative node to control the network, every node participating in the network is responsible for the reliable operation of the whole network. Nodes forward the communication packets between each other to find or establish the communication route. As in all networks, MANET is managed and become functional with the use of routing protocols. Some of MANET routing protocol are Ad Hoc on Demand Distance Vector (AODV), Optimized Link State Routing (OLSR), Topology Dissemination Based on Reverse-Path Forwarding (TBRPF), and Dynamic Source Routing (DSR).Due to the unique characteristics of mobile ad hoc networks, the major issues to design the routing protocol are a security aspect and network performance. In term of performance, AODV has better performance than other MANET routing protocols. In term of security, secure routing protocol is divided in two categories based on the security method, i.e. cryptographic mechanism and trust based mechanism. We choose trust mechanism to secure the protocol because it has a better performance rather than cryptography method.In the first part, we combine the gateway feature of AODV+ and reverse method from R-AODV to get the optimized protocol in hybrid network. The proposed protocol called AODV-UI. Reverse request mechanism in R-AODV is employed to optimize the performance of AODV routing protocol and gateway module from AODV+ is added to communicate with infrastructure node. We perform the simulation using NS-2 to evaluate the performance of AODV-UI. Performance evaluation parameters are packet delivery rate, end to end delay and routing overhead. Simulation results show that AODV-UI outperformed AODV+ in term of performance. The energy consumption and performance are evaluated in simulation scenarios with different number of source nodes, different maximum speed, and also different mobility models. We compare these scenarios under Random Waypoint (RWP) and Reference Point Group Mobility (RPGM) models. The simulation result shows that under RWP mobility model, AODV-UI consume small energy when the speed and number of nodes access the gateway are increased. The performance comparison when using different mobility models shows that AODV-UI has a better performance when using RWP mobility model. Overall the AODV-UI is more suitable when using RWP mobility model.In the second part, we propose a new secure AODV protocol called Trust AODV using trust mechanism. Communication packets are only sent to the trusted neighbor nodes. Trust calculation is based on the behaviors and activities information’s of each node. It is divided in to Trust Global and Trust Local. Trust global (TG) is a trust calculation based on the total of received routing packets and the total of sending routing packets. Trust local (TL) is a comparison between total received packets and total forwarded packets by neighbor node from specific nodes. Nodes conclude the total trust level of its neighbors by accumulating the TL and TG values. When a node is suspected as an attacker, the security mechanism will isolate it from the network before communication is established. [...]
359

Méthodologie d'optimisation du contrôle/commande des usines de traitement des eaux résiduaires urbaines basée sur la modélisation et les algorithmes génétiques multi-objectifs

Beraud, Benoit 19 March 2009 (has links) (PDF)
Le travail présenté dans cet ouvrage concerne le développement d'une méthodologie d'optimisation des lois de contrôle/commande des stations d'épuration des eaux usées urbaines. Ce travail est basé sur l'utilisation des modèles des procédés de traitement afin de réaliser la simulation de leur fonctionnement. Ces simulations sont utilisées par un algorithme d'optimisation multi-objectifs, NSGA-II. Cet algorithme d'optimisation permet la recherche des solutions optimales en fonction des différents objectifs considérés (qualité de l'effluent, consommation énergétique, etc.). Il permet également la visualisation claire des compromis entre diverses lois de contrôle ainsi que la détermination de leurs domaines d'application respectifs. Dans une première partie de cet ouvrage, la méthodologie est développée autour de quatre axes principaux : la conception d'une méthode de simulation fiable et robuste, le choix des jeux de données d'entrée à utiliser en simulation, le choix des objectifs et contraintes à considérer et enfin l'évaluation des performances et de la robustesse à long terme des lois de contrôles. L'application de cette méthodologie sur le cas d'école du BSM1 est réalisée dans cette première partie. Dans une seconde partie, la méthodologie développée est appliquée sur le cas réel de l'usine de dépollution de Cambrai. Cette application a nécessité le développement de nouveaux aspects que sont la génération de données d'entrée dynamiques à partir des données d'auto-surveillance de la station d'épuration et la simulation des lois de contrôles basées sur une mesure du potentiel redox. Cette application a permis de visualiser les compromis entre la loi de contrôle actuellement utilisée sur site et une nouvelle loi envisagée. Il a ainsi été possible d'évaluer le gain de performances à attendre de ce changement.
360

Couplages algorithmes génétiques et TLM pour la conception des antennes imprimées miniatures

Chu, H.S. 02 June 2004 (has links) (PDF)
Cette étude contribue à la recherche de formes originales et non intuitives d'antennes miniatures. Il s'agit du développement et de l'application d'un code de calcul associant la simulation électromagnétique TLM (Transmission Line Matrix) à un Algorithme Génétique (AG). La partie théorique présente d'une part la méthode TLM et d'autre part les algorithmes génétiques. La méthode TLM, sur calculateur parallèle, permet d'analyser en 3 dimensions des antennes miniatures de formes arbitraires. Ses évolutions successives sont présentées avec l'objectif d'un couplage avec les algorithmes génétiques. Ceux-ci s'inspirent d'une technique d'optimisation stochastique basée sur la sélection naturelle et l'evolution des espèces. Une présentation définissant les grandeurs fondamentales à nos développements est effectuée. Dans la partie suivante, le couplage AG/TLM est décrit. La conception d'antennes, de formes intuitives ou non, est proposée pour deux types d'antennes bien connues, large bande et bi-bande. Il est ensuite propose un micro-algorithme génétique et son couplage avec la TLM (mAG/TLM) permettant d'atteindre une convergence plus rapide vers la solution optimale et d'éviter des convergences prématurées. Le code mAG/TLM a été appliqué à la recherche d'antennes imprimées, pour les normes WLAN2450 et HIPERLAN5250. Plusieurs antennes obtenues, chaque configuration dépend des conditions imposées sur les conditions initiales et sur la définition de la fonction ''objectif'', portant sur l'adaptation. Une étude expérimentale et de comparaisons systématique avec des logiciels commerciaux a été également développée. Enfin, dans la dernière partie, on s'est attache a l'optimisation d'antennes de type PIFA permettant de couvrir plusieurs standards, GSM, DCS, PCS, UMTS ou WLAN. Des résultats originaux sont proposes. En dernier lieu, des antennes filsplaques mono-polaires répondant aux standards WLAN/HIPERLAN2 et UMTS/HIPARLAN2 ont été obtenus.

Page generated in 0.0336 seconds