• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 66
  • 43
  • Tagged with
  • 109
  • 109
  • 81
  • 45
  • 40
  • 40
  • 40
  • 38
  • 34
  • 22
  • 18
  • 17
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Incremental social learning in swarm intelligence systems

Montes De Oca Roldan, Marco 01 July 2011 (has links)
A swarm intelligence system is a type of multiagent system with the following distinctive characteristics: (i) it is composed of a large number of agents, (ii) the agents that comprise the system are simple with respect to the complexity of the task the system is required to perform, (iii) its control relies on principles of decentralization and self-organization, and (iv) its constituent agents interact locally with one another and with their environment. <p><p>Interactions among agents, either direct or indirect through the environment in which they act, are fundamental for swarm intelligence to exist; however, there is a class of interactions, referred to as "interference", that actually blocks or hinders the agents' goal-seeking behavior. For example, competition for space may reduce the mobility of robots in a swarm robotics system, or misleading information may spread through the system in a particle swarm optimization algorithm. One of the most visible effects of interference in a swarm intelligence system is the reduction of its efficiency. In other words, interference increases the time required by the system to reach a desired state. Thus, interference is a fundamental problem which negatively affects the viability of the swarm intelligence approach for solving important, practical problems.<p><p>We propose a framework called "incremental social learning" (ISL) as a solution to the aforementioned problem. It consists of two elements: (i) a growing population of agents, and (ii) a social learning mechanism. Initially, a system under the control of ISL consists of a small population of agents. These agents interact with one another and with their environment for some time before new agents are added to the system according to a predefined schedule. When a new agent is about to be added, it learns socially from a subset of the agents that have been part of the system for some time, and that, as a consequence, may have gathered useful information. The implementation of the social learning mechanism is application-dependent, but the goal is to transfer knowledge from a set of experienced agents that are already in the environment to the newly added agent. The process continues until one of the following criteria is met: (i) the maximum number of agents is reached, (ii) the assigned task is finished, or (iii) the system performs as desired. Starting with a small number of agents reduces interference because it reduces the number of interactions within the system, and thus, fast progress toward the desired state may be achieved. By learning socially, newly added agents acquire knowledge about their environment without incurring the costs of acquiring that knowledge individually. As a result, ISL can make a swarm intelligence system reach a desired state more rapidly. <p><p>We have successfully applied ISL to two very different swarm intelligence systems. We applied ISL to particle swarm optimization algorithms. The results of this study demonstrate that ISL substantially improves the performance of these kinds of algorithms. In fact, two of the resulting algorithms are competitive with state-of-the-art algorithms in the field. The second system to which we applied ISL exploits a collective decision-making mechanism based on an opinion formation model. This mechanism is also one of the original contributions presented in this dissertation. A swarm robotics system under the control of the proposed mechanism allows robots to choose from a set of two actions the action that is fastest to execute. In this case, when only a small proportion of the swarm is able to concurrently execute the alternative actions, ISL substantially improves the system's performance. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
52

Ordonnancement efficace de systèmes embarqués temps réel strict sur plates-formes hétérogènes

Poczekajlo, Xavier 30 October 2020 (has links) (PDF)
Les systèmes embarqués sont de plus en plus présents dans notre quotidien, à l’instar des téléphones ou des équipements des voitures modernes. Les systèmes embarqués modernes utilisent des plates-formes de plus en plus complexes. Après avoir longtemps utilisé un seul processeur, les plates-formes modernes peuvent désormais contenir plusieurs processeurs. Depuis quelques années, afin de continuer à améliorer la performance de ces systèmes à moindre coût, certaines de ces plates-formes embarquent désormais plusieurs processeurs différents, parfois même capables de modifier rapidement leurs caractéristiques pendant l’exécution du système. C’est ce qu’on appelle des plates-formes hétérogènes.Cette thèse traite de l’ordonnancement d’applications temps réel strict pour des plates-formes hétérogènes reconfigurables. Établir une polituqe d’ordonnancement consiste à garantir l’exécution d’ensembles de tâches récurrentes, avec le respect des contraintes temporelles de chaque tâche. Dans un contexte de temps réel strict, une tâche doit nécessairement être pleinement exécutée avant son échéance. Tout retard pourrait compromettre la sécurité du système ou des utilisateurs.Produire un ordonnancement temps réel strict efficace pour de telles plates-formes hétérogènes est particulièrement difficile. En effet, la vitesse d’exécution d’un processeur d’une telle plates-forme dépend à la fois du type du processeur et de la tâche exécutée. Cela rend les tâches difficilement interchangeables et augmente ainsi considérablement la complexité des polituqes d’ordonnancement. De plus, le coût d’une migration – le déplacement d’une tâche en cours d’exécution – d’un processeur à un autre est élevé, ce qui peut rendre les polituqes d’ordonnancement peu efficaces en pratique.Dans cette thèse, deux voies sont explorées pour tirer parti des possibilités offertes par ces plates-formes hétérogènes. Tout d’abord, en proposant un ordonnanceur dit global, qui permet une utilisation théorique de l’entièreté de la plates-forme. Pour atteindre cet objectif, nous isolons différents sous-problèmes, en suivant un schéma établi par la littérature existante. Pour chaque sous-problème, nous proposons une amélioration significative par rapport à l’état de l’art. L’ensemble constitue un nouvel ordonnanceur. Une évaluation empirique montre que ses performances sont bien supérieures à celles des ordonnanceurs existants. De plus, la polituqe d’ordonnancement proposée a une meilleure applicabilité, car elle réduit le nombre de migrations d’un processeur à un autre.Une deuxième voie explorée est le paradigme d’application dite multimode. Nous proposons ici le premier modèle où le matériel comme le logiciel peuvent être modifiés pendant l’exécution de l’application, afin de s’adapter au contexte dans lequel elle se trouve. Enfin, deux nouveaux protocoles utilisant ce modèle sont proposés et évalués. Il est montré théoriquement et empiriquement que ces protocoles présentent une faible complexité et de bonnes performances, et correspondent donc au besoin d’applications réelles. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
53

Enabling research on complex tasks in swarm robotics: novel conceptual and practical tools

Brutschy, Arne 17 December 2014 (has links)
Research in swarm robotics focuses mostly on how robots interact and cooperate to perform tasks, rather than on the details of task execution. As a consequence, researchers often consider abstract tasks in their experimental work. For example, foraging is often studied without physically handling objects: the retrieval of an object from a source to a destination is abstracted into a trip between the two locations---no object is physically transported. Despite being commonly used, so far task abstraction has only been implemented in an ad hoc fashion.<p><p>In this dissertation, I propose a collection of tools for flexible and reproducible task abstraction. At the core of this collection is a physical device that serves as an abstraction of a single-robot task to be performed by an e-puck robot. I call this device the TAM, an acronym for "task abstraction module". A complex multi-robot task can be abstracted using a group of TAMs by first modeling the task as the set of its constituent single-robot subtasks and then representing each subtask with a TAM. I propose a novel approach to modeling complex tasks and a framework for controlling a group of TAMs such that the behavior of the group implements the model of the complex task.<p><p>The combination of the TAM, the modeling approach, and the control framework forms a collection of tools for conducting research in swarm robotics. These tools enable research on cooperative behaviors and complex tasks with simple, cost-effective robots such as the e-puck - research that would be difficult and costly to conduct using specialized robots or ad hoc solutions to task abstraction. I present proof-of-concept experiments and several studies that use the TAM for task abstraction in order to illustrate the variety of tasks that can be studied with the proposed tools.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
54

On the evolution of self-organising behaviours in a swarm of autonomous robots

Trianni, Vito 26 June 2006 (has links)
The goal of the research activities presented in this thesis is the design of intelligent behaviours for a complex robotic system, which is composed of a swarm of autonomous units. Inspired by the organisational skills of social insects, we are particularly interested in the study of collective behaviours based on self-organisation.<p><p>The problem of designing self-organising behaviours for a swarm of robots is tackled resorting to artificial evolution, which proceeds in a bottom-up direction by first defining the controllers at the individual level and then testing their effect at the collective level. In this way, it is possible to bypass the difficulties encountered in the decomposition of the global behaviour into individual ones, and the further encoding of the individual behaviours into the controllers' rules. In the experiments presented in this thesis, we show that this approach is viable, as it produces efficient individual controllers and robust self-organising behaviours. To the best of our knowledge, our experiments are the only example of evolved self-organising behaviours that are successfully tested on a physical robotic platform.<p><p>Besides the engineering value, the evolution of self-organising behaviours for a swarm of robots also provides a mean for the understanding of those biological processes that were a fundamental source of inspiration in the first place. In this perspective, the experiments presented in this thesis can be considered an interesting instance of a synthetic approach to the study of collective intelligence and, more in general, of Cognitive Science.<p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
55

Multi-Objective Optimization and Multi-Criteria Decision Aid Applied to the Design of 3D-Stacked Integrated Circuits

Doan, Nguyen Anh Vu 28 January 2015 (has links) (PDF)
Ces dernières décennies, l'industrie en microélectronique s'est astreinte à suivre la loi de Moore pour améliorer la performance des circuits intégrés (Integrated Circuit, IC). Cependant, il sera sans doute impossible de suivre cette loi dans le futur à cause de limitations physiques apparaissant avec la miniaturisation des transistors en-dessous d'un certain seuil si aucune innovatio n'a lieu. Afin de surmonter ce problème, de nouvelles technologies ont émergées, et parmi elles les circuits 3D (3D-Stacked Integrated Circuit, 3D-SIC) ont été proposés pour maintenir l'évolution de la loi de Moore. Les 3D-SIC peuvent apporter de nombreux avantages dans le design des futurs IC mais au coût d'une complexité de design accrue étant donné leur nature fortement combinatoire, et l'optimisation de plusieurs critères conflictuels. Dans cette thèse, nous présentons une première étude des outils qui pourraient aider dans le design de 3D-SIC, en utilisant l'optimisation multi-objectifs (multiobjective optimization, MOO) et l'aide multicritère à la décision (multi-criteria decision aid, MCDA). Notre étude vise l'une des problématiques principales dans le design de 3D-SIC: le partitionnement avec estimation du floorplanning en tenant compte de plusieurs objectifs. Cette thèse montre que l'utilisation d'un paradigme multicritère peut fournir une analyse pertinente et objective du problème. Cela peut permettre une exploration rapide de l'espace de design et une amélioration des flots de conception actuels étant donné qu'il est possible de fournir des informations qualitatives et quantitatives par rapport à l'espace de design qui ne seraient pas disponibles avec les outils actuels. De même, de par sa flexibilité, la MOO peut tenir compte des multiples degrés de liberté des 3D-SIC, ce qui permet plus de possibilités de design qui ne sont généralement pas prises en compte avec les outils actuels. De plus, les algorithmes développés peuvent montrer des propriétés de robustesse même si le problème est complexe. Enfin, appliquer l'aide multicritère à la décision pourrait permettre aux designers de faire des choix pertinents selon un processus transparent. / In the past decades, the microelectronic industry has been following the Moore's law to improve the performance of integrated circuits (IC). However, it will probably be impossible to follow this law in the future due to physical limitations appearing with the miniaturization of the transistors below a certain threshold without innovation. In order to overcome this problem, new technologies have emerged, and among them the 3D-Stacked Integrated Circuits (3D-SIC) have been proposed to keep the Moore's momentum alive. 3D-SICs can bring numerous advantages in the design of future ICs but at the cost of additional design complexity due to their highly combinatorial nature, and the optimization of several conflicting criteria. In this thesis, we present a first study of tools that can help the design of 3D-SICs, using mutiobjective optimization (MOO) and multi-criteria decision aid (MCDA). Our study has targeted one of the main issues in the design of 3D-SICs: the partitioning with floorplanning estimation under multiple objectives. This thesis shows that the use of a multi-criteria paradigm can provide relevant and objective analysis of the problem. This can allow a quick design space exploration and an improvement of the current design flows as it is possible to provide qualitative and quantitative information about a design space, that would not be available with current tools. Also, with its flexibility, MOO can cope with the multiple degrees of freedom of 3D-SICs, which enables more design possibilities that are usually not taken into account with current tools. In addition, the developed algorithms can show robustness properties even if the problem is complex. Finally, applying multi-criteria decision aid would allow designers to make relevant choices in a transparent process. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
56

An algorithmic look at phase-controlled branching processes / Un regard algorithmique aux processus de branchement contrôlés par des phases

Hautphenne, Sophie 15 October 2009 (has links)
Branching processes are stochastic processes describing the evolution of populations of individuals which reproduce and die independently of each other according to specific probability laws. We consider a particular class of branching processes, called Markovian binary trees, where the lifetime and birth epochs of individuals are controlled by a Markovian arrival process. <p><p>Our objective is to develop numerical methods to answer several questions about Markovian binary trees. The issue of the extinction probability is the main question addressed in the thesis. We first assume independence between individuals. In this case, the extinction probability is the minimal nonnegative solution of a matrix fixed point equation which can generally not be solved analytically. In order to solve this equation, we develop a linear algorithm based on functional iterations, and a quadratic algorithm, based on Newton's method, and we give their probabilistic interpretation in terms of the tree. <p><p>Next, we look at some transient features for a Markovian binary tree: the distribution of the population size at any given time, of the time until extinction and of the total progeny. These distributions are obtained using the Kolmogorov and the renewal approaches. <p><p>We illustrate the results mentioned above through an example where the Markovian binary tree serves as a model for female families in different countries, for which we use real data provided by the World Health Organization website. <p><p>Finally, we analyze the case where Markovian binary trees evolve under the external influence of a random environment or a catastrophe process. In this case, individuals do not behave independently of each other anymore, and the extinction probability may no longer be expressed as the solution of a fixed point equation, which makes the analysis more complicated. We approach the extinction probability, through the study of the population size distribution, by purely numerical methods of resolution of partial differential equations, and also by probabilistic methods imposing constraints on the external process or on the maximal population size.<p><p>/<p><p>Les processus de branchements sont des processus stochastiques décrivant l'évolution de populations d'individus qui se reproduisent et meurent indépendamment les uns des autres, suivant des lois de probabilités spécifiques. <p><p>Nous considérons une classe particulière de processus de branchement, appelés arbres binaires Markoviens, dans lesquels la vie d'un individu et ses instants de reproduction sont contrôlés par un MAP. Notre objectif est de développer des méthodes numériques pour répondre à plusieurs questions à propos des arbres binaires Markoviens.<p><p>La question de la probabilité d'extinction d'un arbre binaire Markovien est la principale abordée dans la thèse. Nous faisons tout d'abord l'hypothèse d'indépendance entre individus. Dans ce cas, la probabilité d'extinction s'exprime comme la solution minimale non négative d'une équation de point fixe matricielle, qui ne peut être résolue analytiquement. Afin de résoudre cette équation, nous développons un algorithme linéaire, basé sur l'itération fonctionnelle, ainsi que des algorithmes quadratiques, basés sur la méthode de Newton, et nous donnons leur interprétation probabiliste en termes de l'arbre que l'on étudie.<p><p>Nous nous intéressons ensuite à certaines caractéristiques transitoires d'un arbre binaire Markovien: la distribution de la taille de la population à un instant donné, celle du temps jusqu'à l'extinction du processus et celle de la descendance totale. Ces distributions sont obtenues en utilisant l'approche de Kolmogorov ainsi que l'approche de renouvellement.<p><p>Nous illustrons les résultats mentionnés plus haut au travers d'un exemple où l'arbre binaire Markovien sert de modèle pour des populations féminines dans différents pays, et pour lesquelles nous utilisons des données réelles fournies par la World Health Organization.<p><p>Enfin, nous analysons le cas où les arbres binaires Markoviens évoluent sous une influence extérieure aléatoire, comme un environnement Markovien aléatoire ou un processus de catastrophes. Dans ce cas, les individus ne se comportent plus indépendamment les uns des autres, et la probabilité d'extinction ne peut plus s'exprimer comme la solution d'une équation de point fixe, ce qui rend l'analyse plus compliquée. Nous approchons la probabilité d'extinction au travers de l'étude de la distribution de la taille de la population, à la fois par des méthodes purement numériques de résolution d'équations aux dérivées partielles, ainsi que par des méthodes probabilistes en imposant des contraintes sur le processus extérieur ou sur la taille maximale de la population. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
57

Optimisation of Performance Metrics of Embedded Hard Real-Time Systems using Software/Hardware Parallelism

Paolillo, Antonio 17 October 2018 (has links)
Optimisation of Performance Metrics of Embedded Hard Real-Time Systems using Software/Hardware Parallelism. Nowadays, embedded systems are part of our daily lives.Some of these systems are called safetycritical and have strong requirements in terms of safety and reliability.Additionally, these systems must have a long autonomy, good performance and minimal costs.Finally, these systems must exhibit predictable behaviour and provide their results within firm deadlines.When these different constraints are combined in the requirement specifications of a modern product, classic design techniques making use of single core platforms are not sufficient.Academic research in the field of real-time embedded systems has produced numerous techniques to exploit the capabilities of modern hardware platforms.These techniques are often based on using parallelism inherently present in modern hardware to improve the system performance while reducing the platform power dissipation.However, very few systems existing on the market are using these state-of-the-art techniques.Moreover, few of these techniques have been validated in the context of practical experiments.In this thesis, we realise the study of operating system level techniques allowing to exploit hardware parallelism through the implementation of parallel software in order to boost the performance of target applications and to reduce the overall system energy consumption while satisfying strict application timing requirements.We detail the theoretical foundations of the ideas applied in the dissertation and validate these ideas through experimental work.To this aim, we use a new Real-Time Operating System kernel written in the context of the creation of a spin-off of the Université libre de Bruxelles.Our experiments are based on the execution of applications on the operating system which run on a real-world platform for embedded systems.Our results show that, compared to traditional design techniques, using parallel and power-aware scheduling techniques in order to exploit hardware and software parallelism allows to execute embedded applications with substantial savings in terms of energy consumption.We present future and ongoing research work that exploit the capabilities of recent embedded platforms.These platforms combine multi-core processors and reconfigurable hardware logic, allowing further improvements in performance and energy consumption. / Optimisation de Métriques de Performances de Systèmes Embarqués Temps Réel Durs par utilisation du Parallélisme Logiciel et Matériel. De nos jours, les systèmes embarqués font partie intégrante de notre quotidien.Certains de ces systèmes, appelés systèmes critiques, sont soumis à de fortes contraintes de fiabilité et de robustesse.De plus, des contraintes de coûts, d’autonomie et de performances s’additionnent à la fiabilité.Enfin, ces systèmes doivent très souvent respecter des délais très stricts de façon prédictible.Lorsque ces différentes contraintes sont combinées dans le cahier de charge d’un produit, les techniques classiques de conception consistant à utiliser un seul cœur d’un processeur ne suffisent plus.La recherche académique dans le domaine des systèmes embarqués temps réel a produit de nombreuses techniques pour exploiter les plate-formes modernes.Ces techniques sont souvent basées sur l’exploitation du parallélisme inhérent au matériel pour améliorer les performances du système et la puissance dissipée par la plate-forme.Cependant, peu de systèmes existant sur le marché exploitent ces techniques de la littérature et peu de ces techniques ont été validées dans le cadre d’expériences pratiques.Dans cette thèse, nous réalisons l’étude des techniques, au niveau du système d’exploitation, permettant l’exploitation du parallélisme matériel par l’implémentation de logiciels parallèles afin de maximiser les performances et réduire l’impact sur l’énergie consommée tout en satisfaisant les contraintes temporelles strictes du cahier de charge applicatif. Nous détaillons les fondements théoriques des idées qui sont appliquées dans la dissertation et nous les validons par des travaux expérimentaux.A ces fins, nous utilisons le nouveau noyau d’un système d’exploitation écrit dans le cadre de la création d’une spin-off de l’Université libre de Bruxelles.Nos expériences, basées sur l’exécution d’applications sur le système d’exploitation qui s’exécute lui-même sur une plate-forme embarquée réelle, montre que l’utilisation de techniques d’ordonnancement exploitant le parallélisme matériel et logiciel permet de larges économies d’énergie consommée lors de l’exécution d’applications embarquées.De futurs travaux en cours de réalisation sont présentés.Ceux-ci exploitent des plate-formes innovantes qui combinent processeurs multi-cœurs et matériel reconfigurable, permettant d’aller encore plus loin dans l’amélioration des performances et les gains énergétiques. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
58

Image processing in digital pathology: an opportunity to improve the characterization of IHC staining through normalization, compartmentalization and colocalization

Van Eycke, Yves-Remi 15 October 2018 (has links) (PDF)
With the increasing amount of information needed for diagnosis and therapeutic decision-making, and new trends such as “personalized medicine”, pathologists are expressing an increasing demand for automated tools that perform their most recurrent tasks in their daily practice, as well as an increase in the complexity of the analyses requested in their research activities. With current advances in histopathology, oncology, and biology, the current questions require the analysis of protein expression - evidenced using immunohistochemical (IHC) staining - within specific histological structures or tissue components, or the analysis of the co-expression of several proteins in a large number of tissue samples. In this Ph.D. thesis, we developed innovative solutions to make these analyses available for pathologists. To achieve this objective, we have used recent “machine learning” and, in particular, “deep learning” methodologies. We addressed different problems such as image normalization, to solve the important problem of inter-batch variability of IHC staining, and the automatic segmentation of histological structures, to compartmentalize protein expression quantification. Finally, we adapted image registration techniques to Tissue MicroArray (TMA) slide images to enable large-scale analyses of IHC staining colocalization. While imagenormalization will improve study reproducibility, the tools developed for automated segmentation will drastically reduce time and expert resources required for some studies as well as errors and imprecision due to the human factor. Finally, the work on image registration can provide answers to complex questions that require studying the potential interaction between several proteins on numerous histological samples. / Avec la quantité croissante d’informations nécessaires au diagnostic et à la prise de décision thérapeutique, et le développement de la “médecine personnalisée”, les pathologistes ont un besoin croissant d’outils automatisés pour exécuter leurs tâches les plus récurrentes. Ces outils se doivent également de réaliser des tâches de plus en plus complexes. En effet, avec les progrès récents en histopathologie, oncologie et biologie, les questions actuelles demandent, par exemple, l’analyse de l’expression de protéines révélées par marquages immunohistochimiques (IHC) au sein de structures ou compartiments histologiques spécifiques, ou encore l’analyse de la co-expression de plusieurs protéines dans un grand nombre d’échantillons. Dans cette thèse de doctorat, nous avons développé des solutions innovantes pour mettre ce type d’analyse à la disposition des pathologistes. Pour atteindre cet objectif, nous avons notamment fait appel à des méthodologies récentes de “machine learning” et, particulièrement, de “deep learning”. Nous avons ainsi abordé différentes questions telles que la normalisation d’images, pour résoudre l’important problème de la variabilité des marquages IHC, et la segmentation automatique de structures histologiques, pour permettre une quantification compartimentée de l’expression de protéines. Enfin, nous avons adapté des techniques dites de “recalage” aux images de lames de Tissue MicroArrays (TMA) pour permettre des analyses de colocalisation de marquages IHC à grande échelle. Alors que la normalisation des images améliore la reproductibilité des évaluations de marquages IHC, les outils développés pour la segmentation automatisée permettent de réduire significativement le temps et les ressources expertes nécessaires, ainsi que les erreurs et imprécisions dues au facteur humain. Enfin, les travaux sur le recalages d’images permettent d’apporter des éléments de réponse à des questions complexes qui nécessitent d’étudier l’interaction potentielle entre plusieurs protéines sur de nombreux échantillons histologiques. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
59

Heterogeneous Networks: from integration to mobility

Qachri, Naïm 16 September 2015 (has links)
Français:La notion de réseaux hétérogènes correspond à l’intégration de plusieurs technologies de transmission de données sans-fil dans le but d’accroitre la qualité de service des communications dans les réseaux mobiles.Historiquement, les mécanismes de sécurité des réseaux mobiles et sans-fil ont été largement focalisés sur la protection d’équipement utilisateur au niveau du dernier saut de communication et sur base d’une connectivité simple et unique. Cette connectivité, réduite à sa plus simple expression, a restraint le développement des protocoles de sécurité à des protocoles bi-parties, qui couvrent l’authentification des équipements utilisateurs et le chiffrement sur des communicationsLes mécanismes de sécurité et de cryptographie ne sont donc pas suffisants pour protéger correctement et efficacement des connections parallèles ou leur mobilité au sein de réseaux hétérogènes. Le but de cette thèse de doctorat, à travers quatre contributions personnelles, est d’apporter de nouveaux mécanismes et protocoles de sécurité afin de protéger au mieux les réseaux hétérogènes:• La première contribution se focalise sur le développement d’une nouvelle primitive cryptographique pour la protection des transmissions sans-fil. La propriété principale de celle-ci est de protéger les trames en cas de capture. Cette primitive introduit, notamment, la notion de force brute probabiliste (ce qui veut dire qu’un attaquant ne peut pas choisir parmi différentes clés équiprobables laquelle est effectivement utilisée).• La seconde contribution propose un nouveau protocole pour gérer d’une manière sure et efficace la mobilité des équipements utilisateurs entre différentes technologies au sein de réseaux hétérogènes.• La troisième contribution couvre la gestion des clés maîtres des utilisateurs, embarqués au sein des cartes SIM, utilisées au sein des réseaux d’opérateurs mobiles. Nos protocoles et mécanismes automa- tisent des changements réguliers et sûrs de la clé maître, et ajoutent de la diversité dans la gestion des clés de sessions pour minimiser l’impact en cas de révélation de ces dernières (par le biais d’un vol de base de donnée, par exemple)• La quatrième contribution introduit un nouveau paradigme de connectivité pour les réseaux mo- biles basé sur des communications 1−à−n. Le paradigme redéfinit les frontières de sécurité et place l’équipement utilisateur au centre d’un groupe authentifié mobile. Par conséquent, le changement de paradigme mène à la création de nouveaux protocoles pour l’authentification, la gestion de la mo- bilité et la négociation protégées de clés afin de fournir une protection de bout en bout entre deux équipements utilisateurs ou plus. / English:Heterogeneous Networks (HetNets) is the integration of multiple wireless technologies to increase the quality of service of the communications in mobile networks. This evolution is the next generation of Public Land Mobile Networks (PLMNs).Mobile and wireless network security mechanisms have largely focused on the protection of the User Equipment (UE) within the last mile (the last hop of the communication in the chain of connected devices) and on single connections. The single connectivity has reduced the development of the security to two party protocols, and they cover the authentication of the UE to the mobile network and the encryption on a single channel based on homogeneous communications through a unique technology.The current security and cryptographic mechanisms are not sufficient to protect correctly, and efficiently, parallel connections or their mobility in HetNets. The purpose of the PhD Thesis is to bring new security protocols and mechanisms to protect HetNets.The contributions, that are brought by the thesis, follow the evolution of HetNets through 4 contributions by starting from the wireless transmissions to the largest frame of HetNets architecture:• The first contribution focuses on the development of an new cryptographic primitives for wireless transmissions. The main property is to protect the frame from eavesdropping. The primitive introduces the notion of probabilistic brute force (meaning that an attacker cannot decide among different keys which the used one).• The second contribution proposes a new protocol to manage efficiently and securely the mobility of the UEs between different technologies inside HetNets.• The third contribution covers the management of the master secrets, embedded within the Universal Subscriber Identity Module (USIM), in large PLMNs. Our mechanisms and protocols automate regular and secure changes of the master secret, and they add diversity in the management of session keys to minimize the impact of key leakages (in case of credential database theft, for instance).• The fourth contribution introduces a new connectivity paradigm for mobile networks based on one-to- many communications. The paradigm redesigns the security borders and puts the UE in the center of a mobile authenticated group. Therefore, the paradigm shift leads to new security protocols for authentication, mobility management, and secure negotiation to provide end-to-end encryption between two or more UEs. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
60

Calcul et représentation de l'information de visibilité pour l'exploration interactive de scènes tridimensionnelles / Representation and computation of the visibility information for the interactive exploration of tridimensional scenes

Haumont, Dominique 29 May 2006 (has links)
La synthèse d'images, qui consiste à développer des algorithmes pour générer des images à l'aide d'un ordinateur, est devenue incontournable dans de nombreuses disciplines. <p><p>Les méthodes d'affichage interactives permettent à l'utilisateur d'explorer des environnements virtuels en réalisant l'affichage des images à une cadence suffisamment élevée pour donner une impression de continuité et d'immersion. Malgré les progrès réalisés par le matériel, de nouveaux besoins supplantent toujours les capacités de traitement, et des techniques d'accélération sont nécessaires pour parvenir à maintenir une cadence d'affichage suffisante. Ce travail s'inscrit précisemment dans ce cadre. Il est consacré à la problématique de l'élimination efficace des objets masqués, en vue d'accélérer l'affichage de scènes complexes. Nous nous sommes plus particulièrement intéressé aux méthodes de précalcul, qui effectuent les calculs coûteux de visibilité durant une phase de prétraitement et les réutilisent lors de la phase de navigation interactive. Les méthodes permettant un précalcul complet et exact sont encore hors de portée à l'heure actuelle, c'est pourquoi des techniques approchées leur sont préférée en pratique. Nous proposons trois méthodes de ce type.<p><p>La première, présentée dans le chapitre 4, est un algorithme permettant de déterminer de manière exacte si deux polygones convexes sont mutuellement visibles, lorsque des écrans sont placés entre eux. Nos contributions principales ont été de simplifier cette requête, tant du point de vue théorique que du point de vue de l'implémentation, ainsi que d'accélérer son temps moyen d'exécution à l'aide d'un ensemble de techniques d'optimisation. Il en résulte un algorithme considérablement plus simple à mettre en oeuvre que les algorithmes exacts existant dans la littérature. Nous montrons qu'il est également beaucoup plus efficace que ces derniers en termes de temps de calcul.<p><p><p>La seconde méthode, présentée dans le chapitre 5, est une approche originale pour encoder l'information de visibilité, qui consiste à stocker l'ombre que générerait chaque objet de la scène s'il était remplacé par une source lumineuse. Nous présentons une analyse des avantages et des inconvénients de cette nouvelle représentation. <p><p>Finalement, nous proposons dans le chapitre 6 une méthode de calcul de visibilité adaptée aux scènes d'intérieur. Dans ce type d'environnements, les graphes cellules-portails sont très répandus pour l'élimination des objets masqués, en raison de leur faible coût mémoire et de leur grande efficacité. Nous reformulons le problème de la génération de ces graphes en termes de segmentation d'images, et adaptons un algorithme classique, appelé «watershed», pour les obtenir de manière automatique. Nous montrons que la décomposition calculée de la sorte est proche de la décomposition classique, et qu'elle peut être utilisée pour l'élimination des objets masqués.<p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished

Page generated in 0.4882 seconds