• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 291
  • 116
  • 4
  • 3
  • Tagged with
  • 873
  • 873
  • 530
  • 321
  • 310
  • 284
  • 267
  • 263
  • 242
  • 217
  • 207
  • 205
  • 202
  • 200
  • 197
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Aides à l'interprétation de simulations dynamiques : application aux modèles de cinétique chimique /

Braunschweig, Bertrand, January 1900 (has links)
Th. doct.--Informatique--Paris--Université de Paris 9, 1998. / Bibliogr. p. 187-191. Résumé en anglais et en français. 1998 d'après la déclaration de dépôt légal.
182

Navigation bio-inspirée pour un robot mobile autonome dans de grands environnements intérieurs / Bioinspired navigation and planning in large indoor environments with a mobile robot

Delarboulas, Pierre 20 December 2017 (has links)
Cette thèse s’inscrit dans le domaine de la navigation robotique bio-inspirée en environnement réel et implique la capacité pour un robot mobile à se déplacer de manière autonome dans un monde a priori dynamique et inconnu. Les travaux décrits au cours de ce manuscrit s’attacheront à montrer comment, en partant des travaux académiques réalisés par l’équipe Neurocybernétique du laboratoire ETIS, il a été possible de concevoir le robot mobile Diya One capable de naviguer de manière autonome dans de grands environnements intérieurs. Depuis une vingtaine d’année, l’équipe Neurocybernétique élabore des modèles de navigation bio-inspirée. De précédents travaux ont montré qu’un modèle de cellules de lieu, enregistrées chez le rat, permet à un robot mobile d’apprendre des comportements de navigation robustes, tels qu’une ronde ou un retour au nid, à partir d’associations entre lieu et action. L’apprentissage et la reconnaissance d’un lieu ne reposent alors que sur des informations visuelles. Cependant, trois problèmes critiques ne permettent pas de naviguer dans de grands environnements : 1- l’ambiguïté de certaines situations visuelles (ou alias perceptif), 2- l’apprentissage sur le long terme et 3- la sensibilité aux conditions environnementales. L’ajout d’autres modalités constitue une solution efficace pour augmenter la robustesse de la localisation. L’équipe a développé plusieurs modèles basés sur la proprioception du robot afin desuppléer, dans les cas limites, les modèles purement visuels. La principale limitation des approches proprioceptives est qu’elles sont soumisesà l’accumulation d’erreurs. Il est donc nécessaire de recalibrer périodiquement les modèles. Fusionner des modalités allothétiques et idiothétiques semblent être une bonne stratégie pour obtenir une estimation fiable de la localisation du robot. Les champs de neurones dynamiques (DNF) ou continous attractor neural network (CANN) constituent un puissant candidat pour mettre en œuvre le type de mémoire requis pour la construction de cellules de lieu. Nous présenterons un premier modèle de fusion utilisant les champs de neurones dynamiques pour maintenir l’orientation du robot puis un second généralisant le principe du modèle de fusion pour la construction de cellules de lieux multimodales.Être capable de produire et commercialiser rapidement un produit est un enjeu majeur pour la survie de Partnering. En plus des capacités de navigation et de localisation, un robot commercialisable requiert un ensemble de comportements indispensables à la mobilité, à la sécurité (loi de contrôle, évitement des obstacles et des trous) et à son autonomie (gestion d’énergie et retour à la station de recharge). Pour aboutir à cette première solution, nous avons suivit une démarche ascendante (bottom-up) défendue par la robotique comportementale. Nous avons développé progressivement la complexité du robot au travers de comportements élémentaires intégrés dans une architecture de contrôle régissant à chaque instant l’expression de ces comportements et la sélection des actions à exécuter.Ce mémoire est découpée en deux parties. Une première partie industrielle relevant d’objectifs à court terme, consistant à mettre en place, à partir des modèles existants développés par l’équipe Neurocybernétique, l’architecture comportementale de la première version du robot Diya One. Puis, une seconde partie plus fondamentale dans laquelle nous traiterons de la réalisation demodèles de fusion multimodale. Ces modèles seront ajoutés incrémentalement au robot afin d’améliorer progressivement ses capacités de navigation. / This thesis falls into the field of navigation in bio-inspired robotics in real environment and implies the ability for a mobile robot to move autonomously in a world a priori dynamic and unknown. The work described in this manuscript will show how, starting from the academic work carried out by the Neurocybernetics team of the ETIS laboratory, it was possible to design the mobile robot Diya One able to navigate autonomously in large indoor environments. For the past 20 years, the Neurocybernetics team has been developing bio-inspired navigation models. Previous work has shown that a model of place cells, recorded in the rat, allows a mobile robot to learn robust navigation behaviors, such as a round or a homing, from associations between place and action. Learning and the recognition of a place are based only on visual information. However, three critical problems do not allow to navigate in large environments: 1- the ambiguity of certain visual situations (or perceptual alia), 2- long-term learning, and 3-sensitivity to environmental conditions. The addition of other modalities is an effective solution for increasing the robustness of the location. The team has developed several models based on the proprioception of the robot in order to compensate, in limiting cases, for purely visual models. The main limitation of proprioceptive approaches is that, based on the proprioception of the robot, they are subject to the accumulation of errors. It is therefore necessary to periodically recalibrate the models. Merging allothetic and idiothetic modalities seems to be a good strategy for obtaining a reliable estimate of the robot’s location. Dynamic neural network (DNF) or continous attractor neural network (CANN) constitute a powerful candidate to implement the type of memory required for the construction of place cells. We present a first fusion model using dynamic neuron fields to maintain the orientation of the robot and then a second one generalizing the principle of fusion model for the construction of cells of multimodal places. Being able to produce and market quickly a product is a major challenge for Partnering’s survival. In addition to navigation and location capabilities, a marketable robot requires a set of behaviors that are essential to mobility, security (control law, avoidance of obstacles and holes) and its autonomy (energy management and return to the charging station). To arrive at this first solution, we followed a bottom-up approach defended by behavioral robotics. We have progressively developed the complexity of the robot through elementary behaviors integratedin a control architecture governing at each moment the expression of these behaviors and the selection of the actions to be executed. This manuscript is divided into two parts. A first industrial part with short-term objectives, consisting of implementing the behavioral architecture of the first version of the Diya One robot, based on the existing models developed by the Neurocybernetics team. Then, a second more theoretical part in which we will deal with the realization of multimodal fusion models. These models will be added incrementally to the robot in order to gradually improve its navigationcapabilities.
183

Contribution à une modélisation ontologique des informations tout au long du cycle de vie du produit / Towards an ontology-based infomation modelling along product lifecycle

Fortineau, Virginie 18 November 2013 (has links)
Les travaux de recherche de cette thèse portent sur la modélisation sémantique des informations industrielles, dans une approche og cycle de vie fg , de gestion des informations. Dans ce type d'approche, lever le verrou lié à l'interopérabilité des modèles d'information est une condition sine qua non à un échange d'information sans perte de flux sémantique. Jusqu'alors, des méthodes d'unification étaient envisagées, reposant sur l'utilisation mutuelle de modèles standards, tels que la norme STEP par exemple. Cependant, l'unification fait face à des limites en termes d'expressivité des modèles, de rigidité, et de perte de sémantique. Afin de lever ces limites, les paradigmes de modélisation évoluent et se tournent vers les ontologies d'inférence, outils du web sémantique.Dans cette thèse, nous proposons un cadre de modélisation sémantique général et une méthodologie de mise en place de ce cadre, qui reposent sur l'utilisation d'ontologies d'inférence. L'application du cadre de modélisation à un cas d'étude industriel, issu de l'ingénierie nucléaire (plus particulièrement l'expression et l'exécution des règles métier), permet alors d'évaluer les apports et limites des ontologies en tant que paradigme de modélisation. Les limites les plus importantes que nous identifions sur l'Open World Assumption, le manque de langage de règles performant et le manque d'outils d'implémentation robustes pour des applications à large échelle. Le développement d'un démonstrateur pour le cas d'étude industriel permet finalement de tendre vers une solution mixte, où les ontologies sont utilisées localement, afin d'en exploiter les divers avantages de manière optimale. / The present research study deals with industrial information modelling in a lifecycle management approach. In this context, achieving semantic interoperability is an important issue to guaranty the quality of information storage, exchange and reuse. Current solutions are based on unification approaches and use standard models as shared information representation. However, unification approches suffer from a lack of expressivity and flexibility. To overcome this issue, ontologies are proposed as a new modelling paradigm in order to perform federativ interoperability.This research focuses on inference ontologies and investigates the use of those semantic web-based technologies for a large scale industrial application. An ontology-based framework and a modelling methodology are therefore proposed and evaluated on a industrial use case in the nuclear industry. The application raises modelling issues like the Open World Assumption, the lack of a real integrated rule approach, and the robustness of implementation tools. The industrial use case is implemented within a demonstrator, that finally allows to propose an hybrid solution, where ontologies are locally used.end{abstract}
184

Art et intelligence artificielle : dans le contexte d'une expérimentation artistique / Art and artificial intelligence : in a context of an artistic experiment

Kerinska, Nikoleta 18 November 2014 (has links)
Cette thèse a ses origines dans notre pratique artistique et se caractérise par la curiosité inlassable envers le rapport entre l'art et la technologie numérique. Son idée fondamentale est d'examiner les possibilités offertes par l'intelligence artificielle dans le contexte de l'art. L'hypothèse de cette recherche est que les œuvres d'art dotées d'intelligence artificielle présentent une problématique commune et identifiable dans le panorama général des œuvres numériques. Notre but est de comprendre comment la notion d'intelligence est mise en œuvre dans certains projets d'art, et de quelle manière les techniques d'intelligence artificielle enrichissent du point de vue conceptuel et formel les productions artistiques actuelles. Nous proposons d'abord une étude sur l'art assisté pal l'ordinateur, ses principales définitions et tendances actuelles. Puis, nous développons une définition de l'œuvre d'art dotée d'intelligence artificielle. Ensuite, nous présentons nos projets artistiques et leurs problématiques respectives.Dans le cadre de cette thèse. nous avons développé deux projets qui investissent une réflexion artistique sur le langage naturel comme interface de la communication homme-machine, aussi bien que sur les notions d'automate et d'agent intelligent considérés dans le contexte de l'art numérique. / This thesis finds its origins in the way we are making art, and it is marked by our unflagging interest in the relationship between art and digital technology. Its primary idea consists in examining the possibilities offered by artificial intelligence in the context of art. The hypothesis of this study suggests that artworks endowed with artificial intelligence present a type of problematic that is common and identifiable in the general landscape of computer works of art. Our aim is to understand how the notion of intelligence is evoked by the behavior of certain artworks, and in what way current art productions are enriched from a conceptual and formal point of view, by techniques of artificial intelligence. At first we propose a study about the computer art main definitions and current trends. Next, we develop a definition of artworks endowed with artificial intelligence. Then, we present our artistic projects and their respective problematic. As part of this dissertation we have developed two projects that engage in an artistic reflection on natural language as a interface of the communication between man and machine, as well as on the notion of automaton and intelligent agents in the context of computer art.
185

Adaptive Machine Learning for Credit Card Fraud Detection

Dal Pozzolo, Andrea 04 December 2015 (has links)
Billions of dollars of loss are caused every year by fraudulent credit card transactions. The design of efficient fraud detection algorithms is key for reducing these losses, and more and more algorithms rely on advanced machine learning techniques to assist fraud investigators. The design of fraud detection algorithms is however particularly challenging due to the non-stationary distribution of the data, the highly unbalanced classes distributions and the availability of few transactions labeled by fraud investigators. At the same time public data are scarcely available for confidentiality issues, leaving unanswered many questions about what is the best strategy. In this thesis we aim to provide some answers by focusing on crucial issues such as: i) why and how undersampling is useful in the presence of class imbalance (i.e. frauds are a small percentage of the transactions), ii) how to deal with unbalanced and evolving data streams (non-stationarity due to fraud evolution and change of spending behavior), iii) how to assess performances in a way which is relevant for detection and iv) how to use feedbacks provided by investigators on the fraud alerts generated. Finally, we design and assess a prototype of a Fraud Detection System able to meet real-world working conditions and that is able to integrate investigators’ feedback to generate accurate alerts. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
186

Inconsistency and uncertainty handling in lightweight description logics / Dynamique des croyances et gestion de l'incertitude dans des logiques de description légères DL-Lite

Bouraoui, Zied 05 June 2015 (has links)
Cette thèse étudie la dynamique des croyances et la gestion de l’incertitude dans DL-Lite, une des plus importantes familles des logiques de description légères. La première partie de la thèse porte sur la gestion de l’incertitude dans DL-Lite. En premier lieu, nous avons proposé une extension des principaux fragments de DL-Lite pour faire face à l’incertitude associée aux axiomes en utilisant le cadre de la théorie des possibilités. Cette extension est réalisée sans engendrer des coûts calculatoires supplémentaires. Nous avons étudié ensuite la révision des bases DL-Lite possibilistes en présence d’une nouvelle information. Enfin, nous avons proposé un opérateur de fusion lorsque les assertions de ABoxsont fournies par plusieurs sources d’information ayant différents niveaux de priorité. La deuxième partie de la thèse traite le problème de la gestion d’incohérence dans les bases de connaissances DL-Lite. Nous avons étudié, tout d’abord, comment raisonner à partir d’une base DL-Lite standard avec des ABox multiples en introduisant les notions de modificateurs et de stratégies d’inférence. La combinaison des modificateurs et de stratégies d’inférence fournit une liste exhaustive des principales techniques de gestion de l’incohérence. Nous avons proposé ensuite une approche, basée sur un critère de cardinalité, de sélection des réparations, et nous avons identifié les stratégies appropriées pour la gestion de l’incohérence pour les bases DL-Lite stratifiées. Enfin, nous avons effectué une analyse comparative, suivie par des étudesexpérimentales, des différentes techniques de gestion d’incohérence proposées. Finalement, un outil de représentation et de raisonnement à partir des bases DL-Lite possibiliste est réalisé. / This thesis investigates the dynamics of beliefs and uncertainty management in DL-Lite, one of the most important lightweight description logics. The first part of the thesis concerns the problem of handling uncertainty in DL-Lite. First, we propose an extension of the main fragments of DL-Lite to deal with the uncertainty associated with axioms using a possibility theory framework without additional extra computational costs. We then study the revision of possibilistic DL-Lite bases when a new piece of information is available. Lastly, we propose a min-based assertional merging operator when assertions of ABox are provided by several sources of information having different levels of priority. The second partof the thesis concerns the problem of inconsistency handling in flat and prioritized DL-Lite knowledge bases. We first propose how to reason from a flat DL-Lite knowledge base, with a multiple ABox, which can be either issued from multiple information sources or resulted from revising DL-Lite knowledge bases. This is done by introducing the notions of modifiers and inference strategies. The combination of modifiers plus inference strategies can be mapped out in order to provide a principled and exhaustive list of techniques for inconsistency management. We then give an approach based on selecting multiple repairs using a cardinality-based criterion, and we identified suitable strategies for handling inconsistencyin the prioritized case. Lastly, we perform a comparative analysis, followed by experimental studies, of the proposed inconsistency handling techniques. A tool for representing and reasoning in possibilistic DL-Lite framework is implemented.
187

Contributions aux approches logiques de l'argumentation en intelligence artificielle / Contributions to logical argumentation approaches for reasoning in artificial intelligence

Raddaoui, Badran 21 November 2013 (has links)
Cette thèse se situe dans le domaine des modèles de l’argumentation en intelligence artificielle. Ces modèles constituent des outils très populaires pour l’étude de raisonnements en présence d’incohérences dans les bases de connaissances et lors de la négociation entre agents et la prise de décision. Un modèle argumentatif est un processus interactionnel principalement basé sur la construction d’arguments et de contre-arguments, l’étude des relations entre ces différents arguments et la mise en place de critères permettant de déterminer le statut de chaque argument afin de sélectionner les arguments (les plus) acceptables.Dans ce cadre, ce travail a porté sur l’étude d’un système particulier : le système d’argumentation déductif. Un argument est alors entendu comme un couple prémisses-conclusion tel que la conclusion soit une formule qui puisse être déduite des prémisses. Nous y avons traité plusieurs questions. Tout d’abord, partant du constat que le raisonnement par l’absurde est valide en logique propositionnelle classique, nous proposons une méthode de génération d’arguments en faveur d’une proposition donnée. Cette approche s’étend au calcul des undercuts canoniques, arguments identifiés comme représentant tous les contre-arguments. Contrairement aux autres approches proposées dans la littérature, notre technique est complète au sens où elle permet de générer, modulo une possible explosion combinatoire, tous les arguments relatifs à une formule logique quelconque. Ensuite, nous avons proposé un cadre d’argumentation en logique conditionnelle. Les logiques conditionnelles sont souvent considérées comme étant tout particulièrement adaptées à la formalisation de raisonnements de nature hypothétique. Leur connecteur conditionnel est en effet souvent plus proche de l’intuition que l’on peut avoir de l’implication que ne l’est l’implication matérielle de la logique propositionnelle classique. Ceci nous permet de proposer un concept de contrariété conditionnelle qui couvre à la fois les situations de conflits logiques fondés sur l’incohérence et une forme particulière de conflit qui ne se traduit pas naturellement par un conflit basé sur l’incohérence : quand un agent affirme une règle de type Si alors, une seconde règle qui peut en être déduite et qui impose la satisfaction de prémisses supplémentaires peut apparaître conflictuelle. Nous étudions alors sur cette base les principaux éléments d’une théorie de l’argumentation dans une logique conditionnelle. Enfin, le dernier point étudié dans ce travail concerne le raisonnement au sujet de ressources consommables, dans un cadre où les formules logiques sont elles mêmes consommées dans le processus déductif. Nous proposons une logique, simple et proche du langage et des principes de la logique propositionnelle classique, permettant le raisonnement à partir de ressources consommables et de quantité bornée. Nous y revisitons également les principaux éléments d’une théorie logique de l’argumentation. / This thesis focus on the field of argumentation models in artificial intelligence. These models form very popular tools to study reasoning under inconsistency in knowledge bases, negotiation between agents, and also in decision making. An argumentative model is an interactional process mainly based on the construction of arguments and counter-arguments, then studying the relations between these arguments, and finally the introduction of some criteria to identifying the status of each argument in order to select the (most) acceptable of them.In this context, this work was dealt with the study of a particular system: the deductive argumentation framework. An argument is then understood as a pair premises-conclusion such that conclusion is a logical formula entailed by premises, a non-ordered collection of logical formulas. We have addressed several issues. First of all, on the basis that reductio ad absurdum is valid in classical propositional logic, we propose a method to compute arguments for a given statement. This approach is extended to generate canonical undercuts, arguments identified as the representative of all counter-arguments. Contrary to the other approaches proposed in the literature, our technique is complete in the sense that all arguments relative to the statement at hand are generated and so are all relevant counter-arguments. Secondly, we proposed a logic based argumentation in conditional logic. Conditional logic is often regarded as an appealing setting for the formalization of hypothetical reasoning. Their conditional connective is often regarded as a very suitable connective to encode many implicative reasoning patterns real-life and attempts to avoid some pitfalls of material implication of propositional logic. This allows us to put in light and encompass a concept of conditional contrariety thats covers both usual inconsistency-based conflict and a specific form of conflict that often occurs in real-life argumentation: i.e., when an agent asserts an If then rule, it can be argued that the satisfaction of additional conditions are required for the conclusion of a rule to hold. Then, in that case we study the main foundational concepts of an argumentation theory in conditional logic. Finally, the last point investigated in this work concerns the reasoning about bounded resources, within a framework in which logical formulas are themselves consumed in the deductive process. First, a simple variant of Boolean logic is introduced, allowing us to reason about consuming resources. Then, the main concepts of logic-based argumentation are revisited in this framework.
188

Codage hippocampique par transitions spatio-temporelles pour l’apprentissage autonome de comportements dans des tâches de navigation sensori-motrice et de planification en robotique / Hippocampal coding of spatio-temporal transitions for autonomous behavior learning in robotic tasks of sensori-motor navigation and planning

Hirel, Julien 06 December 2011 (has links)
Cette thèse s'intéresse aux mécanismes permettant de faciliter l'acquisition autonome de comportements chez les êtres vivants et propose d'utiliser ces mécanismes dans le cadre de tâches robotiques. Des réseaux de neurones artificiels sont utilisés pour modéliser certaines structures cérébrales, à la fois afin de mieux comprendre le fonctionnement de ces structures dans le cerveau des mammifères et pour obtenir des algorithmes robustes et adaptatifs de contrôle en robotique.Les travaux présentés se basent sur un modèle de l'hippocampe permettant d'apprendre des relations temporelles entre des événements perceptifs. Les neurones qui forment le substrat de cet apprentissage, appelés cellules de transition, permettent de faire des prédictions sur les événements futurs que le robot pourrait rencontrer. Ces transitions servent de support à la construction d'une carte cognitive, située dans le cortex préfrontal et/ou pariétal. Cette carte peut être apprise lors de l'exploration d'un environnement inconnu par un robot mobile et ensuite utilisée pour planifier des chemins lui permettant de rejoindre un ou plusieurs buts.Outre leur utilisation pour la construction d'une carte cognitive, les cellules de transition servent de base à la conception d'un modèle d'apprentissage par renforcement. Une implémentation neuronale de l'algorithme de Q-learning, utilisant les transitions, est réalisée de manière biologiquement plausible en s'inspirant des ganglions de la base. Cette architecture fournit une stratégie de navigation alternative à la planification par carte cognitive, avec un apprentissage plus lent, et correspondant à une stratégie automatique de bas-niveau. Des expériences où les deux stratégies sont utilisées en coopération sont réalisées et des lésions du cortex préfrontal et des ganglions de la base permettent de reproduire des résultats expérimentaux obtenus chez les rats.Les cellules de transition peuvent apprendre des relations temporelles précises permettant de prédire l'instant où devrait survenir un événement. Dans un modèle des interactions entre l'hippocampe et le cortex préfrontal, nous montrons comment ces prédictions peuvent expliquer certains enregistrements in-vivo dans ces structures cérébrales, notamment lorsqu'un rat réalise une tâche durant laquelle il doit rester immobile pendant 2 secondes sur un lieu but pour obtenir une récompense. L'apprentissage des informations temporelles provenant de l'environnement et du comportement permet de détecter des régularités. A l'opposé, l'absence d'un événement prédit peut signifier un échec du comportement du robot, qui peut être détecté et utilisé pour adapter son comportement en conséquence. Un système de détection de l'échec est alors développé, tirant parti des prédictions temporelles fournies par l'hippocampe et des interactions entre les aspects de modulation comportementale du cortex préfrontal et d'apprentissage par renforcement dans les ganglions de la base. Plusieurs expériences robotiques sont conduites dans lesquelles ce signal est utilisé pour moduler le comportement d'un robot, dans un premier temps de manière immédiate, afin de mettre fin aux actions du robot qui le mènent à un échec et envisager d'autres stratégies. Ce signal est ensuite utilisé de manière plus permanente pour moduler l'apprentissage des associations menant à la sélection d'une action, afin que les échecs répétés d'une action dans un contexte particulier fassent oublier cette association.Finalement, après avoir utilisé le modèle dans le cadre de la navigation, nous montrons ses capacités de généralisation en l'utilisant pour le contrôle d'un bras robotique. Ces travaux constituent une étape importante pour l'obtention d'un modèle unifié et générique permettant le contrôle de plates-formes robotiques variés et pouvant apprendre à résoudre des tâches de natures différentes. / This thesis takes interest in the mechanisms facilitating the autonomous acquisition of behaviors in animals and proposes to use these mechanisms in the frame of robotic tasks. Artificialneural networks are used to model cerebral structures, both to understand how these structureswork and to design robust and adaptive algorithms for robot control.The work presented here is based on a model of the hippocampus capable of learning thetemporal relationship between perceptive events. The neurons performing this learning, calledtransition cells, can predict which future events the robot could encounter. These transitionssupport the building of a cognitive map, located in the prefrontal and/or parietal cortex. The mapcan be learned by a mobile robot exploring an unknown environment and then be used to planpaths in order to reach one or several goals.Apart from their use in building a cognitive map, transition cells are also the basis for thedesign of a model of reinforcement learning. A biologically plausible neural implementation ofthe Q-learning algorithm, using transitions, is made by taking inspiration from the basal ganglia.This architecture provides an alternative strategy to the cognitive map planning strategy. Thereinforcement learning strategy requires a longer learning period but corresponds more to an automatic low-level behavior. Experiments are carried out with both strategies used in cooperationand lesions of the prefrontal cortex and basal ganglia allow to reproduce experimental resultsobtained with rats.Transition cells can learn temporally precise relations predicting the exact timing when anevent should be perceived. In a model of interactions between the hippocampus and prefrontalcortex, we show how these predictions can explain in-vivo recordings in these cerebral structures, in particular when rat is carrying out a task during which it must remain stationary for 2seconds on a goal location to obtain a reward. The learning of temporal information about theenvironment and the behavior of the robot allows the system to detect regularity. On the contrary, the absence of a predicted event can signal a failure in the behavior of the robot, whichcan be detected and acted upon in order to modulate the failing behavior. Consequently, a failure detection system is developed, taking advantage of the temporal predictions provided by thehippocampus and the interaction between behavior modulation functions in the prefrontal cortexand reinforcement learning in the basal ganglia. Several robotic experiments are conducted, inwhich the failure signal is used to modulate, immediately at first, the behavior of the robot inorder to stop selecting actions which lead to failures and explore other strategies. The signal isthen used in a more lasting way by modulating the learning of the associations leading to theselection of an action so that the repeted failures of an action in a particular context lead to thesuppression of this association.Finally, after having used the model in the frame of navigation, we demonstrate its generalization capabilities by using it to control a robotic arm in a trajectory planning task. This workconstitutes an important step towards obtaining a generic and unified model allowing the controlof various robotic setups and the learning of tasks of different natures.
189

Etude de systèmes de contraintes pour le raisonnement qualitatif temporel et spatial / Study of constraint systems for qualitative reasoning

Almeida, Dominique D' 03 December 2010 (has links)
La modélisation et la résolution de problèmes sous contraintes constituent un domaine majeur enIA. Par la nature diverse des contraintes, différents formalismes de représentation ont été proposés pour les exprimer de manière simple et compacte tout en garantissant une efficacité des outils de résolutions associés. Les formules propositionnelles, les réseaux de contraintes discrets (RCD) et qualitatives (RCQ) sont des cadres de modélisation répondant à ces critères. Pour les informations temporelles ou spatiales, les RCQ constituent un modèle de choix avec de nombreuses applications comme l’ordonnancement de tâches, la planification temporelle ou spatiale, les systèmes d’informations géographiques. Nos contributions visent à étudier les liens des RCQ vers les RCD et les formules propositionnelles, afin d’adapter les outils issus des divers domaines et de proposer de nouvelles approches. Tout d’abord, nous nous concentrons sur l’aspect structurel des RCQ, en adaptant la méthode de la composition faible dans les différents cadres. Nous exploitons ensuite les propriétés des classes traitables de certains formalismes qualitatifs, afin de définir une transformation vers la logique propositionnelle. En exploitant la transformation vers les RCD, nous proposons une méthode incomplète facilitant la preuve de l’incohérence des RCQ par la relaxation de la propriété de composition faible, puis nous complétons l’approche en exploitant les classes traitables. Enfin, ces études nous conduisent à proposer une nouvelle forme de substituabilité locale, dont les détections statique et dynamique permettent d’obtenir une amélioration algorithmique dans le cadre des RCD. / Modelling and solving constraints problems is a major domain in Artificial Intelligence. By the various natures of the constraints, different formalisms were proposed to express them in a simple andcompact way while guaranteeing the effectiveness of the associated solution tools. Propositional formulae, discrete constraint networks (DCNs), and qualitative constraint networks (QCNs) are the well known frameworks that guaranty these requirements. For temporal or space information, QCNs constitute a model of choice with many real world applications such as scheduling, temporal or spatial planning and geographic information systems. Our contributions aim at studying the links between QCNs, DCNs and propositional formulas, in order to adapt the tools developed in these fields and to propose new approaches. First of all, we focus on the structural aspects of QCNs, by transforming weak composition within the various frameworks. In order to define a transformation towards propositional logic we then exploit the properties of tractable classes of some qualitative formalism. Exploiting the transformation towards DCNs, we propose an incomplete method simplifying the proof of the inconsistency for QCNs by relaxing the weak composition property. Then, we propose a complete approach thanks to tractable classes. Finally, these studies lead us to propose a new form of local substitutability, whose static and dynamic detections significantly improve search algorithms for DCNs.
190

Complexity Control for Low-Power HEVC Encoding / Contrôle de la complexité pour l'encodage HEVC basse consommation d'énergie

Mercat, Alexandre 07 December 2018 (has links)
L'Internet des objets (loT) est devenu une réalité et ses applications pressenties vont fortement augmenter la demande de vidéo mobile. En conséquence, les systèmes montent en complexité algorithmique et le portage du codage vidéo sur plates-formes embarquées devient problématique. Les nouveaux contenus vidéo 4K et 360°, venant avec des résolutions spatiales (8K, 16K) et temporelles (120 images/seconde élevées compliquent encore le problème. Il est donc nécessaire de réduire l'empreinte des nouveaux codec tels que HEVC tout en préservant les performances en compression et en qualité d'image de ces codecs, La performance énergétique limitée des batteries des systèmes embarqués pousse à proposer de nouvelle méthodes pour ajuster et contrôler la complexité et l'énergie des codecs HEVC. Ce document propose un ensemble d'études dont l'objectif est d'ajuster et de contrôler la complexité et donc la consommation énergétique de l'encodeur HEVC. Deux méthodes de prédiction de découpe de CTU sont proposées : la première basée sur une approche statistique utilisant la variance de l'image et la seconde utilisant l'intelligence artificielle. À partir de cette prédiction, une méthode est proposée pour ajuster la complexité de l'encodage HEVC. Cette solution étend l'espace de recherche autour de la prédiction et alloue la complexité dans l'image afin de minimiser les dégradations en termes de compression et de qualité. Enfin un système de contrôle temps réel de la complexité d'encodage est proposé. Il démontre l'applicabilité de contributions de ce document en maintenant la complexité d'encodage proche d'une consigne. / The Internet of Things (loT) is now a reality. Forthcoming applications will boost mobile video demand to an unprecedented level. The induced increase in computational complexity is a challenge when executing in real-time new video coding standards on embedded platforms, limited in computing, memory, and energy. New 4K UHD and 360-degree video contents coming with high spatial (SK, 16K) and temporal (120fp resolutions further complicate the problem. In this context, codecs such as HEVC (High Efficiency Vide Coding) must be worked on to reduce their complexity while preserving the bitrate and image quality. Th bounded energy density of embedded system's batteries requires designers to propose new methods scaling and controlling the complexity and energy consumption of HEVC codecs. This document presents a set of studies aiming at scaling and controlling the complexity, and therefore the energy consumption, of HEVC Intra encoding. Two methods of quad-tree partitioning prediction in "one-shot are proposed: one based on variance-aware statistic approach and one based on Machine Learning using data-mining classifiers. From the obtained prediction, a generic tunable complexity scheme of HEVC encoding is introduced. It expands the search space around the original partitioning prediction and allocates complexit in a frame while minimizing performance loss in terms of bitrate and visual quality. Finally, a real-time contr system is created that dynamically manages the encoding process to keep the encoding complexity under specific tarjet. It demonstrates the a licability of the mayor contributions of this document.

Page generated in 0.1093 seconds