Spelling suggestions: "subject:"artificiel"" "subject:"artificiell""
61 |
Contributions à l'apprentissage et l'inférence adaptatifs : Applications à l'ajustement d'hyperparamètres et à la physique des astroparticulesBardenet, Rémi 19 November 2012 (has links) (PDF)
Les algorithmes d'inférence ou d'optimisation possèdent généralement des hyperparamètres qu'il est nécessaire d'ajuster. Nous nous intéressons ici à l'automatisation de cette étape d'ajustement et considérons différentes méthodes qui y parviennent en apprenant en ligne la structure du problème considéré.La première moitié de cette thèse explore l'ajustement des hyperparamètres en apprentissage artificiel. Après avoir présenté et amélioré le cadre générique de l'optimisation séquentielle à base de modèles (SMBO), nous montrons que SMBO s'applique avec succès à l'ajustement des hyperparamètres de réseaux de neurones profonds. Nous proposons ensuite un algorithme collaboratif d'ajustement qui mime la mémoire qu'ont les humains d'expériences passées avec le même algorithme sur d'autres données.La seconde moitié de cette thèse porte sur les algorithmes MCMC adaptatifs, des algorithmes d'échantillonnage qui explorent des distributions de probabilité souvent complexes en ajustant leurs paramètres internes en ligne. Pour motiver leur étude, nous décrivons d'abord l'observatoire Pierre Auger, une expérience de physique des particules dédiée à l'étude des rayons cosmiques. Nous proposons une première partie du modèle génératif d'Auger et introduisons une procédure d'inférence des paramètres individuels de chaque événement d'Auger qui ne requiert que ce premier modèle. Ensuite, nous remarquons que ce modèle est sujet à un problème connu sous le nom de label switching. Après avoir présenté les solutions existantes, nous proposons AMOR, le premier algorithme MCMC adaptatif doté d'un réétiquetage en ligne qui résout le label switching. Nous présentons une étude empirique et des résultats théoriques de consistance d'AMOR, qui mettent en lumière des liens entre le réétiquetage et la quantification vectorielle.
|
62 |
Understanding of chemical reactions involved in pigment discoloration, in particular in mercury sulfide (HgS) blackeningRadepont, Marie 01 March 2013 (has links) (PDF)
La couleur des pigments peut parfois évoluer, de façon imprévisible, du point de vue du peintre ou du conservateur. La dégradation la plus commune du sulfure de mercure rouge (α-HgS), utilisé dans sa forme naturelle du cinabre ou synthétique du vermillon, est la coloration en noir ou gris-argenté. Ce phénomène n'apparait pas systématiquement. Depuis l'Antiquité, le cinabre était souvent utilisé dans les peintures, même s'il était connu pour se dégrader sous l'influence de l'irradiation solaire et de l'humidité. Les analyses réalisées sur des œuvres originales contenant du sulfure de mercure ont permis l'identification de différents composés de dégradation, comme le calomel (Hg2Cl2)et différentes phases polymorphes de α-Hg3S2Cl2. De plus, des expériences de vieillissements artificiels ont permis de reproduire la formation de calomel et de corderoite à partir d'échantillons modèles de HgS et confirmer que la lumière et le chlore sont deux paramètres essentiels pour former les différents produits d'altération. Les diagrammes de Pourbaix ainsi que les simulations obtenus à partir de calculs thermodynamiques ont semblé corroborer l'évolution de la composition des échantillons modèles de α-HgS observée lors des expériences de vieillissement artificiel. La caractérisation chimique de ces produits d'altération est assez difficile notamment à cause de la taille micrométrique des (multi-)couches d'altération. Au-delà des différentes techniques analytiques disponibles, la micro-diffraction X, la micro-fluorescence X et la micro-spectroscopie d'absorption X avec source synchrotron ont récemment prouvé leur intérêt dans l'identification et la localisation des composants à la fois originaux et altérés. Ces recherches ont confirmé les hypothèses préliminaires sur les facteurs influençant l'altération du sulfure de mercure et indiquent les conditions dans lesquelles ces dégradations se réalisent dans le but de les éviter dans le futur.
|
63 |
ALTERATIONS CHROMATIQUES DES PIGMENTS AU PLOMB DANS LES ŒUVRES DU PATRIMOINE -Etude expérimentale des altérations observée sur les peintures murales-Aze, Sébastien 31 March 2005 (has links) (PDF)
Les pigments au plomb (minium, céruse), couramment employés en peinture depuis l'Antiquité, sont connus pour subir des transformations entraînant des décolorations de la couche picturale (noircissement, blanchissement, verdissement). Les conditions de stabilité des pigments sont étudiées par des essais de vieillissement artificiels de pigments bruts et d'éprouvettes peintes. Ceux-ci montrent la décomposition de l'hydrocérusite en présence de chaux ainsi que la transformation de Pb3O4 en plattnérite (b-PbO2) en milieu acide dilué. La caractérisation d'échantillons de minium prélevés sur un peinture murale expérimentale après 25 ans de vieillissement naturel révèle que le noircissement du minium est lié à la formation de plattnérite par un mécanisme possible de disproportionnation de Pb3O4 en milieu acide. Le<br />blanchissement est dû à la recristallisation du plomb divalent sous forme de cérusite (PbCO3) et d'anglésite (PbSO4), causée par l'absorption de polluants gazeux (CO2, SO2).
|
64 |
Programmation et apprentissage bayésien pour les jeux vidéo multi-joueurs, application à l'intelligence artificielle de jeux de stratégies temps-réelSynnaeve, Gabriel 24 October 2012 (has links) (PDF)
Cette thèse explore l'utilisation des modèles bayésiens dans les IA de jeux vidéo multi-joueurs, particulièrement l'IA des jeux de stratégie en temps réel (STR). Les jeux vidéo se situent entre la robotique et la simulation totale, car les autres joueurs ne sont pas simulés, et l'IA n'a pas de contrôle sur la simulation. Les jeux de STR demandent simultanément d'effectuer des actions reactives (contrôle d'unités) et de prendre des décisions stratégiques (technologiques, économiques) et tactiques (spatiales, temporelles). Nous avons utilisé la modélisation bayésienne comme une alternative à la logique (booléenne), étant capable de travailler avec des informations incomplètes, et donc incertaines. En effet, la spécification incomplète des comportement "scriptés", ou la spécification incomplète des états possibles dans la recherche de plans, demandent une solution qui peut gérer cette incertitude. L'apprentissage artificiel aide à réduire la complexité de spécifier de tels modèles. Nous montrons que la programmation bayésienne peut intégrer toutes sortes de sources d'incertitudes (états cachés, intentions, stochasticité) par la réalisation d'un joueur de StarCraft complètement robotique. Les distributions de probabilité sont un moyen de transporter, sans perte, l'information que l'on a et qui peut représenter au choix: des contraintes, une connaissance partielle, une estimation de l'espace des états et l'incomplétude du modèle lui-même. Dans la première partie de cette thèse, nous détaillons les solutions actuelles aux problèmes qui se posent lors de la réalisation d'une IA de jeu multi-joueur, en donnant un aperçu des caractéristiques calculatoires et cognitives complexes des principaux types de jeux. En partant de ce constat, nous résumons les catégories transversales de problèmes, et nous introduisons comment elles peuvent être résolues par la modélisation bayésienne. Nous expliquons alors comment construire un programme bayésien en partant de connaissances et d'observations du domaine à travers un exemple simple de jeu de rôle. Dans la deuxième partie de la thèse, nous détaillons l'application de cette approche à l'IA de STR, ainsi que les modèles auxquels nous sommes parvenus. Pour le comportement réactif (micro-management), nous présentons un controleur multi-agent décentralisé et temps réel inspiré de la fusion sensori-motrice. Ensuite, nous accomplissons les adaptation dynamiques de nos stratégies et tactiques à celles de l'adversaire en le modélisant à l'aide de l'apprentissage artificiel (supervisé et non supervisé) depuis des traces de joueurs de haut niveau. Ces modèles probabilistes de joueurs peuvent être utilisés à la fois pour la prédiction des décisions/actions de l'adversaire, mais aussi à nous-même pour la prise de décision si on substitue les entrées par les notres. Enfin, nous expliquons l'architecture de notre joueur robotique de StarCraft, et nous précisions quelques détails techniques d'implémentation. Au delà des modèles et de leurs implémentations, il y a trois contributions principales: la reconnaissance de plan et la modélisation de l'adversaire par apprentissage artificiel, en tirant partie de la structure du jeu, la prise de décision multi-échelles en présence d'informations incertaines, et l'intégration des modèles bayésiens au contrôle temps réel d'un joueur artificiel.
|
65 |
Reconnaissance de scènes multimodale embarquée / Embedded multimodal scene recognitionBlachon, David 29 February 2016 (has links)
Contexte : Cette thèse se déroule dans les contextes de l'intelligence ambiante et de la reconnaissance de scène (sur mobile). Historiquement, le projet vient de l'entreprise ST-Ericsson. Il émane d'un besoin de développer et intégrer un "serveur de contexte" sur smartphone capable d'estimer et de fournir des informations de contexte pour les applications tierces qui le demandent. Un exemple d'utilisation consiste en une réunion de travail où le téléphone sonne~; grâce à la reconnaissance de la scène, le téléphone peut automatiquement réagir et adapter son comportement, par exemple en activant le mode vibreur pour ne pas déranger.Les principaux problèmes de la thèse sont les suivants : d'abord, proposer une définition de ce qu'est une scène et des exemples de scènes pertinents pour l'application industrielle ; ensuite, faire l'acquisition d'un corpus de données à exploiter par des approches d'apprentissage automatique~; enfin, proposer des solutions algorithmiques au problème de la reconnaissance de scène.Collecte de données : Aucune des bases de données existantes ne remplit les critères fixés (longs enregistrements continus, composés de plusieurs sources de données synchronisées dont l'audio, avec des annotations pertinentes).Par conséquent, j'ai développé une application Android pour la collecte de données. L'application est appelée RecordMe et a été testé avec succès sur plus de 10 appareils. L'application a été utilisée pour 2 campagnes différentes, incluant la collecte de scènes. Cela se traduit par plus de 500 heures enregistrées par plus de 25 bénévoles, répartis principalement dans la région de Grenoble, mais aussi à l'étranger (Dublin, Singapour, Budapest). Pour faire face au problème de protection de la vie privée et de sécurité des données, des mesures ont été mises en place dans le protocole et l'application de collecte. Par exemple, le son n'est pas sauvegardé, mes des coefficients MFCCs sont enregistrés.Définition de scène : L'étude des travaux existants liés à la tâche de reconnaissance de scène, et l'analyse des annotations fournies par les bénévoles lors de la collecte de données, ont permis de proposer une définition d'une scène. Elle est définie comme la généralisation d'une situation, composée d'un lieu et une action effectuée par une seule personne (le propriétaire du smartphone). Des exemples de scènes incluent les moyens de transport, la réunion de travail, ou le déplacement à pied dans la rue. La notion de composition permet de décrire la scène avec plusieurs types d'informations. Cependant, la définition est encore trop générique, et elle pourrait être complétée par des informations additionnelles, intégrée à la définition comme de nouveaux éléments de la composition.Algorithmique : J'ai réalisé plusieurs expériences impliquant des techniques d'apprentissage automatique supervisées et non non-supervisées. La partie supervisée consiste en de la classification. La méthode est commune~: trouver des descripteurs des données pertinents grâce à l'utilisation d'une méthode de sélection d'attribut ; puis, entraîner et tester plusieurs classifieurs (arbres de décisions et forêt d'arbres décisionnels ; GMM ; HMM, et DNN). Également, j'ai proposé un système à 2 étages composé de classifieurs formés pour identifier les concepts intermédiaires et dont les prédictions sont fusionnées afin d'estimer la scène la plus probable. Les expérimentations non-supervisées visent à extraire des informations à partir des données. Ainsi, j'ai appliqué un algorithme de regroupement hiérarchique ascendant, basé sur l'algorithme EM, sur les données d'accélération et acoustiques considérées séparément et ensemble. L'un des résultats est la distinction des données d'accélération en groupes basés sur la quantité d'agitation. / Context: This PhD takes place in the contexts of Ambient Intelligence and (Mobile) Context/Scene Awareness. Historically, the project comes from the company ST-Ericsson. The project was depicted as a need to develop and embed a “context server” on the smartphone that would get and provide context information to applications that would require it. One use case was given for illustration: when someone is involved in a meeting and receives a call, then thanks to the understanding of the current scene (meet at work), the smartphone is able to automatically act and, in this case, switch to vibrate mode in order not to disturb the meeting. The main problems consist of i) proposing a definition of what is a scene and what examples of scenes would suit the use case, ii) acquiring a corpus of data to be exploited with machine learning based approaches, and iii) propose algorithmic solutions to the problem of scene recognition.Data collection: After a review of existing databases, it appeared that none fitted the criteria I fixed (long continuous records, multi-sources synchronized records necessarily including audio, relevant labels). Hence, I developed an Android application for collecting data. The application is called RecordMe and has been successfully tested on 10+ devices, running Android 2.3 and 4.0 OS versions. It has been used for 3 different campaigns including the one for scenes. This results in 500+ hours recorded, 25+ volunteers were involved, mostly in Grenoble area but abroad also (Dublin, Singapore, Budapest). The application and the collection protocol both include features for protecting volunteers privacy: for instance, raw audio is not saved, instead MFCCs are saved; sensitive strings (GPS coordinates, device ids) are hashed on the phone.Scene definition: The study of existing works related to the task of scene recognition, along with the analysis of the annotations provided by the volunteers during the data collection, allowed me to propose a definition of a scene. It is defined as a generalisation of a situation, composed of a place and an action performed by one person (the smartphone owner). Examples of scenes include taking a transportation, being involved in a work meeting, walking in the street. The composition allows to get different kinds of information to provide on the current scene. However, the definition is still too generic, and I think that it might be completed with additionnal information, integrated as new elements of the composition.Algorithmics: I have performed experiments involving machine learning techniques, both supervised and unsupervised. The supervised one is about classification. The method is quite standard: find relevant descriptors of the data through the use of an attribute selection method. Then train and test several classifiers (in my case, there were J48 and Random Forest trees ; GMM ; HMM ; and DNN). Also, I have tried a 2-stage system composed of a first step of classifiers trained to identify intermediate concepts and whose predictions are merged in order to estimate the most likely scene. The unsupervised part of the work aimed at extracting information from the data, in an unsupervised way. For this purpose, I applied a bottom-up hierarchical clustering, based on the EM algorithm on acceleration and audio data, taken separately and together. One of the results is the distinction of acceleration into groups based on the amount of agitation.
|
66 |
Towards controlled release of Vanillin and bio-sensing of Adenosine monophosphate using molecularly imprinted polymers / Vers la libération contrôlée de Vanilline et le biocapteur d'Adénosine monophosphate en utilisant polymères à empreintes moléculairesPuzio, Kinga 19 December 2012 (has links)
Ce mémoire présente une exploration des polymères à empreintes moléculaires (MIP) comme outils d’une libération contrôlée de bioactifs olfactifs ou pour le criblage/préselection de composés à activité antivirales ou anti-tumorales sur le site actif d’une enzyme. La première partie est une étude de la complexation de la vanilline sur des billes polymériques sphériques en vue d’une libération contrôlée (pH, salinité, …). Ces études portent sur les caractéristiques de l'absorption et la libération de la molécule d'intérêt dans le milieu aqueux sur les microsphères fonctionnalisées fourni par Merck ESTAPOR® Microsphères. Nous avons ensuite synthétisé divers MIP de vanilline au format monolithique. Plusieurs stratégies d’impression ont été étudiées: non covalente, covalente et semi-covalente. La composition du MIP préparé dans chaque approche a été optimisée pour obtenir les meilleures propriétés et performances. L'affinité, la sélectivité et la capacité du MIP ont été déterminées. Les MIPs ont été évalués par extraction en phase solide (SPE) d'analogues structuraux de la vanilline dans des échantillons naturels (extrait de vanille, vin). La deuxième partie de ce mémoire concerne l’évaluation de MIPs de l’adénosine 5’-monophosphate (AMP) Le polymère a été préparé par une approche non-covalente et son efficacité de recapture a été caractérisée par analyse frontale (FA). L’analyse frontale est une technique qui permet de discriminer des interactions spécifiques des non spécifiques et de comprendre les mécanismes de liaison dans des cavités spécifiques. / This thesis report presents the exploration of molecularly imprinted polymers (MIP) for the application in controlled release and targeting antivirus and anticancer drugs. The first part of this study describes the imprinting of vanillin as a monolith. Several strategies were studied: non-covalent, covalent and semi-covalent. The composition of the MIP prepared in each approach was optimized to obtain the best properties and performance. The affinity, selectivity and capacity of MIP were determined. MIPs were evaluated in solid-phase extraction (SPE) of structural analogues in natural samples (vanilla extract, wine). We also present the study of the exploration of spherical beads as potential tools for the controlled release of vanillin. These studies concern the characteristics of uptake and release of the molecule of interest in the aqueous medium on functionalised microspheres supplied by Merck ESTAPOR Microspheres®. The second part of this thesis is devoted to studies on the evaluation of MIP of adenosine 5'-monophosphate (AMP). The polymer was prepared in non-covalent approach and efficiency of binding was characterised using frontal analysis (FA). FA is a useful technique that allows discriminate specific and nonspecific interactions and to understand the binding mechanisms in specific cavities.
|
67 |
Optimisation d’une manchette élastomère silicone pour sphincter artificiel urinaire mécatronique. / Optimization of an elastomeric silicone cuff for an artificial mecatronic urinary sphincterMasri, Christopher 16 October 2017 (has links)
La société UroMems propose de résoudre les problèmes d’incontinence urinaire avec un nouveau sphincter urinaire artificiel, dans lequel le mécanisme de pompe manuelle utilisé dans les sphincters actuellement implantés dans de nombreux patients est remplacé par un dispositif mécatronique. Une manchette occlusive, mimant le fonctionnement du sphincter naturel, est reliée et activée par le dispositif afin d’autoriser la miction et l’incontinence du patient.Le travail de thèse s’oriente sur la compréhension et l’amélioration du sphincter artificiel. La première partie de cette étude porte sur la numérisation et la modélisation 3D de cette manchette, la caractérisation mécanique de ses différents composants et la mise en place d’un modèle éléments finis. Un banc de test sur un cas simple avec suivi par stéréo-corrélation d’images est également présenté afin de valider le comportement du modèle numérique pour un chargement simple. La deuxième partie porte sur la simulation du geste chirurgical et du fonctionnement de la manchette ainsi qu’une validation du modèle éléments finis en comparaison avec des mesures effectuées sur paillasse. La troisième partie de ce travail consiste à produire des données expérimentales sur sujet anatomique afin d’observer le fonctionnement de la manchette dans son environnement naturel. Les résultats de cette étude ont motivé l’utilisation d’un matériau fantôme (un hydrogel de Polyvinyl alcohol) dont les propriétés mécaniques sont ajustables. Une caractérisation mécanique de cet hydrogel est présentée ainsi qu’un banc d’essai servant de cas test pour la validation du modèle numérique complet. La quatrième partie propose une analyse histo-morphologique de l’urètre masculin, ainsi qu’une caractérisation mécanique complète. Les données obtenues sont ensuite intégrées au modèle éléments finis afin de simuler le fonctionnement de la manchette occlusive dans son environnement naturel. Dans la dernière partie l’outil numérique mis en place est exploité afin de proposer des pistes d’améliorations du sphincter artificiel actuel. / UroMems aims at developing a novel treatment solution for severe urinary incontinence by replacing the manual pump mechanism, which is currently considered as the gold standard and which is implanted in patients throughout the world, by a mechatronic device. An occlusive cuff that mimics the natural human sphincter is linked to the device in order to ensure continence and allow micturition.This work focuses on understanding and improving the artificial sphincter. The first part of this study aims at modeling of the occlusive cuff, characterizing the mechanical behavior of all of its components and establishing a corresponding finite element model. A bench test using digital image correlation is also presented in order to validate the behavior of the numerical model for a simple test. In the second part the implantation of the occlusive and its inflation are simulated and the model is validated by comparing its results to the data measured experimentally. The third part aims at validating the interaction between the occlusive cuff and an extraneous body in the numerical simulation. To this end the in vivo experimental behavior of the occlusive cuff is observed. The variability measured among the different subjects motivated the use of a phantom material (a Polyvinyl alcohol hydrogel) of controlled mechanical properties. A thorough mechanical characterization of the hydrogel is also presented in this part as well as a test bench used for the validation of the numerical model. The fourth part proposes a histo-morphological analysis of the male urethra and its mechanical characterization. The data obtained were then integrated to the finite element model. The last part of this work is dedicated to exploiting the finite element tool to propose design improvement of the occlusive cuff.
|
68 |
Programmation et apprentissage bayésien pour les jeux vidéo multi-joueurs, application à l'intelligence artificielle de jeux de stratégies temps-réel / Bayesian Programming and Learning for Multi-Player Video Games, Application to RTS AISynnaeve, Gabriel 24 October 2012 (has links)
Cette thèse explore l'utilisation des modèles bayésiens dans les IA de jeux vidéo multi-joueurs, particulièrement l'IA des jeux de stratégie en temps réel (STR). Les jeux vidéo se situent entre la robotique et la simulation totale, car les autres joueurs ne sont pas simulés, et l'IA n'a pas de contrôle sur la simulation. Les jeux de STR demandent simultanément d'effectuer des actions reactives (contrôle d'unités) et de prendre des décisions stratégiques (technologiques, économiques) et tactiques (spatiales, temporelles). Nous avons utilisé la modélisation bayésienne comme une alternative à la logique (booléenne), étant capable de travailler avec des informations incomplètes, et donc incertaines. En effet, la spécification incomplète des comportement "scriptés", ou la spécification incomplète des états possibles dans la recherche de plans, demandent une solution qui peut gérer cette incertitude. L'apprentissage artificiel aide à réduire la complexité de spécifier de tels modèles. Nous montrons que la programmation bayésienne peut intégrer toutes sortes de sources d'incertitudes (états cachés, intentions, stochasticité) par la réalisation d'un joueur de StarCraft complètement robotique. Les distributions de probabilité sont un moyen de transporter, sans perte, l'information que l'on a et qui peut représenter au choix: des contraintes, une connaissance partielle, une estimation de l'espace des états et l'incomplétude du modèle lui-même. Dans la première partie de cette thèse, nous détaillons les solutions actuelles aux problèmes qui se posent lors de la réalisation d'une IA de jeu multi-joueur, en donnant un aperçu des caractéristiques calculatoires et cognitives complexes des principaux types de jeux. En partant de ce constat, nous résumons les catégories transversales de problèmes, et nous introduisons comment elles peuvent être résolues par la modélisation bayésienne. Nous expliquons alors comment construire un programme bayésien en partant de connaissances et d'observations du domaine à travers un exemple simple de jeu de rôle. Dans la deuxième partie de la thèse, nous détaillons l'application de cette approche à l'IA de STR, ainsi que les modèles auxquels nous sommes parvenus. Pour le comportement réactif (micro-management), nous présentons un controleur multi-agent décentralisé et temps réel inspiré de la fusion sensori-motrice. Ensuite, nous accomplissons les adaptation dynamiques de nos stratégies et tactiques à celles de l'adversaire en le modélisant à l'aide de l'apprentissage artificiel (supervisé et non supervisé) depuis des traces de joueurs de haut niveau. Ces modèles probabilistes de joueurs peuvent être utilisés à la fois pour la prédiction des décisions/actions de l'adversaire, mais aussi à nous-même pour la prise de décision si on substitue les entrées par les notres. Enfin, nous expliquons l'architecture de notre joueur robotique de StarCraft, et nous précisions quelques détails techniques d'implémentation. Au delà des modèles et de leurs implémentations, il y a trois contributions principales: la reconnaissance de plan et la modélisation de l'adversaire par apprentissage artificiel, en tirant partie de la structure du jeu, la prise de décision multi-échelles en présence d'informations incertaines, et l'intégration des modèles bayésiens au contrôle temps réel d'un joueur artificiel. / This thesis explores the use of Bayesian models in multi-player video games AI, particularly real-time strategy (RTS) games AI. Video games are an in-between of real world robotics and total simulations, as other players are not simulated, nor do we have control over the simulation. RTS games require having strategic (technological, economical), tactical (spatial, temporal) and reactive (units control) actions and decisions on the go. We used Bayesian modeling as an alternative to (boolean valued) logic, able to cope with incompleteness of information and (thus) uncertainty. Indeed, incomplete specification of the possible behaviors in scripting, or incomplete specification of the possible states in planning/search raise the need to deal with uncertainty. Machine learning helps reducing the complexity of fully specifying such models. We show that Bayesian programming can integrate all kinds of sources of uncertainty (hidden state, intention, stochasticity), through the realization of a fully robotic StarCraft player. Probability distributions are a mean to convey the full extent of the information we have and can represent by turns: constraints, partial knowledge, state space estimation and incompleteness in the model itself. In the first part of this thesis, we review the current solutions to problems raised by multi-player game AI, by outlining the types of computational and cognitive complexities in the main gameplay types. From here, we sum up the transversal categories of prob- lems, introducing how Bayesian modeling can deal with all of them. We then explain how to build a Bayesian program from domain knowledge and observations through a toy role-playing game example. In the second part of the thesis, we detail our application of this approach to RTS AI, and the models that we built up. For reactive behavior (micro-management), we present a real-time multi-agent decentralized controller inspired from sensory motor fusion. We then show how to perform strategic and tactical adaptation to a dynamic opponent through opponent modeling and machine learning (both supervised and unsupervised) from highly skilled players' traces. These probabilistic player-based models can be applied both to the opponent for prediction, or to ourselves for decision-making, through different inputs. Finally, we explain our StarCraft robotic player architecture and precise some technical implementation details. Beyond models and their implementations, our contributions are threefolds: machine learning based plan recognition/opponent modeling by using the structure of the domain knowledge, multi-scale decision-making under uncertainty, and integration of Bayesian models with a real-time control program.
|
69 |
Caractérisation des performances énergétiques des systèmes thermiques innovants pour le bâtiment au travers d'essais de courte durée en régime dynamique / Energy performance caracterization of innovative thermal systems in building through short tests under dynamic regimeLazrak, Amine 03 December 2015 (has links)
Les systèmes solaires thermiques combinés à un système d’appoint tel que une chaudière, une pompe à chaleur ou intégrant une machine à absorption, peuvent jouer un rôle important dans la réduction des consommations des bâtiments pour les besoins de chauffage, de climatisation et de production d’eau chaude sanitaire. Dans ce sens, la caractérisation des performances énergétiques des systèmes thermiques est un enjeu crucial.Les méthodes de caractérisation actuellement disponibles sont soit basées sur plusieurs essais physiques séparés des composants du système à évaluer, chose qui ne prend pas en compte les vraies interactions entre ces derniers, soit sur des modèles physiques qui peuvent être complexes et difficilement identifiables notamment du fait que les systèmes actuels sont compacts et préfabriqués en usine. En l’absence de méthode fiable pour estimer les performances des systèmes solaires thermiques avant leur intégration au bâtiment, le marché de ses derniers subit de fortes contraintes pour son développement.Dans ce contexte il devient indispensable de développer une méthodologie générique qui peut être appliquée à différentes typologies de systèmes et qui pallie les difficultés rencontrées par les méthodes actuelles.L’approche d’évaluation proposée dans ce mémoire est constituée de quatre étapes principales : la détermination d’une séquence de test, l’essai du système dans un banc d’essai semi-virtuel selon la séquence déterminée, l’acquisition des données et l’identification d’un réseau de neurones artificiels (RNA) du système et enfin la simulation du modèle en vue de l’estimation de la consommation du système dans l’environnement désiré. L’avantage d’utiliser un modèle complètement « boîte noire » du système complet à l’aide des RNA la rend totalement « non intrusive ». La connaissance des paramètres internes aux systèmes (rendements, conductivités thermiques, régulation etc.) n’est en conséquence pas nécessaire pour l’application de la méthodologie.La validation de la méthodologie a été réalisée à travers plusieurs expérimentations numériques, pour 7 systèmes issus de 3 typologies différentes, durant lesquelles les estimations des RNA ont été comparées aux calculs des modèles physiques dans plusieurs conditions différentes (qualité du bâtiment, climat et surface du capteur). Une application de l’approche développée dans le cas de 5 systèmes réels a permis la confirmation de la pertinence de la méthodologie. / Solar thermal systems combined with a backup system such as a boiler, a heat pump or incorporating an absorption chiller, can play an important role in reducing buildings energy consumption for heating, cooling and hot water production needs. In this sense, characterizing the energy performance of thermal systems is crucial.Currently available methods of system characterization are either based on several separate physical tests of system components to be evaluated, which do not take into account the real interactions between them, or on physical models that can be complex and difficult to identify especially because systems nowadays are compact and prefabricated in the factory. Due to the lack of a reliable method to estimate the performance of solar thermal systems before their integration into buildings, their market faces a lot of impediment to be developed.In this context, it becomes essential to develop a generic methodology that can be applied to different types of systems which overcomes the difficulties encountered by the current ones.The proposed evaluation approach in this manuscript is composed of four main steps: determining a test sequence, testing the system in a semi-virtual test bench according to predetermined sequence, data acquisition and identifying an artificial neural network (ANN) of the system and finally the model simulation in order to estimate the system consumption in the desired boundary condition. Using a completely "black box" model of the whole system using the ANN makes the methodology totally "non-intrusive". No prior knowledge about the systems internal parameters (yields, thermal conductivities, regulation etc.) is necessary to apply the proposed approach.The methodology validation was performed through several numerical experiments for seven systems coming from three different typologies. During the validation process, ANN estimates were compared with calculations of physical models in several different conditions (quality of building, climate and collector area). The developed approach was applied to five real systems as well. The application results allowed the confirmation of the methodology relevance.
|
70 |
Interaction basée sur des gestes définis par l’utilisateur : Application à la réalité virtuelle / User-Defined Gestural Interaction for Virtual RealityJego, Jean-François 12 December 2013 (has links)
Ces travaux de recherche proposent une nouvelle méthode d'interaction gestuelle. Nous nous intéressons en particulier à deux domaines d'application : la thérapie à domicile par la réalité virtuelle et les arts scéniques numériques. Nous partons du constat que les interfaces standardisées ne sont pas adaptées à ces cas d'usage, car elles font appel à des gestes prédéfinis et imposés. Notre approche consiste à laisser la possibilité à l'utilisateur de faire apprendre ses gestes d'interaction par le système. Cela permet de prendre en compte ses besoins et aptitudes sensorimotrices. L'utilisateur réutilise ensuite son langage gestuel appris par le système pour interagir dans l'environnement virtuel. Cette approche pose des questions de recherche centrées sur la mémorisation, la rétroaction visuelle et la fatigue. Pour aborder ces trois aspects, nous étudions d'abord le rôle de l'affordance visuelle des objets et celui de la colocalisation dans la remémoration d'un corpus de gestes. Ensuite, nous évaluons l'influence de différents types de rétroactions visuelles sur l'évolution des gestes répétés par l'utilisateur dans une série de tâches de manipulation. Nous comparons également les performances entre des gestes d'amplitude réaliste et des gestes d'amplitude faible pour effectuer la même action. Aussi, nous attachons une importance à rendre l'interface accessible en utilisant des dispositifs bas coûts et peu intrusifs. Nous explorons les moyens de pallier les contraintes techniques liées aux systèmes peu performants. Pour cela, nous avons conduit des expériences où plus de six mille gestes proposés par une quarantaine d'utilisateurs ont été étudiés. / In this thesis, we propose and evaluate new gestural interfaces for 3DUI. This work is motivated by two application cases: the first one is dedicated to people with limited sensory-motor abilities for whom generic interaction methods may not be adapted. The second one is artistic digital performances, for which gesture freedom is part of the creative process. For those cases, a standardized approach is not possible and thus user-specific or dedicated interfaces are needed. We propose a user-defined gestural interaction that allows the user to make the system learn the gestures that he has created, in a specific phase, prior to using the system. Then, the user reuses his created gestures to interact in the virtual environment. This approach raises research questions about memorization of gestures, effects of fatigue and effects of visual feedbacks. To answer those questions, we study the memorization of user created gestures regarding the role of affordances and colocalization on gesture recall. Then, we study the role of different visual feedbacks on gesture repetitions for a set of manipulation tasks. We also compare full-collocated gestures to loose gestures with lower amplitude. Also, the approach has been designed to be affordable using low-cost devices. We explore solutions to deal with the lower data quality of such devices. The results of the user-studies are based on the analysis of six thousand gestures performed by forty subjects.
|
Page generated in 0.0562 seconds