11 |
Contribution to complex visual information processing and autonomous knowledge extraction : application to autonomous robotics / Contribution au traitement d’informations visuelles complexes et à l’extraction autonome des connaissances : application à la robotique autonomeRamik, Dominik Maximilián 10 December 2012 (has links)
Le travail effectué lors de cette thèse concerne le développement d'un système cognitif artificiel autonome. La solution proposée repose sur l'hypothèse que la curiosité est une source de motivation d'un système cognitif dans le processus d'acquisition des nouvelles connaissances. En outre, deux types distincts de curiosité ont été identifiés conformément au système cognitif humain. Sur ce principe, une architecture cognitive à deux niveaux a été proposée. Le bas-niveau repose sur le principe de la saillance perceptive, tandis que le haut-niveau réalise l'acquisition des connaissances par l'observation et l'interaction avec l'environnement. Cette thèse apporte les contributions suivantes : A) Un état de l'art sur l'acquisition autonome de connaissance. B) L'étude, la conception et la réalisation d'un système cognitif bas-niveau basé sur le principe de la curiosité perceptive. L'approche proposée repose sur la saillance visuelle réalisée grâce au développement d'un algorithme rapide et robuste permettant la détection et l'apprentissage d'objets saillants. C) La conception d'un système cognitif haut-niveau, basé sur une approche générique, permettant l'acquisition de connaissance à partir de l'observation et de l'interaction avec son environnent (y compris avec les êtres humains). Basé sur la curiosité épistémique, le système cognitif haut-niveau développé permet à une machine (par exemple un robot) de devenir l'acteur de son propre apprentissage. Une conséquence substantielle d'un tel système est la possibilité de conférer des capacités cognitives haut-niveau multimodales à des robots pour accroître leur autonomie dans un environnement réel (environnement humain). D) La mise en œuvre de la stratégie proposée dans le cadre de la robotique autonome. Les études et les validations expérimentales réalisées ont notamment confirmé que notre approche permet d'accroître l'autonomie des robots dans un environnement réel / The work accomplished in this thesis concerns development of an autonomous machine cognition system. The proposed solution reposes on the assumption that it is the curiosity which motivates a cognitive system to acquire new knowledge. Further, two distinct kinds of curiosity are identified in conformity to human cognitive system. On this I build a two level cognitive architecture. I identify its lower level with the perceptual saliency mechanism, while the higher level performs knowledge acquisition from observation and interaction with the environment. This thesis brings the following contribution: A) Investigation of the state of the art in autonomous knowledge acquisition. B) Realization of a lower cognitive level in the ensemble of the mentioned system, which is realizing the perceptual curiosity mechanism through a novel fast, real-world robust algorithm for salient object detection and learning. C) Realization of a higher cognitive level through a general framework for knowledge acquisition from observation and interaction with the environment including humans. Based on the epistemic curiosity, the high-level cognitive system enables a machine (e.g. a robot) to be itself the actor of its learning. An important consequence of this system is the possibility to confer high level multimodal cognitive capabilities to robots to increase their autonomy in real-world environment (human environment). D) Realization of the strategy proposed in the context of autonomous robotics. The studies and experimental validations done had confirmed notably that our approach allows increasing the autonomy of robots in real-world environment
|
12 |
Interaction affective et expressive. Compagnon artificiel-humainRiviere, Jeremy 10 October 2012 (has links) (PDF)
Le but de ce travail de thèse est de rendre sincère un Agent Conversationnel Animé (ACA) pour, d'une part, améliorer sa crédibilité du point de vue de l'humain, et d'autre part contribuer à le rendre acceptable dans une relation privilégiée compagnon artificiel - humain. La première partie de ce travail consiste en la création d'un Langage de Conversation Multimodal (LCM) pour ACA, constitué d'Actes de Conversation Multimodaux (ACM) tels que promettre, s'excuser ou exiger : ces ACM permettent à l'agent d'être crédible dans sa sincérité, en exprimant multimodalement ses états mentaux de façon appropriée. Les états mentaux portés par les ACM sont formalisés en logique : la volonté de représenter des états mentaux issus de raisonnements complexes (basés d'une part sur le raisonnement contrefactuel et d'autre part sur les normes et les buts de l'agent), dont l'expression se fait avant tout par le langage (Oatley 1987), a amené à mettre en place le modèle BIGRE (Beliefs, Ideals, Goals, Responsibility, Emotions). Ce modèle, basé sur une logique de type BDI (Belief, Desire, Intention), permet de représenter également des émotions que nous appelons complexes, telles que la réjouissance, la gratitude ou le regret. La catégorie expressive des ACM contient les actes exprimant ces émotions complexes (e.g. remercier, regretter) : l'expression se fait par le langage, conjointement aux autres expressions multimodales appropriées. Le LCM est implémenté dans l'ACA Greta, ce qui permet une évaluation de ce langage en termes de crédibilité et de sincérité perçues par l'humain. La deuxième partie de ce travail porte sur les capacités de raisonnement de l'ACA : dans le but de permettre à l'agent de raisonner dans le dialogue, c'est-à-dire mettre à jour ses états mentaux et ses émotions et sélectionner son intention communicative, un moteur de raisonnement a été mis en place. Ce moteur de raisonnement est basé sur le cycle de comportement BDI - Perception, Décision, Action - et les opérateurs du modèle BIGRE, permettant ainsi la manipulation d'états mentaux issus de raisonnements complexes (dont les émotions complexes). Les ACM qui composent notre langage sont intégrés dans le moteur, et sont utilisés pour atteindre l'intention communicative de l'ACA : par exemple, si l'agent a l'intention d'exprimer sa gratitude, il construit un plan pour satisfaire son intention, formé des ACM remercier ou féliciter, selon le degré de l'émotion. Un type d'intention communicative, déclenché par des règles d'obligation du discours, participe à la régulation locale du dialogue. L'ACA étant de plus affectif, sa sincérité l'amène à exprimer toutes ses émotions. La généricité de ce moteur de raisonnement permet de l'implémenter dans l'ACA Greta (où il est en lien avec le LCM) et dans l'agent MARC. L'expression multimodale des ACM avec l'agent MARC a été rendue possible par l'intégration des checks de Scherer dans le moteur de raisonnement que nous avons adapté au contexte du dialogue. Une évaluation du moteur de raisonnement avec l'agent MARC montre que les états mentaux déduits par le moteur sont appropriés à la situation, et que leur expression (l'expression de la sincérité de l'agent) est également appropriée.
|
13 |
Vivant et artificiel : comment innover pour faire face à la recréation de la condition humaine par les nouvelles technologies : comment l'artiste sollicite ce nouvel objet d'art qu'est la vie ? / The living and the artificial : what innovations will help us address the technological recreation of humanity through new technology? : how might artists interrogate the transformation of life into Artefact?Adnane, Sabine 14 December 2018 (has links)
Si la Technique vient compenser un défaut d'être, quelle est la responsabilité de l’homme face à l’évolution de sa condition? La question du développement des capacités humaines en interaction avec les machines crée des interférences avec les limites traditionnelles, et fait ressortir de nombreuses questions éthiques autour de l’émergence d’une Intelligence artificielle et d’une transformation biotechnologique. Ces dernières opèrent un éclatement de l’ontologie même du vivant. Par conséquent, quel rôle peut jouer l’artiste face à la recréation de sa condition humaine ? Quel est le statut de ces œuvres d’art d’êtres vivants autonomes ? L’Art est-il prêt à s'engager sur des questions sociales, culturelles et biopolitiques plus larges, non seulement avec la création de nouveaux objets, mais aussi de nouveaux sujets comme celui que pose la matière vivante ? Nous verrons comment les artistes s’approprient les nouvelles technologies pour les questionner, afin d’en explorer toutes les réalités phénoménologiques et physiologiques auxquelles elles leur donnent accès. La perfectibilité du corps sous forme de réalisation technique ou microbiologique est envisagée. Le corps s’expose, au risque de perdre son statut d’espèce protégée. Dans le cadre de la partie pratique de cette thèse, notre projet utilisera un dispositif permettant de donner la parole à des organismes vivants et de montrer leurs capacités à manifester une intentionnalité. Nous exposerons ainsi le concept d’une intelligence naturelle au delà de la vision restreinte de la science objective actuelle. La question de la fin de l’exception de l’intelligence humaine dans son arrogance et sa prédation est posée. / If technology compensates for a lack of being, what is man's responsibility within the evolution of his condition? The intertwining of human capabilities with machines transgresses traditional boundaries, and brings to light many ethical questions. Artificial intelligence and biotechnological transformation completely redefine the ontology of life. What role does the artist play in the recreation of the human condition? What is the status of autonomous living beings turned into works of art? Is Art ready to engage in broader social, cultural, and biopolitical issues, not only with the creation of new objects, but also with new subjects such as living matter? We will see how artists are seizing new technologies to question them, in order to explore all the phenomenological and physiological realities to which they give them access. The perfectibility of the body as a technical or microbiological embodiment is envisaged. The body is exposed, at the risk of losing its status as a protected species. For the practical part of this thesis, we will use a device to give voice to living organisms and show their ability to manifest intentionality. We will thus expose the concept of a natural intelligence beyond the limited vision of current objective science. The prospect of the end of human exceptionality in its arrogance and predation is considered.
|
14 |
Learning Deep Representations : Toward a better new understanding of the deep learning paradigm / Apprentissage de représentations profondes : vers une meilleure compréhension du paradigme d'apprentissage profondArnold, Ludovic 25 June 2013 (has links)
Depuis 2006, les algorithmes d’apprentissage profond qui s’appuient sur des modèles comprenant plusieurs couches de représentations ont pu surpasser l’état de l’art dans plusieurs domaines. Les modèles profonds peuvent être très efficaces en termes du nombre de paramètres nécessaires pour représenter des opérations complexes. Bien que l’entraînement des modèles profonds ait été traditionnellement considéré comme un problème difficile, une approche réussie a été d’utiliser une étape de pré-entraînement couche par couche, non supervisée, pour initialiser des modèles profonds supervisés. Tout d’abord, l’apprentissage non-supervisé présente de nombreux avantages par rapport à la généralisation car il repose uniquement sur des données non étiquetées qu’il est facile de trouver. Deuxièmement, la possibilité d’apprendre des représentations couche par couche, au lieu de toutes les couches à la fois, améliore encore la généralisation et réduit les temps de calcul. Cependant, l’apprentissage profond pose encore beaucoup de questions relatives à la consistance de l’apprentissage couche par couche, avec de nombreuses couches, et à la difficulté d’évaluer la performance, de sélectionner les modèles et d’optimiser la performance des couches. Dans cette thèse, nous examinons d’abord les limites de la justification variationnelle actuelle pour l’apprentissage couche par couche qui ne se généralise pas bien à de nombreuses couches et demandons si une méthode couche par couche peut jamais être vraiment consistante. Nous constatons que l’apprentissage couche par couche peut en effet être consistant et peut conduire à des modèles génératifs profonds optimaux. Pour ce faire, nous introduisons la borne supérieure de la meilleure probabilité marginale latente (BLM upper bound), un nouveau critère qui représente la log-vraisemblance maximale d’un modèle génératif profond quand les couches supérieures ne sont pas connues. Nous prouvons que la maximisation de ce critère pour chaque couche conduit à une architecture profonde optimale, à condition que le reste de l’entraînement se passe bien. Bien que ce critère ne puisse pas être calculé de manière exacte, nous montrons qu’il peut être maximisé efficacement par des auto-encodeurs quand l’encodeur du modèle est autorisé à être aussi riche que possible. Cela donne une nouvelle justification pour empiler les modèles entraînés pour reproduire leur entrée et donne de meilleurs résultats que l’approche variationnelle. En outre, nous donnons une approximation calculable de la BLM upper bound et montrons qu’elle peut être utilisée pour estimer avec précision la log-vraisemblance finale des modèles. Nous proposons une nouvelle méthode pour la sélection de modèles couche par couche pour les modèles profonds, et un nouveau critère pour déterminer si l’ajout de couches est justifié. Quant à la difficulté d’entraîner chaque couche, nous étudions aussi l’impact des métriques et de la paramétrisation sur la procédure de descente de gradient couramment utilisée pour la maximisation de la vraisemblance. Nous montrons que la descente de gradient est implicitement liée à la métrique de l’espace sous-jacent et que la métrique Euclidienne peut souvent être un choix inadapté car elle introduit une dépendance sur la paramétrisation et peut entraîner une violation de la symétrie. Pour pallier ce problème, nous étudions les avantages du gradient naturel et montrons qu’il peut être utilisé pour restaurer la symétrie, mais avec un coût de calcul élevé. Nous proposons donc qu’une paramétrisation centrée peut rétablir la symétrie avec une très faible surcharge computationnelle. / Since 2006, deep learning algorithms which rely on deep architectures with several layers of increasingly complex representations have been able to outperform state-of-the-art methods in several settings. Deep architectures can be very efficient in terms of the number of parameters required to represent complex operations which makes them very appealing to achieve good generalization with small amounts of data. Although training deep architectures has traditionally been considered a difficult problem, a successful approach has been to employ an unsupervised layer-wise pre-training step to initialize deep supervised models. First, unsupervised learning has many benefits w.r.t. generalization because it only relies on unlabeled data which is easily found. Second, the possibility to learn representations layer by layer instead of all layers at once improves generalization further and reduces computational time. However, deep learning is a very recent approach and still poses a lot of theoretical and practical questions concerning the consistency of layer-wise learning with many layers and difficulties such as evaluating performance, performing model selection and optimizing layers. In this thesis we first discuss the limitations of the current variational justification for layer-wise learning which does not generalize well to many layers. We ask if a layer-wise method can ever be truly consistent, i.e. capable of finding an optimal deep model by training one layer at a time without knowledge of the upper layers. We find that layer-wise learning can in fact be consistent and can lead to optimal deep generative models. To do this, we introduce the Best Latent Marginal (BLM) upper bound, a new criterion which represents the maximum log-likelihood of a deep generative model where the upper layers are unspecified. We prove that maximizing this criterion for each layer leads to an optimal deep architecture, provided the rest of the training goes well. Although this criterion cannot be computed exactly, we show that it can be maximized effectively by auto-encoders when the encoder part of the model is allowed to be as rich as possible. This gives a new justification for stacking models trained to reproduce their input and yields better results than the state-of-the-art variational approach. Additionally, we give a tractable approximation of the BLM upper-bound and show that it can accurately estimate the final log-likelihood of models. Taking advantage of these theoretical advances, we propose a new method for performing layer-wise model selection in deep architectures, and a new criterion to assess whether adding more layers is warranted. As for the difficulty of training layers, we also study the impact of metrics and parametrization on the commonly used gradient descent procedure for log-likelihood maximization. We show that gradient descent is implicitly linked with the metric of the underlying space and that the Euclidean metric may often be an unsuitable choice as it introduces a dependence on parametrization and can lead to a breach of symmetry. To mitigate this problem, we study the benefits of the natural gradient and show that it can restore symmetry, regrettably at a high computational cost. We thus propose that a centered parametrization may alleviate the problem with almost no computational overhead.
|
15 |
Evaluation de l'impact potentiel d'un upwelling artificiel lié au fonctionnement d'une centrale à énergie thermique des mers sur le phytoplancton / Evaluation of the potential impact of an artificial upwelling linked to the operation of a thermal energy plant of the seas on phytoplanktonGiraud, Mélanie 01 February 2016 (has links)
Dans le cadre de l’implantation d’une centrale pilote à énergie thermique des mers (ETM) prévue au large des côtes caribéennes de la Martinique d’ici 2020, ces travaux de thèse visent à évaluer les impacts potentiels de la décharge d’eau profonde en surface sur le phytoplancton. La centrale pilote offshore NEMO conçue par DCNS et mise en oeuvre par Akuo Energy prévoit une production d’environ 10 MW. Les eaux froides et riches en nutriments pompées au fond et rejetées en surface par la centrale ETM avec un débit d’environ 100 000 m3.h-1 devraient enrichir les eaux de surface du site d’étude, particulièrement pauvres en nitrate et phosphate. Deux campagnes de mesures sur le terrain à deux saisons contrastées (saison humide en juin 2014 et saison sèche en novembre 2013) ont permis d’apporter une description des différents paramètres physiques et biogéochimiques susceptibles d’induire une modification de la communauté phytoplanctonique. Une variabilité saisonnière marquée de la stratification et des paramètres biogéochimiques a été mise en évidence avec en saison humide une forte influence océanique (advection d’eaux originaires de l’Amazone et de l’Orénoque) et atmosphérique (brumes des sables) enrichissant potentiellement la couche de surface en nutriments et en métaux traces. Des microcosmes in situ ont été développés afin de simuler le rejet d’eau de fond dans la couche de surface sous différents scénarios. De l’eau de surface prélevée dans le maximum de chlorophylle (45 m, où le phytoplancton est le plus abondant) et à la base de la couche euphotique (80 m, où le phytoplancton est présent en très faible abondance) a été enrichie avec un faible (2%) ou fort apport (10%) d’eau de fond (1100 m) et mise à incuber in situ pendant 6 jours. La production primaire a également été estimée dans le milieu naturel et dans les microcosmes. Ces expérimentations ont mis en évidence qu’un fort apport (10%) stimule le développement du micro-phytoplancton, des diatomées en particulier, au détriment des Prochlorococcus, tandis qu’un apport de 2% ne modifie que faiblement la communauté. La réponse des diatomées pourrait être liée à l’apport en nitrate et phosphate par les eaux profondes. La production primaire serait quant-à-elle dépendante de l’assemblage phytoplanctonique en présence, plutôt que de l’intensité de l’apport d’eau profonde. Enfin, les perturbations thermiques liées au rejet d’eau froide de fond ont été évaluées à partir du modèle numérique ROMS. Les seuils d’impact thermique de -3°C préconisés par la World Group Bank et de -0,3°C correspondant à 2% de dilution d’eau profonde ont été considérés. Même au seuil le plus bas (-0,3°C), la surface impactée sur les premiers 150 m de la colonne d’eau était trop faible pour être détectable par la simulation, quelle que soit la profondeur du rejet. L’impact thermique lié au rejet d’eau froide devrait donc être négligeable, et elle serait limitée à moins de 3 km2. Ces travaux constituent la première étape indispensable dans la compréhension de ce que pourrait être l’impact de ce rejet sur l’écosystème à plus long terme. / As part of the implementation of an Ocean thermal energy conversion (OTEC) pilot plant planned off the Caribbean coast of Martinique by 2020, this thesis aims to assess the potential impacts of deep seawater discharge at the surface on the phytoplankton. The offshore pilot plant NEMO, designed by DCNS and implemented by Akuo Energy anticipates production of approximately 10 MW. The cold and nutrient-rich waters that are pumped in the bottom and discharged at the surface by the heat engine with a flow of roughly 100 000 m3 h-1 should enrich surface waters of the study site, which are particularly poor in nitrate and phosphate. Two campaigns of field measurements in two contrasting seasons (the dry season in November 2013 and the wet season in June 2014) have allowed the description of different physical and biogeochemical parameters that may induce changes in the phytoplankton community. Marked seasonal variability in stratification and biogeochemical parameters occurred, with strong oceanic influences (advection of waters from the Amazon and Orinoco) and atmospheric influences (African dust) potentially enriching the surface layer in nutrients and trace metals during the wet season. In situ microcosms were designed to simulate the discharge of bottom waters into the surface layer under different scenarios. Surface water collected at the chlorophyll maximum(45 m, where the phytoplankton is the most abundant), and at the base of the euphotic layer (80 m, where the phytoplankton is present, but in very low abundance) was enriched with either a weak (2%) or strong (10%) input of bottom waters (1100 m), and incubated for 6 days. Primary production was estimated in both the natural environment, and in the microcosms. These experiments have shown that high input (10%) stimulates the development of micro-phytoplankton, especially diatoms, to the detriment of Prochlorococcus. The response of diatoms could be linked to the input of nitrate and phosphate by the deep seawater.Primary production would be dependent on the composition of the phytoplankton assemblage rather than on the intensity of deep water discharge. Finally, thermal disturbances linked to the discharge of cold water at the surface were assessed using a numerical model (ROMS), which considered the thermal impact threshold of -3°C as recommended by the World Bank Group, and -0.3 °C, corresponding to a 2% dilution with deep water. Even at the lowest threshold (-0.3 °C), the area impacted in the first 150 m of the water column was too low to be detected by the simulation, regardless of the discharge depth. The thermal impact of cold water should therefore be negligible and limited to an area of less than 3 km2. This work provides the first critical step in understanding how bottom water discharge may impact the ecosystem in the longer-term.
|
16 |
Personnages artificiels anthropomorphes et technologiques à la scène / Anthropomorphic and technological artificial characters on stageGallois, Aurélie 06 October 2017 (has links)
De grands metteurs en scène, précurseurs d’un nouveau théâtre, tels que Maurice Maeterlinck ou Edward Gordon Craig, souhaitaient représenter la vie en ne se contentant plus de la présence corporelle de l’acteur mais en incorporant des éléments conventionnels à la scène. Ils refusaient la simple imitation du réel au profit d'un théâtre artificiel et symbolique, avec pour problématiques les questions de la représentation de la figure humaine et de l’illusion du vivant. Cette volonté de s’émanciper du corps de l’acteur tel qu’il est dans l’usage privé, dans le quotidien, par l’utilisation de masques, de marionnettes ou encore des techniques de leur temps, comme des jeux de lumières ou des effets d’optiques, annonçait déjà l’apparition des nouveaux médias sur le plateau. C’est dans cette filiation que sont apparus sur scène, dans les années 1990, de nombreux personnages inorganiques créées grâce à des projections vidéo sur supports bi ou tridimensionnels, des hologrammes, et par la présence de robots humanoïdes et androïdes. On retrouve cette volonté de remplacer les corps des acteurs par des personnages artificiels utilisant les technologies de notre temps avec les personnages vidéo de Denis Marleau et Stéphanie Jasmin, les hologrammes de Michel Lemieux et Victor Pilon ou encore les robots d’Oriza Hirata. Ces personnages atypiques, qu’ils possèdent ou non une matérialité sur scène, qu’ils soient physiques ou virtuels, possèdent différents niveaux de présences suivant leur intégration au plateau et la dramaturgie, leur autonomie et leurs interactions avec leur environnement ou les corps réels qui leur donnent la réplique et avec lesquels ils partagent la scène. Comme nous allons le découvrir, ces nouvelles pratiques et esthétiques théâtrales visant à utiliser des Personnages Artificiels Anthropomorphes et Technologiques (PAAT) questionnent l’impact de notre époque en pleine révolution numérique et robotique sur nos corporéités et notre humanité, ce qui soulève un certain nombre d'enjeux... / Famous directors, precursors of a new theater, such as Maurice Materlinck or Edward Gordon Craig, wanted to represent life on stage, weaving some conventionnal elements into the stage, instead of just making the best of the bodily presence of the actor on stage. They repressed the very simple imitation of real for some artificial and symbolic theatre questionning the representation of human's figure and the illusion of the living. Getting rid of the actor's body like it is in its private use, in its everyday life, through the use of masks, puppets or even elder technologies as light works or optical effects, heralded the appearence of the new medias on stage. Thereby, emerged back in the 90's, many inorganic characters made with video projections in two or three dimensions, holograms, and the presence of humanoids and androids. We can find that will to replace the actors' bodies with artificial caracters using technological projections in Denis Marleau and Stéphanie Jasmin's video caracters, Michel Lemieux and Victor Pilon's holograms, and again in Oriza Hirata's robots. All these atypical characters, whether they own or not some materiality (or corporality) on stage, or that they are physical or virtual, all of these own different levels of presence according to their integration on stage and dramaturgy, to their self-suffiency and to the interplays they share with each their environnement and the real bodies with which they interact and perform. As we will see, these new theatrical and aesthetics practices that aim to use some Anthropomorphic and Technological Artificial Characters, do question the impact of our time, dealing with digital and robotic revolution, on our corporealities and our humanity, definitively raises a number of issues…
|
17 |
On pattern classification in motor imagery-based brain-computer interfaces / Méthodes d'apprentissage automatique pour les interfaces cerveau-machine basées sur l'imagerie motriceDalhoumi, Sami 19 November 2015 (has links)
Une interface cerveau-machine (ICM) est un système qui permet d'établir une communication directe entre le cerveau et un dispositif externe, en contournant les voies de sortie normales du système nerveux périphérique. Différents types d'ICMs existent dans la littérature. Parmi eux, les ICMs basées sur l'imagerie motrice sont les plus prometteuses. Elles sont basées sur l'autorégulation des rythmes sensorimoteurs par l'imagination de mouvement des membres différents (par exemple, imagination du mouvement de la main gauche et la main droite). Les ICMs basées sur l'imagerie motrice sont les meilleurs candidats pour les applications dédiées à des patients sévèrement paralysés mais elles sont difficiles à mettre en place parce que l'autorégulation des rythmes du cerveau n'est pas une tâche simple.Dans les premiers stades de la recherche en ICMs basées sur l'imagerie motrice, l'utilisateur devait effectuer des semaines, voire des mois, d'entrainement afin de générer des motifs d'activité cérébrale stables qui peuvent être décodés de manière fiable par le système. Le développement des techniques d'apprentissage automatique supervisé spécifiques à chaque utilisateur a permis de réduire considérablement la durée d'entrainement en ICMs. Cependant, ces techniques sont toujours confrontées aux problèmes de longue durée de calibrage et non-stationnarité des signaux cérébraux qui limitent l'utilisation de cette technologie dans la vie quotidienne. Bien que beaucoup de techniques d'apprentissage automatique avancées ont été essayées, ça reste toujours pas un problème non résolu.Dans cette thèse, j'étudie de manière approfondie les techniques d'apprentissage automatique supervisé qui ont été tentées afin de surmonter les problèmes de longue durée de calibrage et la non-stationnarité des signaux cérébraux en ICMs basées sur l'imagerie motrice. Ces techniques peuvent être classées en deux catégories: les techniques qui sont invariantes à la non-stationnarité et les techniques qui s'adaptent au changement. Dans la première catégorie, les techniques d'apprentissage par transfert entre différentes sessions et/ou différents individus ont attiré beaucoup d'attention au cours des dernières années. Dans la deuxième catégorie, différentes techniques d'adaptation en ligne des modèles d'apprentissage ont été tentées. Parmi elles, les techniques basées sur les potentiels d'erreurs sont les plus prometteuses. Les deux principales contributions de cette thèse sont basés sur des combinaisons linéaires des classificateurs. Ainsi, ces méthodes sont accordées un intérêt particulier tout au long de ce manuscrit. Dans la première contribution, je étudie l'utilisation de combinaisons linéaires des classificateurs dans les ICMs basées sur l'apprentissage par transfert et je propose une méthode de classification inter-sujets basée sur les combinaisons linéaires de classifieurs afin de réduire le temps de calibrage en ICMs. Je teste l'efficacité de la méthode de combinaison de classifieurs utilisée et j'étudie les cas ou l'apprentissage par transfert a un effet négatif sur les performances des ICMs. Dans la deuxième contribution, je propose une méthode de classification inter-sujets qui permet de combiner l'apprentissage par transfert l'adaptation en ligne. Dans cette méthode, l'apprentissage par transfert est effectué en combinant linéairement des classifieurs appris à partir de signaux EEG de différents sujets. L'adaptation en ligne est effectué en mettant à jours les poids de ces classifieurs d'une manière semi-supervisée. / A brain-computer interface (BCI) is a system that allows establishing direct communication between the brain and an external device, bypassing normal output pathways of peripheral neuromuscular system. Different types of BCIs exist in literature. Among them, BCIs based on motor imagery (MI) are the most promising ones. They rely on self-regulation of sensorimotor rhythms by imagination of movement of different limbs (e.g., left hand and right hand). MI-based BCIs are best candidates for applications dedicated to severely paralyzed patients but they are hard to set-up because self-regulation of brain rhythms is not a straightforward task.In early stages of BCI research, weeks and even months of user training was required in order to generate stable brain activity patterns that can be reliably decoded by the system. The development of user-specific supervised machine learning techniques allowed reducing considerably training periods in BCIs. However, these techniques are still faced with the problems of long calibration time and brain signals non-stationarity that limit the use of this technology in out-of-the-lab applications. Although many out-of-the-box machine learning techniques have been attempted, it is still not a solved problem.In this thesis, I thoroughly investigate supervised machine learning techniques that have been attempted in order to overcome the problems of long calibration time and brain signals non-stationarity in MI-based BCIs. These techniques can be mainly classified into two categories: techniques that are invariant to non-stationarity and techniques that adapt to the change. In the first category, techniques based on knowledge transfer between different sessions and/or subjects have attracted much attention during the last years. In the second category, different online adaptation techniques of classification models were attempted. Among them, techniques based on error-related potentials are the most promising ones. The aim of this thesis is to highlight some important points that have not been taken into consideration in previous work on supervised machine learning in BCIs and that have to be considered in future BCI systems in order to bring this technology out of the lab. The two main contributions of this thesis are based on linear combinations of classifiers. Thus, these methods are given a particular interest throughout this manuscript. In the first contribution, I study the use of linear combinations of classifiers in knowledge transfer-based BCIs and I propose a novel ensemble-based knowledge transfer framework for reducing calibration time in BCIs. I investigate the effectiveness of the classifiers combination scheme used in this framework when performing inter-subjects classification in MI-based BCIs. Then, I investigate to which extent knowledge transfer is useful in BCI applications by studying situations in which knowledge transfer has a negative impact on classification performance of target learning task. In the second contribution, I propose an online inter-subjects classification framework that allows taking advantage from both knowledge transfer and online adaptation techniques. In this framework, called “adaptive accuracy-weighted ensemble” (AAWE), inter-subjects classification is performed using a weighted average ensemble in which base classifiers are learned using EEG signals recorded from different subjects and weighted according to their accuracies in classifying brain signals of the new BCI user. Online adaptation is performed by updating base classifiers' weights in a semi-supervised way based on ensemble predictions reinforced by interaction error-related potentials.
|
18 |
Apprentissage artificiel collectif ; aspects dynamiques et structurels / Collective machine learning ; structural and dynamic aspectsVeillon, Lise-Marie 08 March 2018 (has links)
L’apprentissage collectif dans un système multi-agents considère comment une communauté constituée d’agents autonomes partageant un même objectif d’apprentissage peut bénéficier, au niveau individuel et collectif, d’échanges structurés d’informations. Les agents, reliés par un réseau de communication, ont tous la faculté de percevoir des observations, appelées exemples d’apprentissage. Cette thèse s’appuie sur un protocole pré-existant, SMILE (Sound-Multi-agent-Incremental-LEarning), qui organise un échange parcimonieux d’exemples et d’hypothèses. Ce protocole garantit, dans le cas d’agents tous connectés, que les agents obtiennent une hypothèse qui tient compte de tous les exemples perçus par l’ensemble des agents. Il existe des variantes séquentielles de ce protocole qui mettent en place une propagation de l’information pour offrir les mêmes garanties dans un réseau, non pas complet mais, connexe.Cette thèse apporte deux nouveaux éclairages sur l’apprentissage artificiel collectif. Une première étude montre l’influence de la structure du réseau sur l’apprentissage avec un protocole dont les communications sont limitées au voisinage, sans propagation. Une seconde contribution présente et analyse un nouveau protocole, Waves, qui préserve les garanties de SMILE et dont les interactions en parallèle rendent l’apprentissage en réseau plus dynamique. Ce protocole est évalué en détail,dans un contexte simplifié de tour par tour, ce qui permet de le raffiner par la suite avec diverses améliorations. Il est cependant conçu pour s’adapter à un apprentissage en ligne et une acquisition non limitée, ni en temps ni en nombre, de nouveaux exemples par la communauté. / Collective learning in multi-agent systems considers how a community of autonomous agents sharing a learning purpose may benefit from exchanging information to learn efficiently as a community as well as individuals. The community forms a communication network where each agent may accesses observations, called learning examples. This thesis is based on a former protocol, SMILE (Sound-Multi-agent-Incremental-LEarning), which sets up parsimonious examples and hypotheses exchanges between agents. In a fully connected community, this protocol guarantees an agent’s hypothesis takes into account all the examples obtained by the community. Some sequential protocols add propagation to SMILE in order to extend this consistency guarantee to other connected networks. This thesis contribution to the artificial collective learning field is two fold.First, we investigate the influence of network structures on learning in networks when communication is limited to neighbourhood without further information propagation. Second, we present and analyze a new protocol, Waves, with SMILE’s guarantees and a more dynamic learning process thanks to its execution in parallel. The evaluation of this protocol in a simple turn-based setting gives the opportunity to improve it here in multiple ways. It is however meant to be used with online learning without any restriction on the acquisition rate of new examples, neither on speed nor number.
|
19 |
Influence of Aging in the Warm Forming of 6xxx series Aluminum Alloys / Influence du vieillissement dans l’emboutissage à tière des alliages d’aluminium de la série 6xxxNeto Simoes, Vasco Manuel 21 December 2017 (has links)
Les alliages d’aluminium, présentant un rapport résistance-poids élevé, sont capables de répondre aux exigences de réduction de masse et d’augmentation de sécurité dans la construction de nouveaux véhicules. Cependant, lors des opérations d’emboutissage, ces alliages présentent une plus faible formabilité et un retour élastique plus élevé que les aciers traditionnellement utilisés. L’emboutissage à température moyenne (qualifiée de tiède) apparaît comme une solution très intéressante pour résoudre ces problèmes. Néanmoins, l’emboutissage pour les alliages d'aluminium de la série 6000, reste toujours un défi car la gamme de température utilisée est proche de celle utilisée lors des traitements thermiques de ces alliages. Ainsi l’augmentation de la température peut entraîner un durcissement par précipitation. En outre, ces alliages sont susceptibles de vieillir naturellement. Tous ces changements doivent être prédits pour éviter des variations dans le process de production. Dans ce contexte, l'objectif principal de ce travail a été d'analyser les conditions d’emboutissage à tiède de deux alliages d’Al-Mg-Si (l'EN AW 6016-T4 et l'EN AW 6061-T6), afin de d’améliorer la robustesse des opérations d’emboutissage. Des essais de traction et des essais d’emboutissage de godets cylindriques en température ainsi que des mesures de retour élastique (essai dit de Demeri) ont été effectués. Plusieurs paramètres comme le vieillissement naturel, la durée de chauffe et la vitesse d’emboutissage ont été étudiés afin de proposer des solutions permettant d’améliorer la robustesse des opérations d’emboutissage. L’emboutissage à tiède se révèle être une solution efficace pour améliorer la formabilité, réduire le retour élastique et la variabilité causée par le vieillissement naturel. Cependant, utiliser des vitesses d’emboutissage élevées et une chauffe rapide sont nécessaire pour éviter le durcissement par précipitation pendant l’emboutissage. / Heat treatable aluminum alloys present a high strength-to-weight ratio, which replies to the requirements of mass reduction and safety increase in the construction of new vehicles. However, in sheet metal forming operations, these alloys have lower formability and higher springback than traditionally mild steels used. In this context, forming in warm temperature appears as an attractive solution to solve these problems. Nevertheless, there is still a challenge since the temperature range used in warm forming is similar to one used in the heat treatment of these alloys. Thus increasing the temperature can lead to precipitation hardening, which modifies the thermo- mechanical behavior of the material. In addition, these alloys are prone to natural aging that causes variability in forming operations and increases the amount of scrap. The present study addresses the warm forming of two heat-treated Al-Mg-Si alloys (EN AW 6016-T4 and EN AW 6061-T6), in order to propose solutions that can contribute to the increase of robustness of sheet metal forming operations. The influence of natural aging, temperature and exposure time has been studied by using uniaxial tensile tests, cylindrical cup tests and the split ring tests. The main goal is to propose solutions to improve the robustness of the sheet metal forming process. Warm forming proves to be an effective solution for improving formability, reducing the springback and variability caused by natural aging. However, high forming speeds and fast heating are necessary to prevent precipitation hardening during forming operations.
|
20 |
Reconnaissance automatique des sillons corticauxPerrot, Matthieu 26 October 2009 (has links) (PDF)
La mise en évidence de biomarqueurs spéciques de pathologies cérébrales à l'échelle d'une population reste extrêmement dicile compte tenu de la variabilité inter-individuelle de la topographie sulco-gyrale. Cette thèse propose de répondre à cette diculté par l'identication automatique de 125 structures sulcales et leur mise en correspondance au travers des individus, à partir d'une base de 62 sujets labélisés manuellement. En s'appuyant sur la théorie des racines sulcales, les plissements corticaux sont découpés en entités élémentaires à labéliser. Dans une première phase, l'approche structurelle proposée précédemment par Jean-François Mangin et Denis Rivière a été revisitée pour faire face aux nombreux descripteurs morphomé- triques impliqués dans le processus d'identication. Dans une deuxième phase, cette modélisation a été reconsidérée intégralement au prot d'un cadre Bayésien exploitant des informations localisées (positions ou directions) négligées jusqu'alors, autorisant ainsi des schémas d'optimisation ecace. Dans ce cadre, la normalisation des données est essentielle ; cette question a été traitée sous la forme d'un processus de recalage ane global ou local à chaque sillon, de façon couplée au probl ème d'identication des sillons. Dans l'optique d'introduire plus d'information structurelle, une modélisation Markovienne traduisant une vue localisée de l'agencement entre plissements corticaux voisins a été introduite avec succès pour atteindre un taux de reconnaissance de plus de 86% pour chaque hémisphère. Seules les congurations atypiques ou les structures anatomiques les plus variables présentent encore de réelles dicultés.
|
Page generated in 0.0171 seconds