Spelling suggestions: "subject:"artificiell"" "subject:"artificiels""
91 |
Un Mécanisme Constructiviste d'Apprentissage Automatique d'Anticipations pour des Agents Artificiels SituésStudzinski Perotto, Filipo 01 July 2010 (has links) (PDF)
Cette recherche se caractérise, premièrement, par une discussion théorique sur le concept d'agent autonome, basée sur des éléments issus des paradigmes de l'Intelligence Artificielle Située et de l'Intelligence Artificielle Affective. Ensuite, cette thèse présente le problème de l'apprentissage de modèles du monde, en passant en revue la littérature concernant les travaux qui s'y rapportent. À partir de ces discussions, l'architecture CAES et le mécanisme CALM sont présentés. CAES (Coupled Agent-Environment System) constitue une architecture pour décrire des systèmes basés sur la dichotomie agent-environnement. Il définit l'agent et l'environnement comme deux systèmes partiellement ouverts, en couplage dynamique. L'agent, à son tour, est composé de deux sous-systèmes, l'esprit et le corps, suivant les principes de la situativité et de la motivation intrinsèque. CALM (Constructivist Anticipatory Learning Mechanism) est un mécanisme d'apprentissage fondé sur l'approche constructiviste de l'Intelligence Artificielle. Il permet à un agent situé de construire un modèle du monde dans des environnements partiellement observables et partiellement déterministes, sous la forme d'un processus de décision markovien partiellement observable et factorisé (FPOMDP). Le modèle du monde construit est ensuite utilisé pour que l'agent puisse définir une politique d'action visant à améliorer sa propre performance.
|
92 |
Prévision des crues au pas de temps horaire : pour une meilleure assimilation de l'information de débit dans un modèle hydrologiqueBerthet, Lionel 19 February 2010 (has links) (PDF)
La modélisation hydrologique Pluie - Débit compte parmi les outils incontournables pour prévoir les crues, car elle permet d'atteindre des horizons plus lointains que de nombreuses autres méthodes. Pour tenter d'améliorer la qualité des prévisions, les hydrologues ont proposé de nombreuses approches d'assimilation de données. Cette thèse s'intéresse à un modèle Pluie - Débit fonctionnant au pas de temps horaire. Elle propose une comparaison de nombreuses méthodes de mise-à-jour de ce modèle par l'assimilation de la donnée de débit observé à l'exutoire du bassin versant, dans le but de fournir des prévisions de crue à des horizons allant de quelques heures à quelques jours. Les mises-à-jour étudiées portent sur les paramètres du modèle, ses états et ses sorties. Certaines sont déterministes, d'autres probabilistes. Ce travail a permis de mettre en avant l'interaction qui existe entre la structure du modèle hydrologique et les mises-à-jour. Ces deux éléments se caractérisent par des dynamiques temporelles différentes. Nos résultats plaident pour que le modèle soit considéré comme un tout et non comme la juxtaposition d'un modèle hydrologique et d'une procédure de mise-à-jour. Il nous paraît préférable d'optimiser la structure et de caler le modèle en tenant compte des mises-à-jour qui seront appliquées. Le modèle donnant les meilleures prévisions associe une structure hydrologique très proche de celle obtenue au pas de temps journalier et deux mises-à-jour du modèle, l'une modifiant un état crucial du modèle, l'autre corrigeant ses sorties par un réseau de neurones artificiels. Cette combinaison a été évaluée à l'aide d'une sélection de critères de performance adaptés à l'objectif du modèle, sur un vaste ensemble de bassins versants français. Ses performances sont robustes et se comparent favorablement à d'autres modèles de prévision.
|
93 |
Acquisition automatique de lexiques sémantiques pour la recherche d'informationClaveau, Vincent 17 December 2003 (has links) (PDF)
De nombreuses applications du traitement automatique des langues (recherche d'information, traduction automatique, etc.) requièrent des ressources sémantiques spécifiques à leur tâche et à leur domaine. Pour répondre à ces besoins spécifiques, nous avons développé ASARES, un système d'acquisition d'informations sémantiques lexicales sur corpus. Celui-ci répond à un triple objectif : il permet de fournir des résultats de bonne qualité, ses résultats et le processus ayant conduit à leur extraction sont interprétables, et enfin, il est assez générique et automatique pour être aisément portable d'un corpus à un autre. Pour ce faire, ASARES s'appuie sur une technique d'apprentissage artificiel symbolique --- la programmation logique inductive --- qui lui permet d'inférer des patrons d'extraction morphosyntaxiques et sémantiques à partir d'exemples des éléments lexicaux sémantiques que l'on souhaite acquérir. Ces patrons sont ensuite utilisés pour extraire du corpus de nouveaux éléments. Nous montrons également qu'il est possible de combiner cette approche symbolique avec des techniques d'acquisition statistiques qui confèrent une plus grande automaticité à ASARES. Pour évaluer la validité de notre méthode, nous l'avons appliquée à l'extraction d'un type de relations sémantiques entre noms et verbes définies au sein du Lexique génératif appelées relations qualia. Cette tâche d'acquisition revêt deux intérêts principaux. D'une part, ces relations ne sont définies que de manière théorique ; l'interprétabilité linguistique des patrons inférés permet donc d'en préciser le fonctionnement et les réalisations en contexte. D'autre part, plusieurs auteurs ont noté l'intérêt de ce type de relations dans le domaine de la recherche d'information pour donner accès à des reformulations sémantiquement équivalentes d'une même idée. Grâce à une expérience d'extension de requêtes, nous vérifions expérimentalement cette affirmation : nous montrons que les résultats d'un système de recherche exploitant ces relations qualia, acquises par ASARES, sont améliorés de manière significative quoique localisée.
|
94 |
Toucher artificiel à base d'un microcapteur d'effort: traitement du signal et des informations associéesDe Boissieu, Florian 07 May 2010 (has links) (PDF)
Ce travail de thèse présente la conception, la caractérisation et l'utilisation d'un système de toucher artificiel pour l'étude de la reconnaissance tactile de textures. Le système de toucher artificiel se compose d'un doigt artificiel et d'un dispositif d'exploration permettant un déplacement automatisé du doigt sur les échantillons. Le doigt artificiel fonctionne grâce à un micro-capteur d'efforts tri-axes MEMS recouvert d'une peau artificielle (ou enrobage) en polyuréthane. Le MEMS mesure ainsi les trois composantes spatiales des efforts transmis par l'enrobage lorsque celui-ci est sollicité. Afin de déplacer le doigt artificiel et ainsi d'explorer des surfaces, deux dispositifs motorisés ont été successivement conçus. Grâce au premier dispositif, nous avons rapidement mis en place des expériences d'exploration de surfaces, afin d'évaluer les possibilités de discrimination de textures de notre doigt artificiel. Le second dispositif, permet une meilleure maitrise des différents paramètres de l'exploration comme la vitesse de déplacement ou la force appliquée. Il permet également de caractériser le doigt artificiel, lors d'une simple mise en contact ou pendant la friction du doigt sur une surface. Une étude de ce type a notamment permis une meilleure compréhension du comportement du doigt artificiel et des phénomènes mis en jeu lors de l'exploration tactile de textures. Les premières expériences d'exploration de surfaces montrent une bonne sensibilité du doigt artificiel pour la détection de la périodicité de l'armure d'un tissu, ou pour la discrimination de deux textures de différentes natures (papier v.s. tissu). Le doigt artificiel est ensuite évalué avec une expérience de discrimination de 10 textures de papiers. Les signaux d'exploration obtenus de cette expérience mettent en évidence certains problèmes de reproductibilité des mesures. Toutefois, associé à plusieurs algorithmes de classification mis en place, le doigt artificiel montre de bonnes performances à la discrimination des 10 textures, particulièrement grâce aux caractéristiques spectrales extraites du signal. Plusieurs réalisations de cette expérience, avec différents protocoles de mesures, permettent de valider les résultats de classification, et d'étayer certaines hypothèses sur le comportement de notre système de toucher artificiel et plus généralement à propos de la reconnaissance tactile de textures.
|
95 |
Extraction d'information pour l'édition et la synthèse par l'exemple en rendu expressifLandes, Pierre-Edouard 17 February 2011 (has links) (PDF)
Cette thèse prend pour cadre la synthèse par l'exemple et l'édition de contenu graphique en infographie et propose une réflexion sur les possibles sources d'information utiles à ces fins. Contrairement aux techniques "procédurales", l'approche par l'exemple se distingue par sa grande simplicité d'utilisation : reviennent en effet à l'algorithme de synthèse l'identification, analyse et reproduction des éléments caractéristiques des exemples fournis en entrée par l'utilisateur. Ce mode de création de même que les techniques approfondies d'édition ont grandement contribué à la facilitation de la production à grande échelle de contenus graphiques convaincants et ainsi participé à l'adoption par la communauté des artistes des outils proposés par le support numérique. Mais pour être ainsi exploitées, celles-ci doivent également être hautement contrôlables tout en évitant l'écueil de n'être que le simple prolongement de la main de l'artiste. Nous explorons ici cette thématique dans le cadre de la création de rendus dits expressifs et étudions les interactions (collaboratives ou concurrentielles) entre les différentes sources d'information au cœur de ce processus. Ces dernières sont à notre sens au nombre de trois : l'analyse automatique des données d'entrée avant rendu ou traitement ; l'utilisation de modèles a priori en vue de leur compréhension ; et enfin le contrôle explicite par l'utilisateur. En les combinant au plus juste, nous proposons des techniques nouvelles dans divers domaines de la synthèse en rendu expressif. Au delà du réalisme photographique, le rendu expressif se caractérise par sa poursuite de critères plus difficilement quantifiables tels la facilité de compréhension ou le caractère artistique de ses résultats. La subjectivité de tels objectifs nous force donc ici plus qu'ailleurs à estimer avec soin les sources d'information à privilégier, le niveau d'implication à accorder à l'utilisateur (sans que ce choix ne s'opère au détriment de la qualité théorique de la méthode), ainsi que le possible recours à des modèles d'analyse (sans en compromettre la généralité). Trois principales instances de synthèse sont ici détaillés : la génération de textures, la désaturation d'images, et la représentation de maillages par le dessin au trait. La grande variété des données d'entrée (textures matricielles ou vectorielles, images complexes, géométries 3d), des modalités de synthèse (imitation, conversion, représentation alternative) et d'objectifs (reproduction de la signature visuelle d'une texture, restitution crédible de contrastes chromatiques, génération de dessins conformes au style de l'utilisateur) permettent l'examen de divers équilibres entre ces sources d'information et l'exploration de degrés plus ou moins élevés d'interaction avec l'utilisateur.
|
96 |
Nouvelles stratégies d'analyses et de prédiction des structures tridimensionnelles des protéinesDe Brevern, Alexandre 06 February 2001 (has links) (PDF)
Caractériser la structure tridimensionnelle des protéines avec les structures secondaires classiques est assez pauvre structurellement. Nous avons donc développé une nouvelle méthodologie pour concevoir des séries de petits prototypes moyens nommés Blocs Protéiques (BPs) qui permettent une bonne approximation des structures protéiques. L'analyse de la spécificité des blocs protéiques a montré leur stabilité et leur spécificité sur le plan structural. Le choix final du nombre de BPs est associé a une prédiction locale correcte.<br />Cette prédiction se base avec une méthode bayésienne qui permet de comprendre l'importance des acides aminés de maniè;re simple. Pour améliorer cette prédiction, nous nous sommes bases sur deux concepts : (i) 1 repliement local -> n séquences et (ii) 1 séquence -> n repliements. Le premier concept signifie que plusieurs types de séquences peuvent être associes a la même structure et le second qu'une séquence peut-être associée a plusieurs type de repliements. Ces deux aspects sont développés en se basant sur la recherche d'un indice de fiabilité lie a la prédiction locale, pour trouver des zones de fortes probabilités. Certains mots, i.e. successions de blocs protéiques apparaissent plus fréquemment que d'autres. Nous avons donc défini au mieux quelle est l'architecture de ces successions, les liens existants entre ces différents mots.<br />Du fait de cette redondance qui peut apparaìtre dans la structure protéique, une méthode de compactage qui permet d'associer des structures structurellement proches sur le plan local a été mise au point. Cette approche appelée "protéine hybride" de conception simple permet de catégoriser en classes "structurellement dépendantes" l'ensemble des structures de la base de données protéiques. Cette approche, en plus du compactage, peut être utilisée dans une optique différente, celle de la recherche d'homologie structurale et de la caractérisation des dépendances entre structures et séquences.
|
97 |
Contributions à l'apprentissage et l'inférence adaptatifs : Applications à l'ajustement d'hyperparamètres et à la physique des astroparticulesBardenet, Rémi 19 November 2012 (has links) (PDF)
Les algorithmes d'inférence ou d'optimisation possèdent généralement des hyperparamètres qu'il est nécessaire d'ajuster. Nous nous intéressons ici à l'automatisation de cette étape d'ajustement et considérons différentes méthodes qui y parviennent en apprenant en ligne la structure du problème considéré.La première moitié de cette thèse explore l'ajustement des hyperparamètres en apprentissage artificiel. Après avoir présenté et amélioré le cadre générique de l'optimisation séquentielle à base de modèles (SMBO), nous montrons que SMBO s'applique avec succès à l'ajustement des hyperparamètres de réseaux de neurones profonds. Nous proposons ensuite un algorithme collaboratif d'ajustement qui mime la mémoire qu'ont les humains d'expériences passées avec le même algorithme sur d'autres données.La seconde moitié de cette thèse porte sur les algorithmes MCMC adaptatifs, des algorithmes d'échantillonnage qui explorent des distributions de probabilité souvent complexes en ajustant leurs paramètres internes en ligne. Pour motiver leur étude, nous décrivons d'abord l'observatoire Pierre Auger, une expérience de physique des particules dédiée à l'étude des rayons cosmiques. Nous proposons une première partie du modèle génératif d'Auger et introduisons une procédure d'inférence des paramètres individuels de chaque événement d'Auger qui ne requiert que ce premier modèle. Ensuite, nous remarquons que ce modèle est sujet à un problème connu sous le nom de label switching. Après avoir présenté les solutions existantes, nous proposons AMOR, le premier algorithme MCMC adaptatif doté d'un réétiquetage en ligne qui résout le label switching. Nous présentons une étude empirique et des résultats théoriques de consistance d'AMOR, qui mettent en lumière des liens entre le réétiquetage et la quantification vectorielle.
|
98 |
Logiciels de traduction automatique: protection, responsabilitéCôté, André J. 07 1900 (has links)
La présente recherche a pour but de faire le point sur l'état du droit canadien et sur ses perspectives futures en relation avec les œuvres créées par ordinateurs. L'outil terminologique choisi pour notre objectif est le logiciel de traduction automatique multilingue qui, à cause de sa complexité, s'éloigne le plus du programmeur « créateur» et se rapproche le plus d'œuvres qui ne peuvent être directement attribuées aux linguistes et programmeurs. Ces outils et leurs créations seront d'après nous les prochains outils technologiques à confronter le droit. En effet, dans un avenir prévisible, considérant l'évolution technologique, ces logiciels produiront des textes qui bénéficieront d'une valeur commerciale ajoutée et c'est alors que certains feront valoir leurs « droits », non seulement sur les textes mais aussi sur la technologie. Pour atteindre cet objectif, nous débuterons par un retour historique sur la technologie et ses origines. Par la suite, nous ferons une analyse de la protection actuelle accordée aux logiciels, aux banques de données et aux traductions qu'ils produisent. Nous déterminerons ensuite qui sera responsable des textes produits en relation avec le texte d'origine et avec sa résultante au niveau du droit d'auteur et de celui de la responsabilité civile. Cette recherche nous amènera à conclure que le droit actuel est « mésadapté » tant à l'égard de la protection qu'au niveau de la responsabilité. Ces conclusions devront d'après nous imposer un retour aux principes fondamentaux du droit. Ce fondamentalisme légal sera pour nous le prix à payer pour la légitimité. En effet, plus particulièrement concernant le droit d'auteur, nous conclurons qu'il devra cesser d'être le « fourre-tout» du droit de la propriété intellectuelle et redevenir ce qu'il doit être: un droit qui protège la créativité. Cette démarche prospective tirera ses racines du fait que nous serons obligés de conclure que les juristes canadiens ont refusé, à tort à notre point de vue, de renvoyer au monde des brevets les méthodes et procédés nouveaux et inventifs, ce qui donc a introduit des problématiques inutiles qui exacerbent l'incertitude. Finalement, notre cheminement nous dirigera vers le droit de la responsabilité où nous soutiendrons que le fournisseur ne peut actuellement être responsable du texte produit puisqu'il ne participe pas directement aux choix et ne porte pas atteinte au contenu. Voici donc en quelques mots le cœur de notre recherche qui entrouvre une boîte de Pandore. / The aim of this research is to take stock of the state of the Canadian law and its perspectives for the future in relationship with computer-generated work. The terminology tool chosen is the multilingual automatic translation software that, because of its complexity, drifts out of the most from "creative" programs. In fact, it is closer to creations that cannot be directly c1aimed for by linguists and programmers. These tools and their work will be, according to us, the next technological tool to confront the law. Indeed in a foreseeable future, considering technological evolution, these software will produce texts with an added market value and then some people will realize their "interests" not only on texts but also on technology. To achieve this, we will start by a historical return on the technology and its origins. After we will analyse the present protection accorded to software, data banks and translations they create. We will then determine who is responsible for the texts produced in relation with the original text and its resultant at the level of the copyright and that of the third party liability. This study will conclude that the present law is "unsuited" with respect to protection and responsibility. According to us, these conclusions will have to command a return to the fundamental principles of law. This legal fundamentalism will be the price we have to pay for legal sufficiency. Indeed, particularly regarding copyright, we will conclude that it needs to cease being a "rag-bag" for intellectual property law and it needs to become again what it should be : a right that protects creativity. This forward-Iooking approach will take its roots from the fact that we will be obligated to conclude that Canadian jurists have, from our perspective, incorrectly refused to send back to the patent world the methods and processes, new and inventive. As an effect, this has introduced useless problems that exacerbate uncertainty. Finally, our line of thought will direct us to the responsibility law where we will submit that the provider cannot actually be responsible for the text created because he does not participate directly to the choices and he does not go to the content. This is in summary the heart of our study that half-opens a Pandora's box.
|
99 |
Étude de techniques d'apprentissage non-supervisé pour l'amélioration de l'entraînement supervisé de modèles connexionnistesLarochelle, Hugo January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
|
100 |
Contrôle des performances des antennes par les métamatériaux Antennas performances contro by metamaterialsAyad, Houssam 02 June 2012 (has links) (PDF)
Le travail de cette thèse est en rapport avec les métamatériaux et ses applications. Tout d'abord, un état de l'art est dressé en présentant leur évolution depuis leur apparition en 19ème siècle jusqu'au nos jours. Les notions sur les milieux chirale, bi-anisotrope, cristaux photoniques et quelques applications dans ces milieux sont données. Ensuite, nous présentons les équations classiques de Maxwell dans les milieux complexes. L'effet bi-anisotrope dans les métamatériaux est ensuite validé par l'extraction des paramètres caractéristiques du matériau main gauche (LHM). La validation a été faite en utilisant deux types différents du résonateur avec inclusion (SRR). Les métamatériaux sont également étudiés comme des cristaux photoniques quand les dimensions utilisées sont de l'ordre de la longueur d'onde correspondant.De plus, les résonateurs SRR et multi-SRR sont analysés du point de vue analytique et électromagnétique afin d'extraire leur fréquence de résonance. Par conséquent, ces composants peuvent être introduits dans différents types de conception; La surface conductrice magnétique artificielle (AMC) illustre un cas explicite et efficace de ces derniers. Une antenne dipôle, placée sur cette surface à la place d'un plan de masse conventionnel, a été étudiée comme une application des métamatériaux. Les résultats relatifs sur la directivité, le gain et le coefficient de réflexion montrent une nette amélioration. Une antenne multi-bandes, comme une autre application des métamatériaux, a également été conçue et simulée. Le résonateur SRR est inséré dans l'antenne de départ afin de créer une autre résonance, et par conséquent une autre bande est ainsi créée.
|
Page generated in 0.061 seconds