• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 286
  • 255
  • 81
  • 1
  • Tagged with
  • 623
  • 623
  • 623
  • 623
  • 623
  • 623
  • 114
  • 77
  • 67
  • 64
  • 48
  • 47
  • 39
  • 36
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Extraction d'informations à partir de documents<br />juridiques : application à la contrefaçon de marques

Renaux, Pierre 11 July 2006 (has links) (PDF)
Le cadre de nos recherches repose sur l'extraction et l'analyse de<br />connaissances à partir d'une source de données documentaire de type<br />juridique caractérisant les contrefaçons de marques nominatives. Cette<br />discipline reflète parfaitement toutes les contraintes appartenant aux<br />différents domaines intervenant dans le cadre de l'extraction de<br />connaissances à partir de documents : document électronique, bases de<br />données, statistiques, intelligence artificielle et interaction<br />homme/machine. Cependant, les performances de ces méthodes sont<br />étroitement liées à la qualité des données utilisées. Dans notre<br />contexte de recherche, chaque décision est supervisée par un rédacteur<br />(le magistrat) et dépend étroitement du contexte rédactionnel, limitant<br />les procédés d'extraction d'information. Nous nous intéressons donc aux<br />décisions susceptibles de biaiser l'apprentissage des documents. Nous<br />observons les fondements de celles-ci, déterminons leur importance<br />stratégique et le cas échéant nous proposons des solutions adaptées afin<br />de réorienter le biais observé vers une meilleure représentation des<br />documents. Nous proposons une approche exploratoire supervisée pour<br />évaluer la qualité des données impliquées, en déterminant les propriétés<br />biaisant la qualité de la connaissance établie ainsi qu'une plate-forme<br />interactive et collaborative de modélisation des processus conduisant à<br />l'extraction de connaissances afin d'intégrer efficacement le<br />savoir-faire de l'expert.
12

Mesure de surface 3D pour la caractérisation ostéo-musculaire de petits vertébrés : application à la caractérisation du vieillissement chez la souris

Duveau, Estelle 03 December 2012 (has links) (PDF)
L'analyse du comportement des petits animaux de laboratoire tels que rats et souris est fondamentale en recherche biologique. L'objectif de cette thèse est de faire des mesures anatomiques sur le squelette de souris à partir de vidéos et de démontrer la robustesse de ces mesures par une validation quantitative. Les principales difficultés viennent du sujet d'étude, la souris, qui, vu comme un objet géométrique, peut subir de grandes déformations très rapidement et des conditions expérimentales qui ne permettent pas d'obtenir des flux vidéos de même qualité que pour l'étude de l'humain. Au vu de ces difficultés, nous nous concentrons tout d'abord dans le Chapitre 2 sur la mise en place d'une méthode de recalage de squelette à l'aide de marqueurs collés sur la peau de l'animal. On montre que les effets de couplage non-rigide entre peau et squelette peuvent être contre-carrés par une pondération de l'influence des différents marqueurs dans la cinématique inverse. Cela nous permet de justifier que, malgré ce couplage non rigide, des informations sur la peau de l'animal sont suffisantes pour recaler de manière précise et robuste les structures squelettiques. Nous développons pour cela une chaîne de traitement de données morphologiques qui nous permet de proposer un modèle générique d'animation du squelette des souris. La méthode de cinématique inverse pondérée est validée grâce à des vidéos radiographiques. Ayant justifié de l'utilisation de points à la surface de la peau (l'enveloppe) pour recaler le squelette, nous proposons dans le Chapitre 3 un nouveau modèle de déformation de l'enveloppe. Ce modèle, appelé OQR (pour Oriented Quads Rigging, gréage de quadrilatères orientés), est une structure géométrique flexible possédant les bonnes propriétés de déformation de l'animation par cage. A l'instar des squelettes d'animation, elle permet d'avoir une paramétrisation haut-niveau de la morphologie et du mouvement. Nous montrons également comment, grâce à cette bonne déformation de l'enveloppe, nous pouvons utiliser les sommets du maillage déformé comme marqueurs pour la méthode de recalage du squelette du Chapitre 2. Dans les chapitres 2 et 3, nous avons construit un modèle de souris qui permet d'animer en même temps l'enveloppe et le squelette. Ce modèle est paramétré par OQR. Nous proposons donc dans le Chapitre 4 une méthode d'extraction de ces paramètres à partir soit d'une séquence de maillage sans cohérence temporelle soir directement à partir d'images segmentées. Pour contraindre le problème, nous faisons l'apprentissage d'un espace réduit de configurations d'OQR vraisemblables.
13

Reconnaissance automatique des dimensions affectives dans l'interaction orale homme-machine pour des personnes dépendantes

Chastagnol, Clément 04 October 2013 (has links) (PDF)
La majorité des systèmes de reconnaissance d'états affectifs est entrainée sur des données artificielles hors contexte applicatif et les évaluations sont effectuées sur des données pré-enregistrées de même qualité. Cette thèse porte sur les différents défis résultant de la confrontation de ces systèmes à des situations et des utilisateurs réels.Pour disposer de données émotionnelles spontanées au plus proche de la réalité, un système de collecte simulant une interaction naturelle et mettant en oeuvre un agent virtuel expressif a été développé. Il a été mis en oeuvre pour recueillir deux corpus émotionnels, avec la participation de près de 80 patients de centres médicaux de la région de Montpellier, dans le cadre du projet ANR ARMEN.Ces données ont été utilisées dans l'exploration d'approches pour la résolution du problème de la généralisation des performances des systèmes de détection des émotions à d'autres données. Dans cette optique, une grande partie des travaux menés a porté sur des stratégies cross-corpus ainsi que la sélection automatique des meilleurs paramètres. Un algorithme hybride combinant des techniques de sélection flottante avec des métriques de similitudes et des heuristiques multi-échelles a été proposé et appliqué notamment dans le cadre d'un challenge (InterSpeech 2012). Les résultats de l'application de cet algorithme offrent des pistes pour différencier des corpus émotionnels à partir des paramètres les plus pertinents pour les représenter.Un prototype du système de dialogue complet, incluant le module de détection des émotions et l'agent virtuel a également été implémenté.
14

Langage de modélisation spécifique au domaine pour les architectures logicielles auto-adaptatives

Křikava, Filip 22 November 2013 (has links) (PDF)
E calcul autonome vise à concevoir des logiciels qui prennent en compte les variations dans leur environnement d'exécution. Les boucles de rétro-action (FCL) fournissent un mécanisme d'auto-adaptation générique, mais leur intégration dans des systèmes logiciels soulève de nombreux défis. Cette thèse s'attaque au défi d'intégration, c.à.d. la composition de l'architecture de connexion reliant le système logiciel adaptable au moteur d'adaptation. Nous proposons pour cela le langage de modélisation spécifique au domaine FCDL. Il élève le niveau d'abstraction des FCLs, permettant l'analyse automatique et la synthèse du code. Ce langage est capable de composition, de distribution et de réflexivité, permettant la coordination de plusieurs boucles de rétro-action distribuées et utilisant des mécanismes de contrôle variés. Son utilisation est facilitée par l'environnement de modélisation ACTRESS qui permet la modélisation, la vérification et la génération du code. La pertinence de notre approche est illustrée à travers trois scénarios d'adaptation réels construits de bout en bout. Nous considérons ensuite la manipulation de modèles comme moyen d'implanter ACTRESS. Nous proposons un Langage Spécifique au Domaine interne qui utilise Scala pour implanter une famille de DSLs. Il permet la vérification de cohérence et les transformations de modèles. Les DSLs résultant ont des propriétés similaires aux approches existantes, mais bénéficient en plus de la souplesse, de la performance et de l'outillage associés à Scala. Nous concluons avec des pistes de recherche découlant de l'application de l'IDM au domaine du calcul autonome.
15

Interaction affective et expressive. Compagnon artificiel-humain

Riviere, Jeremy 10 October 2012 (has links) (PDF)
Le but de ce travail de thèse est de rendre sincère un Agent Conversationnel Animé (ACA) pour, d'une part, améliorer sa crédibilité du point de vue de l'humain, et d'autre part contribuer à le rendre acceptable dans une relation privilégiée compagnon artificiel - humain. La première partie de ce travail consiste en la création d'un Langage de Conversation Multimodal (LCM) pour ACA, constitué d'Actes de Conversation Multimodaux (ACM) tels que promettre, s'excuser ou exiger : ces ACM permettent à l'agent d'être crédible dans sa sincérité, en exprimant multimodalement ses états mentaux de façon appropriée. Les états mentaux portés par les ACM sont formalisés en logique : la volonté de représenter des états mentaux issus de raisonnements complexes (basés d'une part sur le raisonnement contrefactuel et d'autre part sur les normes et les buts de l'agent), dont l'expression se fait avant tout par le langage (Oatley 1987), a amené à mettre en place le modèle BIGRE (Beliefs, Ideals, Goals, Responsibility, Emotions). Ce modèle, basé sur une logique de type BDI (Belief, Desire, Intention), permet de représenter également des émotions que nous appelons complexes, telles que la réjouissance, la gratitude ou le regret. La catégorie expressive des ACM contient les actes exprimant ces émotions complexes (e.g. remercier, regretter) : l'expression se fait par le langage, conjointement aux autres expressions multimodales appropriées. Le LCM est implémenté dans l'ACA Greta, ce qui permet une évaluation de ce langage en termes de crédibilité et de sincérité perçues par l'humain. La deuxième partie de ce travail porte sur les capacités de raisonnement de l'ACA : dans le but de permettre à l'agent de raisonner dans le dialogue, c'est-à-dire mettre à jour ses états mentaux et ses émotions et sélectionner son intention communicative, un moteur de raisonnement a été mis en place. Ce moteur de raisonnement est basé sur le cycle de comportement BDI - Perception, Décision, Action - et les opérateurs du modèle BIGRE, permettant ainsi la manipulation d'états mentaux issus de raisonnements complexes (dont les émotions complexes). Les ACM qui composent notre langage sont intégrés dans le moteur, et sont utilisés pour atteindre l'intention communicative de l'ACA : par exemple, si l'agent a l'intention d'exprimer sa gratitude, il construit un plan pour satisfaire son intention, formé des ACM remercier ou féliciter, selon le degré de l'émotion. Un type d'intention communicative, déclenché par des règles d'obligation du discours, participe à la régulation locale du dialogue. L'ACA étant de plus affectif, sa sincérité l'amène à exprimer toutes ses émotions. La généricité de ce moteur de raisonnement permet de l'implémenter dans l'ACA Greta (où il est en lien avec le LCM) et dans l'agent MARC. L'expression multimodale des ACM avec l'agent MARC a été rendue possible par l'intégration des checks de Scherer dans le moteur de raisonnement que nous avons adapté au contexte du dialogue. Une évaluation du moteur de raisonnement avec l'agent MARC montre que les états mentaux déduits par le moteur sont appropriés à la situation, et que leur expression (l'expression de la sincérité de l'agent) est également appropriée.
16

Intégration du déploiement de flotte et du service aux passagers dans la gestion de la planification pour compagnie aérienne

Duquesne, Christophe-Marie 14 January 2013 (has links) (PDF)
Étant donnés un planning aérien et des prévisions de demande, le problème d'affectation de flotte aérienne consiste à déterminer la meilleure façon de répartir les types d'appareils sur les vols. Cette répartition a un impact majeur sur le profit d'une compagnie aérienne, puisqu'elle détermine les quantités de places disponibles sur les itinéraires du réseau aérien, ainsi que le coût de fonctionnement de celui-ci. Des décennies de recherche ont rendues les modélisations de ce problème de plus en plus réalistes. Cette thèse s'inscrit dans la continuité de ces recherches en considérant le problème d'affectation de flotte dans un contexte où les demandes des passagers sont incertaines. Nous proposons dans un premier temps une étude autour des deux modèles de la littérature les plus utilisés dans l'industrie, FAM et IFAM. Nous montrons que FAM peut être vu comme une Relaxation Lagrangienne de IFAM, avec des multiplicateurs Lagrangiens particuliers. Nous implémentons cette relaxation, et nous appliquons des résultats connus pour l'étendre en une génération de colonnes basée sur une décomposition de Dantzig-Wolfe de IFAM. Nous étudions ensuite les effets que l'imprécision des prévisions peut avoir sur la performance d'IFAM, et nous présentons au terme de cette étude une nouvelle approche pour modéliser le problème d'affectation de flotte. Notre modèle, Market Driven Fleet Assignment Model (MDFAM), intègre les demandes par itinéraires comme variables de décision, et contraint ces demandes plutôt que de les considérer comme une entrée fixe. Nous appelons les contraintes résultantes des contraintes de Marché. Nous illustrons la flexibilité de cette approche à travers divers exemples, et nous proposons une série d'expériences visant à déterminer quelles sont les contraintes de marché donnant les meilleurs résultats. Nous comparons les différents modèles, et nous montrons que MDFAM peut atteindre des niveaux de performance similaires à ceux offert par IFAM, tout en étant plus facile à utiliser et à implémenter.
17

La mémoire dans les algorithmes à colonie de fourmis : applications à l'optimisation combinatoire et à la programmation automatique

Roux, Olivier 13 December 2001 (has links) (PDF)
Dans ce mémoire, nous presentons les meta-heuristiques inspirées du comportement des fourmis lors de la recherche de nourriture, les OCF. Nous confrontons ces méthodes face aux principales méta-heuristiques connues. Pour cela, nous proposons de nous placer sous le point de vue de l'utilisation de la mémoire et nous présentons taxinomie qui étend celle des AMP. Nous proposons deux nouvelles adaptations du modéle des fourmis. La premiere est l'algorithme ANTabu, il s'agit d'une méthode hybride pour la résolution du PAQ. Il associe l'utilisation des fourmis artificielles et d'une méthode de recherche locale robuste : la recherche tabou. Le parallélisme intrinseque des systèmes de fourmis nous a amene a developper un modele paralléle pour ANTabu.<br />Cette méthode intègre également une puissante fonction de diversification et l'utilisation de bornes qui lui permettent d'eviter d'être piege au niveau d'optima locaux.<br />La seconde application développee est AP, cet algorithme est l'adaptation du modèle de coopération des fourmis a la programmation automatique. Son mécanisme de fonctionnement<br />est simple, puisque à chaque itération on crée une nouvelle population en utilisant l'information emmagasinée par la phéromone. L'intérêt de cette gestion de l'information est qu'elle n'utilise pas de mécanismes complexes. Nous présentons cette méthode face a l'algorithme de base tel que Koza l'a défini.
18

BSP-Why, un outil pour la vérification déductive de programmes BSP : machine-checked semantics and application to distributed state-space algorithms

Fortin, Jean 14 October 2013 (has links) (PDF)
This thesis takes part in the formal verification of parallel programs. The aim of formal verification is to ensure that a program will run as it should, without making mistakes, blocking, or terminating abnormally. This is even more important in the parallel computation field, where the cost of calculations can be very high. The BSP model (Bulk Synchronous Parallelism) is a model of parallelism well suited for the use of formal methods. It guarantees a structure in the parallel program, by organising it into super-steps, each of them consisting of a phase of computations, then communications between the processes. In this thesis, we chose to extend an existing tool to adapt it for the proof of BSP programs. We based ourselves on Why, a VCG (verification condition generator) that has the advantage of being able to interface with several automatic provers and proof assistants to discharge the proof obligations. There are multiple contributions in this thesis. In a first part, we present a comparison of the existing BSP libraries, in order to show the most used BSP primitives, which are the most interesting to formalise. We then present BSP-Why, our tool for the proof of BSP programs. This tools uses a generation of a sequential program to simulate the parallel program in input, thus allowing the use of Why and the numerous associated provers to prove the proof obligations. We then show how BSP-Why can be used to prove the correctness of some basic BSP algorithms, and also on a more complex example, the generation of the state-space (model-checking) of systems, especially for security protocols. Finally, in order to ensure the greatest confidence in the BSP-Why tool, we give a formalisation of the language semantics, in the Coq proof assistant. We also prove the correctness of the transformation used to go from a parallel program to a sequential program
19

Bornes inférieures et supérieures dans les circuits arithmétiques

Tavenas, Sébastien 09 July 2014 (has links) (PDF)
La complexité arithmétique est l'étude des ressources nécessaires pour calcu- ler des polynômes en n'utilisant que des opérations arithmétiques. À la fin des années 70, Valiant a défini (de manière semblable à la complexité booléenne) des classes de polynômes. Les polynômes, ayant des circuits de taille polyno- miale, considérés faciles forment la classe VP. Les sommes exponentielles de ces derniers correpondent alors à la classe VNP. L'hypothèse de Valiant est la conjecture que VP ̸= VNP.Bien que cette conjecture soit encore grandement ouverture, cette dernière semble toutefois plus accessible que son homologue booléen. La structure algé- brique sous-jacente limite les possibilités de calculs. En particulier, un résultat important du domaine assure que les polynômes faciles peuvent aussi être cal- culés efficacement en paralèlle. De plus, quitte à autoriser une augmentation raisonnable de la taille, il est possible de les calculer avec une profondeur de calcul bornée par une constante. Comme ce dernier modèle est très restreint, de nombreuses bornes inférieures sont connues. Nous nous intéresserons en premier temps à ces résultats sur les circuits de profondeur constante.Bürgisser a montré qu'une conjecture (la τ-conjecture) qui borne supérieu- rement le nombre de racines de certains polynômes univariés, impliquait des bornes inférieures en complexité arithmétique. Mais, que se passe-t-il alors, si on essaye de réduire, comme précédemment, la profondeur du polynôme consi- déré? Borner le nombre de racines réelles de certaines familles de polynômes permetterait de séparer VP et VNP. Nous étudierons finalement ces bornes su- périeures sur le nombre de racines réelles.
20

Analyse de sécurité de logiciels système par typage statique

Millon, Etienne 10 July 2014 (has links) (PDF)
Les noyaux de systèmes d'exploitation manipulent des données fournies par les programmes utilisateur via les appels système. Si elles sont manipulées sans prendre une attention particulière, une faille de sécurité connue sous le nom de Confused Deputy Problem peut amener à des fuites de données confidentielles ou l'élévation de privilèges d'un attaquant. Le but de cette thèse est d'utiliser des techniques de typage statique afin de détecter les manipulations dangereuses de pointeurs contrôlés par l'espace utilisateur. La plupart des systèmes d'exploitation sont écrits dans le langage C. On commence par en isoler un sous-langage sûr nommé Safespeak. Sa sémantique opérationnelle et un premier système de types sont décrits, et les propriétés classiques de sûreté du typage sont établies. La manipulation des états mémoire est formalisée sous la forme de lentilles bidirectionnelles, qui permettent d'encoder les mises à jour partielles des états et variables. Un première analyse sur ce langage est décrite, permettant de distinguer les entiers utilisés comme bitmasks, qui sont une source de bugs dans les programmes C.

Page generated in 0.2637 seconds