• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 405
  • 290
  • 114
  • 4
  • 3
  • Tagged with
  • 869
  • 869
  • 527
  • 318
  • 307
  • 282
  • 264
  • 263
  • 242
  • 217
  • 207
  • 205
  • 202
  • 200
  • 197
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Der Mensch und die künstliche Intelligenz : philosophische Argumente für den Unterschied zwischen Mensch und Maschine /

Erassme, Rolf. January 1900 (has links)
Diss.--Aachen--Rheinisch Westfälische Technische Hochschule, 2002. / Bibliogr. p. 332-356.
22

Intergiciel multi agents orienté web sémantique pour le développement d'applications ubiquitaires sensibles au contexte

Chibani, Abdelghani Amirat, Yacine. January 2008 (has links) (PDF)
Thèse de doctorat : Informatique. Intelligence artificielle : Paris 12 : 2006. / Thèse uniquement consultable au sein de l'Université Paris 12 (Intranet). Titre provenant de l'écran-titre. Bibliogr. : 154 réf.
23

Ordonnancement d'ateliers sous contraintes de disponibilité des machines

Aggoune, Riad. Portmann, Marie-Claude January 2008 (has links) (PDF)
Reproduction de : Thèse de doctorat : Automatique (Recherche opérationnelle) : Metz : 2002. / Titre provenant de l'écran-titre. Notes bibliographiques.
24

Contribution à la résolution des processus de décision markoviens décentralisés

Szer, Daniel Charpillet, François. January 2006 (has links) (PDF)
Thèse doctorat : Informatique : Nancy 1 : 2006. / Titre provenant de l'écran-titre.
25

GEMAS : un environnement de développement d'applications basées sur les systèmes multi-agents hétérogènes

Brunet, Charles-Antoine. January 2001 (has links)
Thèses (Ph.D.)--Université de Sherbrooke (Canada), 2001. / Titre de l'écran-titre (visionné le 20 juin 2006). Publié aussi en version papier.
26

Robot winogradien et compréhension de l'espagnol /

Verdejo, María-Feliza. January 1977 (has links)
Texte remanié de: Thèse 3# cycle--Informatique--Paris VI, 1975. / Thèse soutenue sous le titre : "Étude du langage naturel, simulation d'un robot capable de mener un dialogue en espagnol" /Bibliogr. p. 145-147.
27

Disparate treatments discovery : disparate treatments discovery algorithm framework with no access to protected attribute values

Racicot, Taha 09 November 2022 (has links)
Les nouveaux algorithmes en intelligence artificielle offrent une opportunité d'améliorer la rapidité et l'efficacité de la prise de décision. Ceux-ci sont certainement bénéfique, lorsqu'ils permettent de prendre en compte plus de critères qu'un humain pourrait considérer et de prendre plus de décisions plus rapidement qu'un humain pourrait le faire. Cependant, l'utilisation d'algorithmes de décision mal conçus a un effet social majeur. En effet, ces algorithmes peuvent apprendre à baser leurs décisions sur des critères socialement inacceptables comme la race, le sexe, l'origine ethnique, ou l'orientation sexuelle, et ainsi formaliser et propager les discriminations du passé. Dans de tels cas, l'impact de ces algorithmes est de renforcer et propager à grande échelle les inégalités économiques, sociales, et d'opportunités, entre les diverses communautés composant notre société. On pourrait croire qu'il est facile d'examiner les règles de recommandation d'un algorithme pour vérifier quels critères sont considérés. Cependant, ce n'est pas le cas : plusieurs algorithmes d'intelligence artificielle, comme les réseaux de neurones profonds, sont des "boites noires" qui fournissent des résultats d'une manière incompréhensible aux humains. De plus, une discrimination sur un critère inacceptable n'a pas besoin de considérer explicitement ce critère dans ses facteurs de décision, mais peut être réalisée en utilisant uniquement des facteurs acceptables ou même anodins, mais qui sont corrélés au critère inacceptable. Ainsi à chaque fois que des systèmes intelligents sont utilisés, on se retrouve à se demander si le système va prendre la décision optimale sans discrimination malgré qu'aucun attribut sensible n'a été utilisé. Dans ce travail, nous explorons une nouvelles méthodes pour l'identification de la discrimination dans les décisions de systèmes intelligents sans avoir accès aux attributs sensibles. Nous commençons par explorer les métriques de mesures de discrimination utilisés communément et nous identifions leurs lacunes. Par la suite, étant donné ces lacunes, nous explorons de nouvelles méthodes émergeantes basés sur la causalité permettant de palier à celles-ci. Ensuite, nous étudions la possibilité d'utiliser des attributs corrélés avec les attributs sensibles manquants comme le nom et le prénom pour retrouver les attributs sensibles. Par la suite, nous explorons les méthodes de mesure d'incertitude dans les nouveaux algorithmes en IA afin d'évaluer à quel point nous pouvons être certain de la mesure de discrimination lors de l'utilisation d'attributs non protégés corrélés avec les attributs sensibles. Enfin, nous présentons notre méthode sur la discrimination raciale en utilisant le nom et de prénom comme proxy pour l'ethnicité et nous réalisons des tests à partir de données synthétiques. / New algorithms in artificial intelligence offer an opportunity to improve the speed and efficiency of decision-making. These are certainly beneficial, when they allow to take into account more criteria than a human could consider and to make more decisions more quickly than a human could. However, the use of poorly designed decision algorithms has a major social effect. Indeed, these algorithms can learn to base their decisions on socially unacceptable criteria such as race, gender, ethnic origin, or sexual orientation, and thus formalize and propagate the discriminations of the past. In such cases, the impact of these algorithms is to reinforce and propagate on a large scale economic, social and opportunity inequalities between the various communities that make up our society. One might think that it is easy to examine the recommendation rules of an algorithm to check which criteria are considered. However, this is not the case : many AI algorithms, such as deep neural networks, are "black boxes" that deliver results in ways that humans cannot understand. Moreover, discrimination on an unacceptable criterion does not need to explicitly consider this criterion in its decision factors, but can be achieved by using only acceptable or even innocuous factors, but which are correlated to the unacceptable criterion. So whenever intelligent systems are used, we find ourselves wondering if the system will make the optimal decision without discrimination despite the fact that no sensitive attribute has been used. In this work, we explore a new method for the identification of discrimination in decisions of intelligent systems without having access to sensitive attributes. We begin by exploring commonly used discrimination measurement metrics and identifying their shortcomings. Subsequently, given these shortcomings, we explore new emerging methods based on causality to overcome them. Then, we study the possibility of using attributes correlated with the missing sensitive attributes like the name and the first name to find the sensitive attributes. Subsequently, we explore methods for measuring uncertainty in new AI algorithms in order to assess how certain we can be of the discrimination measure when using unprotected attributes correlated with sensitive attributes. Finally, we present our method on racial discrimination using surname and first name as a proxy for ethnicity and we perform tests using synthetic data.
28

Disparate treatments discovery : disparate treatments discovery algorithm framework with no access to protected attribute values

Racicot, Taha 09 November 2022 (has links)
Les nouveaux algorithmes en intelligence artificielle offrent une opportunité d'améliorer la rapidité et l'efficacité de la prise de décision. Ceux-ci sont certainement bénéfique, lorsqu'ils permettent de prendre en compte plus de critères qu'un humain pourrait considérer et de prendre plus de décisions plus rapidement qu'un humain pourrait le faire. Cependant, l'utilisation d'algorithmes de décision mal conçus a un effet social majeur. En effet, ces algorithmes peuvent apprendre à baser leurs décisions sur des critères socialement inacceptables comme la race, le sexe, l'origine ethnique, ou l'orientation sexuelle, et ainsi formaliser et propager les discriminations du passé. Dans de tels cas, l'impact de ces algorithmes est de renforcer et propager à grande échelle les inégalités économiques, sociales, et d'opportunités, entre les diverses communautés composant notre société. On pourrait croire qu'il est facile d'examiner les règles de recommandation d'un algorithme pour vérifier quels critères sont considérés. Cependant, ce n'est pas le cas : plusieurs algorithmes d'intelligence artificielle, comme les réseaux de neurones profonds, sont des "boites noires" qui fournissent des résultats d'une manière incompréhensible aux humains. De plus, une discrimination sur un critère inacceptable n'a pas besoin de considérer explicitement ce critère dans ses facteurs de décision, mais peut être réalisée en utilisant uniquement des facteurs acceptables ou même anodins, mais qui sont corrélés au critère inacceptable. Ainsi à chaque fois que des systèmes intelligents sont utilisés, on se retrouve à se demander si le système va prendre la décision optimale sans discrimination malgré qu'aucun attribut sensible n'a été utilisé. Dans ce travail, nous explorons une nouvelles méthodes pour l'identification de la discrimination dans les décisions de systèmes intelligents sans avoir accès aux attributs sensibles. Nous commençons par explorer les métriques de mesures de discrimination utilisés communément et nous identifions leurs lacunes. Par la suite, étant donné ces lacunes, nous explorons de nouvelles méthodes émergeantes basés sur la causalité permettant de palier à celles-ci. Ensuite, nous étudions la possibilité d'utiliser des attributs corrélés avec les attributs sensibles manquants comme le nom et le prénom pour retrouver les attributs sensibles. Par la suite, nous explorons les méthodes de mesure d'incertitude dans les nouveaux algorithmes en IA afin d'évaluer à quel point nous pouvons être certain de la mesure de discrimination lors de l'utilisation d'attributs non protégés corrélés avec les attributs sensibles. Enfin, nous présentons notre méthode sur la discrimination raciale en utilisant le nom et de prénom comme proxy pour l'ethnicité et nous réalisons des tests à partir de données synthétiques. / New algorithms in artificial intelligence offer an opportunity to improve the speed and efficiency of decision-making. These are certainly beneficial, when they allow to take into account more criteria than a human could consider and to make more decisions more quickly than a human could. However, the use of poorly designed decision algorithms has a major social effect. Indeed, these algorithms can learn to base their decisions on socially unacceptable criteria such as race, gender, ethnic origin, or sexual orientation, and thus formalize and propagate the discriminations of the past. In such cases, the impact of these algorithms is to reinforce and propagate on a large scale economic, social and opportunity inequalities between the various communities that make up our society. One might think that it is easy to examine the recommendation rules of an algorithm to check which criteria are considered. However, this is not the case : many AI algorithms, such as deep neural networks, are "black boxes" that deliver results in ways that humans cannot understand. Moreover, discrimination on an unacceptable criterion does not need to explicitly consider this criterion in its decision factors, but can be achieved by using only acceptable or even innocuous factors, but which are correlated to the unacceptable criterion. So whenever intelligent systems are used, we find ourselves wondering if the system will make the optimal decision without discrimination despite the fact that no sensitive attribute has been used. In this work, we explore a new method for the identification of discrimination in decisions of intelligent systems without having access to sensitive attributes. We begin by exploring commonly used discrimination measurement metrics and identifying their shortcomings. Subsequently, given these shortcomings, we explore new emerging methods based on causality to overcome them. Then, we study the possibility of using attributes correlated with the missing sensitive attributes like the name and the first name to find the sensitive attributes. Subsequently, we explore methods for measuring uncertainty in new AI algorithms in order to assess how certain we can be of the discrimination measure when using unprotected attributes correlated with sensitive attributes. Finally, we present our method on racial discrimination using surname and first name as a proxy for ethnicity and we perform tests using synthetic data.
29

Méthodes d'apprentissage de la coordination multiagent : application au transport intelligent

Laumônier, Julien 13 April 2018 (has links)
Les problèmes de prise de décisions séquentielles multiagents sont difficiles à résoudre surtout lorsque les agents n'observent pas parfaitement l'état de Y environnement. Les approches existantes pour résoudre ces problèmes utilisent souvent des approximations de la fonction de valeur ou se basent sur la structure pour simplifier la résolution. Dans cette thèse, nous proposons d'approximer un problème de décisions séquentielles multiagent à observation limitée, modélisé par un processus décisionnel markovien décentralisé (DEC-MDP) en utilisant deux hypothèses sur la structure du problème. La première hypothèse porte sur la structure de comportement optimal et suppose qu'il est possible d'approximer la politique optimale d'un agent en connaissant seulement les actions optimales au niveau d'un petit nombre de situations auxquelles l'agent peut faire face dans son environnement. La seconde hypothèse porte, quant à elle, sur la structure organisationnelle des agents et suppose que plus les agents sont éloignés les uns des autres, moins ils ont besoin de se coordonner. Ces deux hypothèses nous amènent à proposer deux approches d'approximation. La première approche, nommée Supervised Policy Reinforcement Learning, combine l'apprentissage par renforcement et l'apprentissage supervisé pour généraliser la politique optimale d'un agent. La second approche se base, quant à elle, sur la structure organisationnelle des agents pour apprendre une politique multiagent dans des problèmes où l'observation est limitée. Pour cela, nous présentons un modèle, le D O F - D E C - M DP (Distance-Observable Factored Decentralized Markov Décision Process) qui définit une distance d'observation pour les agents. A partir de ce modèle, nous proposons des bornes sur le gain de récompense que permet l'augmentation de la distance d'observation. Les résultats empiriques obtenus sur des problèmes classiques d'apprentissage par renforcement monoagents et multiagents montrent que nos approches d'approximation sont capables d'apprendre des politiques proches de l'optimale. Enfin, nous avons testé nos approches sur un problème de coordination de véhicules en proposant une méthode de synchronisation d'agents via la communication dans un cadre à observation limitée.
30

Contrôle automatique de caméra dans un visualisateur de combats navals en 3 dimensions

Poisson, Mathieu January 2014 (has links)
Ce mémoire présente une solution au problème de contrôle de caméra hors-ligne dans un environnement en trois dimensions où se déroule une bataille navale. D'abord, une introduction du domaine est présentée, le but étant d'établir les fondations sur lesquelles se basera l'ensemble des sections de ce document. Ensuite, une revue de la littérature est effectuée. Le contrôle de la caméra dans le domaine du cinéma est exploré. Diverses techniques de contrôle sont également présentées tout en discutant leur pertinence au problème. Une approche de planification par réseau de tâches hiérarchique est ultimement choisie comme solution. Pour décrire cette solution, la modélisation du planificateur et de ses composantes est d'abord exposée. Par la suite, l'algorithme de planification est présenté. Une architecture de planification et d'exécution, intégrant l'algorithme de planification avec le contrôle bas-niveau de la caméra est aussi proposée. L'implémentation de cette architecture est ensuite discutée et illustrée à l'aide des résultats expérimentaux. La conclusion est suivie par une annexe décrivant les détails de l'implémentation.

Page generated in 0.1186 seconds