91 |
L'approche réglementaire québécoise à la reproduction de l'image et de la voix par intelligence artificielleBourgault, Isaac 08 January 2025 (has links)
L'économie numérique est aux prises avec un problème d'intelligence artificielle générative. La capacité récemment acquise par l'intelligence artificielle de reproduire fidèlement l'image et la voix présente une problématique unique dans le contexte des nouvelles technologies. Cette faculté aux risques avérés échappe en grande partie aux moyens traditionnellement envisagés pour réglementer l'activité de l'IA générative. Des deepfakes visant l'image, à la reproduction du chant d'artistes. Ce mémoire se veut une exploration prospective de la réponse québécoise à l'enjeu du clonage algorithmique de l'image et de la voix par IA. Pour ce faire, l'auteur procède en deux parties. D'abord par l'évaluation de la protection du droit à l'image, du droit d'auteur, du droit à la protection des renseignements personnels ainsi qu'un passage par le droit américain du ELVIS act. Ensuite, la seconde partie atteint l'objectif prospectif en identifiant des modifications souhaitables à l'ordre juridique actuel. La conclusion de la recherche est à l'effet que certes, certaines modifications sont souhaitables dans un objectif de protection, mais que somme toute le droit à l'image québécois est conçu d'une manière à permettre une intégration harmonieuse des reproductions algorithmiques dans son champ protecteur. / The digital economy is grappling with the problem of generative artificial intelligence. The recently acquired ability of artificial intelligence to faithfully reproduce images and voices presents a unique challenge in the context of new technologies. This ability, with its proven risks, largely escapes the traditional means of regulating generative AI activity. From deepfake image cloning to the reproduction of artists' singing abilities, this thesis aims to provide a full prospective exploration of Quebec's response to the issue of algorithmic cloning by AI. The author addresses this in two parts. First, by evaluating the protective abilities of image rights, copyright, data privacy rights, and a review of the American ELVIS Act. Then, the second part accomplishes the prospective objective by identifying desirable modifications to the current legal framework. The conclusion of the research is that while some modifications are indeed desirable for protective purposes, Quebec's image rights are generally designed in a way that allows for the harmonious integration of algorithmic reproductions within its protective scope.
|
92 |
Justice, éthique et intelligence artificielle : la délégation de la prise de décision judiciaire à un algorithme et l'égalité d'accès au jugeNordmann, Raphaëlle 12 December 2024 (has links)
Ce projet de recherche porte sur la justice, l’éthique et l’intelligence artificielle (IA), et plus précisément sur les enjeux éthiques soulevés par la délégation de la prise de décision judiciaire à une IA. Parmi ces enjeux, celui sur lequel nous avons choisi de nous concentrer est celui de l’égalité d’accès au juge, un droit fondamental à l’échelle européenne comme internationale. Le respect de cet enjeu lors de la mise en oeuvre d’algorithmes de règlement des litiges au sein des juridictions sera examiné ici au regard des textes qui sont actuellement les plus avancés pour encadrer éthiquement l’IA : il s’agit d’une part de la déclaration de Montréal, parue en décembre 2018, et d’autre part des lignes directrices de la Commission européenne, parues en avril 2019. / This research deals with justice, ethics and artificial intelligence (AI). More precisely, the aim is to discuss what ethical issues are raised when delegating judicial decision-making to an AI. The issue we are focusing on is equal access to the judge, a fundamental right in both European and international texts. In regard to the most advanced ones that set an ethical frame for the development of AI – which are the Declaration of Montreal, published in December 2018, and the Ethical Guidelines for Trustworthy AI published by the European Commission in April 2019 – we will investigate whether this right is enforced when dispute resolution algorithms are implemented in jurisdictions.
|
93 |
Étude de l'impact de la congélation sur les propriétés physico-chimiques des substituts cutanés et caractérisation d'un nouveau modèle de substituts cutanés psoriasiques enrichis en cellules immunitaires produit par génie tissulaireDubois-Declercq, Sarah 20 April 2018 (has links)
Le défi actuel des chercheurs est d’élaborer de nouveaux modèles de substituts cutanés plus perfectionnés et d’optimiser leur méthode de production afin d’améliorer leur reproductibilité. Cette étude a évalué l’impact de la congélation des substituts cutanés à -20°C pendant 2 mois via leurs propriétés physico-chimiques et leur fonctionnalité. Les analyses d’ATR-FTIR montrent que la cryopréservation n’affecte pas l’organisation des lipides de la couche cornée tandis que les analyses d’absorption percutanée montrent que la congélation affecte la perméabilité des substituts cutanés. De plus, le modèle de peau a été optimisé par l’incorporation de lymphocytes T permettant ainsi d’étudier le rôle des lymphocytes sur la différenciation cellulaire des kératinocytes et de mieux comprendre le rôle de la fractalkine dans le développement du psoriasis. Ces résultats nous incitent à penser que la fractalkine se démarque des autres cytokines inflammatoires dans le développement du psoriasis et se doit d’être mieux connue. / The current challenge for researchers is to develop new models for more advanced skin substitutes and optimize their production methods to improve reproducibility. This study evaluates the impact of the freezing of skin substitutes at -20°C for 2 months via their physicochemical properties and functionality. The ATR-FTIR analysis show that the cryopreservation did not affect the lipid organization of the stratum corneum while percutaneous absorption analysis show that the freezing of the permeability affects skin substitutes. In addition, the skin model was optimized by incorporating T lymphocytes and to study the role of lymphocytes in cell differentiation of keratinocytes and better understand the role of fractalkine in the development of psoriasis. These results lead us to believe that fractalkine differs from other inflammatory cytokines in the development of psoriasis and should be investigated.
|
94 |
Perceptron sous forme duale tronquée et variantesRouleau, Christian 12 April 2018 (has links)
L’apprentissage automatique fait parti d’une branche de l’intelligence artificielle et est utilisé dans de nombreux domaines en science. Il se divise en trois catégories principales : supervisé, non-supervisé et par renforcement. Ce mémoire de maîtrise portera uniquement sur l’apprentissage supervisé et plus précisément sur la classification de données. Un des premiers algorithmes en classification, le perceptron, fut proposé dans les années soixante. Nous proposons une variante de cet algorithme, que nous appelons le perceptron dual tronqué, qui permet l’arrêt de l’algorithme selon un nouveau critère. Nous comparerons cette nouvelle variante à d’autres variantes du perceptron. De plus, nous utiliserons le perceptron dual tronqué pour construire des classificateurs plus complexes comme les «Bayes Point Machines». / Machine Learning is a part of the artificial intelligence and is used in many fields in science. It is divided into three categories : supervised, not supervised and by reinforcement. This master’s paper will relate only the supervised learning and more precisely the classification of datas. One of the first algorithms in classification, the perceptron, was proposed in the Sixties. We propose an alternative of this algorithm, which we call the truncated dual perceptron, which allows the stop of the algorithm according to a new criterion. We will compare this new alternative with other alternatives of the perceptron. Moreover, we will use the truncated dual perceptron to build more complex classifiers like the «Bayes Point Machines».
|
95 |
Communication inter-véhicules et route-à-véhicule : apprentissage de la communication inter-véhiculesGrégoire-Girard, Pierre-Luc 13 April 2018 (has links)
L'industrie des transports est un acteur important de l'économie mondiale. Des millions d'emplois sont touchés de près ou de loin par cette industrie. De plus, le nombre de véhicules sur terre ne cesse d'augmenter et il est rendu courant dans plusieurs pays industrialisés d'avoir plus d'une voiture par famille. Tout cela entraîne également son lot de problèmes, notamment au niveau de la sécurité routière et de la pollution. Depuis des décennies, des compagnies privées et des organisations publiques se penchent sur ces problèmes. Ils innovent constamment en améliorant les véhicules et les infrastructures du réseau routier. Les voitures ne sont pas seulement de plus en plus sécuritaires mais aussi de plus en plus confortables et conviviales. Cependant, la plupart des systèmes intelligents présents dans les voitures acquièrent de l'information grâce aux capteurs. Ceux-ci sont limités et certaines données ne peuvent être accessibles aux capteurs. La solution repose donc sur l'utilisation de la communication sans fil pour échanger des informations entre les véhicules et entre les infrastructures et les véhicules. Le sujet de cette maîtrise porte sur la communication inter-véhicules et route-à-véhicule. Elle se divise en deux parties. Tout d'abord, dans le cadre du projet AUTO21 au laboratoire DAMAS, un protocole de communication inter-véhicules doit être développé pour implanter un système de régulateur de vitesse collaboratif et adaptatif (" Collaborative Adaptative Cruise Control ", CACC). La théorie multi-agents et l'apprentissage par renforcement sont utilisés pour apprendre une politique de communication optimale. La deuxième partie porte sur la communication route-à-véhicule appliquée au problème d'optimisation des feux de signalisation. Deux approches multiagents sont utilisées pour optimiser la gestion des feux. Les agents placés aux intersections reçoivent de l'information relative au trafic grâce à la communication route-à-véhicule et tentent d'adopter une politique de contrôle optimale.
|
96 |
Modèle de formation du flou d'une caméra rotative à bande et son impact sur la reconstruction 3DMorency, Félix C January 2011 (has links)
L'imagerie panoramique permet d'élargir le champ visuel restreint des caméras standards. La reconstruction 3D d'une scène peut se faire à l'aide d'une ou plusieurs images panoramiques. Afin de reconstruire une scène en trois dimensions à partir d'images panoramiques, plusieurs méthodes existent. Dans ce document, nous nous intéressons à l'utilisation du flou comme indice de profondeur. Plus précisément, nous nous intéressons à la différence de flou proposée par Ziou et Deschênes en 1999 sur des images saisies à l'aide d'une caméra panoramique rotative à bande. Dans un premier temps, nous effectuons l'analyse du modèle de formation du flou d'une caméra rotative à bande et proposons une adaptation du modèle de formation d'une caméra standard dans le cas d'images formées à l'aide d'un capteur linéaire en rotation. Ce modèle adapté est ensuite utilisé pour modifier l'algorithme de reconstruction 3D par différence de flou de Ziou et Deschênes dans le cas d'images panoramiques capturées à l'aide d'une caméra rotative à bande. Nous montrons que cette adaptation nous permet d'obtenir, à partir d'images panoramiques, des résultats similaires à 98% à ce que donne l'algorithme de reconstruction original sur des images non panoramiques.
|
97 |
Une comparaison d’algorithmes de reconnaissance de plan à l’aide d’observations in situStoutenburg Tardieu, Cody January 2015 (has links)
Ce mémoire présente une comparaison de deux algorithmes de reconnaissance de plan, soit YAPPR (Yet Another Probabilistic Plan Recognizer) et PR-Plan (Plan Recognizer as Planning). Afin de comparer les algorithmes, nous avons voulu utiliser un domaine plus complexe et réaliste que ceux utilisés jusqu’à présent. Pour ce faire, nous avons établi un protocole de comparaison en utilisant le concept d’observation in situ. Nous avons utilisé le jeu de stratégie en temps réel StarCraft comme environnement de simulation. Puis, nous avons créé un agent jouant à StarCraft qui utilise la reconnaissance de plan comme élément central pour le système de prise de décision. Pour valider que notre principe d’observation in situ fonctionne, nous avons créé des agents témoins et exécuté de nombreuses simulations.
|
98 |
Reconnaissance de plan probabiliste par exploration partielle des hypothèsesFilion, Julien January 2015 (has links)
La capacité à reconnaître les intentions d’un agent est un élément important de
l’analyse de la situation. Connaître ces intentions est souvent un facteur clé de la prise
de décision dans plusieurs domaines tels que la robotique, les jeux vidéo, la sécurité
informatique et l’analyse du renseignement.
Une des approches algorithmiques souvent utilisées pour reconnaître les intentions
d’un agent suppose une connaissance préalable de tous les plans exécutables
par l’agent observé. À partir de ces plans et des données d’observation, on peut alors
prédire les comportements et les intentions de l’agent observé simplement en générant
les modèles d’exécution de plans cohérents avec les données d’observation. Ces
modèles d’exécution constituent en quelque sorte les hypothèses sur le plan et le but
poursuivi par l’agent observé. Ainsi, la probabilité que l’agent observé poursuive un
but particulier est établie comme étant la proportion des modèles cohérents avec ce
but.
Cette approche existe depuis une dizaine d’années et fait partie des approches les
plus étudiées en ce moment. Cependant, elle comporte des lacunes fondamentales,
notamment une explosion combinatoire de la taille de l’espace d’hypothèses. Ce mémoire
de maîtrise propose un algorithme permettant d’aborder ce dernier problème
en contrôlant l’exploration de l’espace d’hypothèse. Avec ce nouvel algorithme, on
peut approximer la probabilité du but, de sorte que la précision de l’approximation
s’améliore graduellement avec le temps de calcul.
Cette approche a été publiée dans l’une des deux plus prestigieuses conférences
scientifiques sur l’intelligence artificielle : International Joint Conference on Artificial
Intelligence (IJCAI), en 2013.
|
99 |
ASTUS-S : formalisme de représentation explicite de stratégies de résolution de problèmes à des fins d'enseignement par STIAbdessemed, Amir January 2014 (has links)
Cette thèse propose un formalisme de représentation de connaissances adapté à l’enseignement explicite de connaissances stratégiques par système tutoriel intelligent (STI). Le formalisme est une proposition de solution au fait que dans le domaine des systèmes tutoriels intelligents multidisciplinaires, les efforts de modélisation croissent considérablement avec la complexité du domaine à enseigner. Le problème est particulièrement contraignant avec les domaines qui présentent des stratégies multiples de résolution de problèmes. Par ailleurs, le formalisme est aussi une réaction au constat que peu de systèmes tutoriels s’intéressent actuellement à l’enseignement explicite des stratégies, alors que plusieurs études en ont démontré les avantages.
Le formalisme maintient le processus d’encodage du raisonnement stratégique à un niveau simple sans compromettre la fidélité de représentation, ce qui a été validé expérimentalement avec un groupe d’étudiants. Les mêmes expérimentations ont permis de confirmer l’efficacité du système tutoriel utilisant le formalisme dans plusieurs aspects : la résolution de problèmes avec explication et justification des étapes, l’interprétation des actions d’un apprenant d’un point de vue stratégique, et l’évaluation du degré de maîtrise d’une stratégie par un apprenant. L’architecture résultante, avec le module responsable du raisonnement stratégique activable à volonté, est particulièrement adaptée pour des études évaluant les impacts de l’enseignement explicite des stratégies et la réutilisation des connaissances stratégiques acquises d’un domaine à l’autre.
|
100 |
Reaching Agreement in Multiagent SystemsMaudet, Nicolas 13 December 2010 (has links) (PDF)
Les systèmes multi-agents mettent en jeu des entités artificielles, conçues par des utilisateurs potentiellement différents, devant se coordonner pour atteindre leur but. La problématique générale est donc l'atteinte d'états "satisfaisants" en dépit de contraintes liées à la distribution des entités qui prennent part à la décision collective, et du caractère non nécessairement coopératifs de ces agents. Je discute de problèmes de vote dans le cas où les profils représentant les préférences des agents prenant part à la décision ne sont pas complètement spécifiés (à cause, par exemple, de la perte de messages du fait de la distribution, ou encore de l'impossibilité de spécifier parfaitement un profil portant sur un nombre rédhibitoire d'alternatives, comme dans le cas de domaines combinatoires). Les questions que nous abordons sont par exemple celles de la taille minimale nécessaire à encoder le profil partiel tout en restant capable de déterminer de manière certaine l'alternative choisie après complétion des votes, ou encore de la difficulté (algorithmique) liée à la détermination des alternatives que l'on peut exclure sans craindre de regretter ce choix plus tard, même si d'autres alternatives peuvent apparaîtrent. J'aborde également des procédures complètement décentralisées d'allocation de ressources. Ici on suppose que les agents débutent avec une allocation initiale et modifient de manière itérative cette allocation par le biais de contrats, c'est-à-dire de réallocation locale de ressources entre eux. En posant la contrainte que chacun de ces contrats doit être individuellement rationnel on se penche sur les garanties de convergence de tels systèmes vers de états efficaces et/ou équitables (au sens par exemple de l'égalitarisme ou l'absence d'envie). J'envisage enfin un processus de prise de décision collective plus délibératif, au sens où les agents peuvent échanger des arguments et contre-arguments, pour (éventuellement) modifier le point de vue des autres. Dans un premier temps je discute d'un cadre où les agents coopèrent en vue d'établir un diagnostic commun d'une situation, alors que les agents ne percoivent que localement leur environnement et ne disposent que de possibilités restreintes de communication. Chaque agent construit (sur la base d'informations partielles) une hypothèse qui pourra être par la suite réfutée par d'autres agents, nous sommes en présence d'un raisonnement de type non-monotone. Je présente enfin brièvement le cadre non-coopératif d'une argumentation multi-partite, où les agents peuvent avoir des opinions réellement contradictoires. Un protocole simple est proposé, qui contraint minimalement la pertinence des arguments échangés, et quelques phénomènes liés au comportement statégique des agents sont illustrés.
|
Page generated in 0.0803 seconds