321 |
Explications pour l’agrégation des préférences — une contribution à l’aide à la décision responsable / Towards accountable decision aiding : explanations for the aggregation of preferencesBelahcene, Khaled 05 December 2018 (has links)
Nous cherchons à équiper un processus d’aide à la décision d’outils permettantde répondre aux exigences de redevabilité. Un décideur fournit de l’information quant à ses préférences au sujet de la façon d’arbitrer entre des points de vue conflictuels. Un analyste, chargé d’éclairer la prise de décision, fait l’hypothèse d’un modèle de raisonnement, et l’ajuste aux informations fournies par le décideur. Nous faisons l’hypothèse d’un processus d’élicitation robuste, dont les recommandations sont déduites des éléments dialectiques. Nous nous sommes donc intéressés à la résolution d’un problème inverse concernant le modèle, ainsi qu’à la production d’explications, si possible correctes, complètes, facile à calculer et à comprendre. Nous avons considéré deux formes de représentation du raisonnement: l’une ayant trait à la comparaison de paires d’alternatives fondée sur un modèle de valeur additive, l’autre ayant trait au tri des alternatives dans des catégories ordonnées fondé sur un raisonnement non-compensatoire. / We consider providing a decision aiding process with tools aiming at complying to the demands of accountability. Decision makers, seeking support, provide preference information in the form of reference cases, that illustrates their views on the way of taking into account conflicting points of view. The analyst, who provides the support, assumes a generic representation of the reasoning with preferences, and fits the aggregation procedure to the preference information. We assume a robust elicitation process, where the recommendations stemming from the fitted procedure can be deduced from dialectical elements. Therefore, we are interested in solving an inverse problem concerning the model, and in deriving explanations, if possible sound, complete, easy to compute and to understand. We address two distinct forms of reasoning: one aimed at comparing pairs of alternatives with an additive value model, the other aimed at sorting alternatives into ordered categories with a noncompensatory model.
|
322 |
Représentations à base de parties pour la vision 3D de haut niveau / Part-Based Representations for High-Level 3D VisionKinauer, Stefan 31 August 2018 (has links)
Dans cette thèse, nous utilisons des modèles de parties déformables (Deformable Part Models – DPMs) pour apprendre à détecter des parties d’objets. Pour une image d’un objet, l’objectif est de déterminer l’emplacement des parties de cet objet dans l’image. Le problème d’optimisation qui en résulte est non-convexe et difficile en raison de son grand espace de recherche.Notre première contribution consiste à étendre les DPMs à la troisième dimension, grâce à un algorithme par séparation et évaluation (Branchand- Bound). Nous élaborons un algorithme personnalisé qui est deux fois plus rapide qu’une approche naïve et garantit l’optimalité globale. Nous dérivons pour le modèle 3-dimensionnel une structure 3-dimensionnel. Cependant, nous entrainons un algorithme prenant en compte chaque sous point de vue de l’apparence. Nous démontrons notre approche sur la tache de l’estimation 3-dimensionnel de la posture, en déterminant la posture de l’objet dans une fraction de second.Notre deuxième contribution nous permet d’effectuer une inférence efficace sur des modèles où les connexions des parties forment un graphe avec des boucles, étendant ainsi des modèles plus riches. Pour cela, nous utilisons l’algorithme des directions alternées (Alternating Direction Method of Multipliers – ADMM) pour découpler le problème et résoudre itérativement un ensemble de sous-problèmes plus faciles. Nous calculons les paramètres du modèle via un Réseaux Neuronal Convolutif pour la détermination de la posture 3-dimensionnel. L’inférence développée est utilisée comme dernière couche du réseau neural. Cela permet d’obtenir une performance à l’état de l’art pour la tâche d’estimation de pose humaine en 3D. / In this work we use Deformable Part Models (DPMs) to learn and detect object parts in 3 dimensions. Given a single RGB image of an object, the objective is to determine the location of the object’s parts. The resulting optimization problem is non-convex and challenging due to its large solution space.Our first contribution consists in extending DPMs into the third dimension through an efficient Branch-and-Bound algorithm. We devise a customized algorithm that is two orders of magnitude faster than a naive approach and guarantees global-optimality. We derive the model’s 3-dimensional geometry from one 3-dimensional structure, but train viewpoint-specific part appearance terms based on deep learning features. We demonstrate our approach on the task of 3D object pose estimation, determining the object pose within a fraction of a second.Our second contribution allows us to perform efficient inference with part-based models where the part connections form a graph with loops, thereby allowing for richer models. For this, we use the Alternating Direction Method of Multipliers (ADMM) to decouple the problem and solve iteratively a set of easier sub-problems. We compute 3-dimensional model parameters in a Convolutional Neural Network for 3D human pose estimation. Then we append the developed inference algorithm as final layer to this neural network. This yields state of the art performance in the 3D human pose estimation task.
|
323 |
Attention, concentration, and distraction measure using EEG and eye tracking in virtual realityZarour, Mahdi 12 1900 (has links)
Attention is important in learning, Attention-deficit/hyperactivity disorder, Driving, and many other fields. Hence, intelligent tutoring systems, Attention-deficit/hyperactivity disorder diagnosis systems, and distraction detection of driver systems should be able to correctly monitor the attention levels of individuals in real time in order to estimate their attentional state. We study the feasibility of detecting distraction and concentration by monitoring participants' attention levels while they complete cognitive tasks using Electroencephalography and Eye Tracking in a virtual reality environment. Furthermore, we investigate the possibility of improving the concentration of participants using relaxation in virtual reality. We developed an indicator that estimates levels of attention with a real value using EEG data. The participant-independent indicator based on EEG data we used to assess the concentration levels of participants correctly predicts the concentration state with an accuracy (F1 = 73%). Furthermore, the participant-independent distraction model based on Eye Tracking data correctly predicted the distraction state of participants with an accuracy (F1 = 89%) in a participant-independent validation setting. / La concentration est importante dans l’apprentissage, Le trouble du déficit de l’attention avec ou sans hyperactivité, la conduite automobile et dans de nombreux autres domaines. Par conséquent, les systèmes de tutorat intelligents, les systèmes de diagnostic
du trouble du déficit de l’attention avec ou sans hyperactivité et les systèmes de détection de la distraction au volant devraient être capables de surveiller correctement les
niveaux d’attention des individus en temps réel afin de déduire correctement leur état
attentionnel. Nous étudions la faisabilité de la détection de la distraction et de la concentration en surveillant les niveaux d’attention des participants pendant qu’ils effectuent
des tâches cognitives en utilisant l’Électroencéphalographie et l’Eye Tracking dans un
environnement de réalité virtuelle. En outre, nous étudions la possibilité d’améliorer la
concentration des participants en utilisant la relaxation en réalité virtuelle. Nous avons
mis au point un indicateur qui estime les niveaux d’attention avec une valeur réelle en
utilisant les données EEG. L’indicateur indépendant du participant basé sur les données
EEG que nous avons utilisé pour évaluer les niveaux de concentration des participants
prédit correctement l’état de concentration avec une précision (F1 = 73%). De plus, le
modèle de distraction indépendant des participants, basé sur les données d’Eye Tracking,
a correctement prédit l’état de distraction des participants avec une précision (F1 = 89%)
dans un cadre de validation indépendant des participants.
|
324 |
Le système de question-réponse QUANTUMPlamondon, Luc January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
325 |
Réflexions sur l'humanisme, le posthumanisme et les technosciences : le cas de l'intelligence artificielleBrousseau, Sébastien 09 November 2022 (has links)
Quantité de réflexions et de discussions sont en cours au sujet de ce qu'est au juste l'intelligence artificielle et de ce qu'il adviendra de nous, les humains, dans la foulée de son émergence. Tout comme les nanotechnologies, les biotechnologies, la robotique et les autres technologies émergentes, souvent regroupées sous le néologisme technosciences, l'intelligence artificielle est source de spéculation et d'inquiétude concernant la nature de la technique et son impact sur la nature de l'homme. Certains humanistes romantiques pensent que ce que nous sommes pourrait être diminué ou perdu, que la subjectivité humaine est et continuera d'être érodée par la prolifération de processus artificiels de plus en plus autonomes. Certains transhumanistes, de leur côté, provoquent et invoquent ces transformations, les considérant comme des explorations légitimes et souhaitables de nouvelles possibilités et optimisations. L'exercice que ce mémoire propose est de superposer à une présentation de l'IA contemporaine une exploration théorique plus large des notions de technosciences, d'humanisme et de posthumanisme. Pour ce faire, nous présenterons les thèses de trois auteurs qui partagent la crainte de la diminution et de la dénaturation de l'humain dans la foulée de l'émergence des théories cybernétiques et de la recherche et développement technoscientifique. Nous explorerons ensuite un éventail de pensées et réflexions qui nuancent ou contredisent ces thèses. Car si les technologies émergentes nous poussent à mettre en doute notre propre importance et pointent vers notre potentielle obsolescence, elles rendent aussi possibles un éventail d'expériences et de manifestations nouvelles. À travers l'exploration de la notion d'anthropocentrisme chère à l'humanisme, à celle de la co-évolution humain-technologie mise de l'avant par les théoriciens posthumanistes, l'objectif de ce mémoire est d'exposer et d'expliciter les éléments théoriques qui nous semblent centraux à l'exploration de la relation entre l'humain et les technologies émergentes. / There is a great deal of thought and discussion about what exactly artificial intelligence is and what will happen to us humans in the wake of its emergence. As for nanotechnology, biotechnology, robotics, and other emerging technologies, often grouped under the neologism technoscience, artificial intelligence is a source of speculation and concern about the nature of technology and its impact on the nature of man. Some romantic humanists believe that who we are could be diminished or lost, that human subjectivity is and will continue to be eroded by the proliferation of increasingly autonomous artificial processes. Some transhumanists, on the other hand, provoke and invoke these transformations, seeing them as legitimate and desirable explorations of new possibilities and optimizations. The exercise that this dissertation proposes is to superimpose on a presentation of contemporary AI a broader theoretical exploration of the notions of technoscience, humanism and posthumanism. To do so, we will present the theses of three authors who share the fear of the diminution and denaturation of the human in the wake of the emergence of cybernetic theories and technoscientific research and development. We will then explore a range of thoughts and reflections that nuance or contradict these theses. For while emerging technologies cause us to question our own importance and point to our potential obsolescence, they also make possible a range of new experiences and manifestations. Through the exploration of the notion of anthropocentrism dear to humanism, to that of human-technology co-evolution put forward by posthumanist theorists, the objective of this dissertation is to expose and explain the theoretical elements that seem to us central to the exploration of the relationship between the human and emerging technologies.
|
326 |
FETA : fairness enforced verifying, training, and predicting algorithms for neural networksMohammadi, Kiarash 06 1900 (has links)
L’automatisation de la prise de décision dans des applications qui affectent directement la qualité de vie des individus grâce aux algorithmes de réseaux de neurones est devenue monnaie courante. Ce mémoire porte sur les enjeux d’équité individuelle qui surviennent lors de la vérification, de l’entraînement et de la prédiction des réseaux de neurones. Une approche populaire pour garantir l’équité consiste à traduire une notion d’équité en contraintes sur les paramètres du modèle. Néanmoins, cette approche ne garantit pas toujours des prédictions équitables des modèles de réseaux de neurones entraînés. Pour relever ce défi, nous avons développé une technique de post-traitement guidée par les contre-exemples afin de faire respecter des contraintes d’équité lors de la prédiction. Contrairement aux travaux antérieurs qui ne garantissent l’équité qu’aux points entourant les données de test ou d’entraînement, nous sommes en mesure de garantir l’équité sur tous les points du domaine. En outre, nous proposons une technique de prétraitement qui repose sur l’utilisation de l’équité comme biais inductif. Cette technique consiste à incorporer itérativement des contre-exemples plus équitables dans le processus d’apprentissage à travers la fonction de perte. Les techniques que nous avons développé ont été implémentées dans un outil appelé FETA. Une évaluation empirique sur des données réelles indique que FETA est non seulement capable de garantir l’équité au moment de la prédiction, mais aussi d’entraîner des modèles précis plus équitables. / Algorithmic decision-making driven by neural networks has become very prominent in applications that directly affect people’s quality of life. This paper focuses on the problem of ensuring individual fairness in neural network models during verification, training, and prediction. A popular approach for enforcing fairness is to translate a fairness notion into constraints over the parameters of the model. However, such a translation does not always guarantee fair predictions of the trained neural network model. To address this challenge, we develop a counterexample-guided post-processing technique to provably enforce fairness constraints at prediction time. Contrary to prior work that enforces fairness only on points around test or train data, we are able to enforce and guarantee fairness on all points in the domain. Additionally, we propose a counterexample guided loss as an in-processing technique to use fairness as an inductive bias by iteratively incorporating fairness counterexamples in the learning process. We have implemented these techniques in a tool called FETA. Empirical evaluation on real-world datasets indicates that FETA is not only able to guarantee fairness on-the-fly at prediction time but also is able to train accurate models exhibiting a much higher degree of individual fairness.
|
327 |
Accounting for variance and hyperparameter optimization in machine learning benchmarksBouthillier, Xavier 06 1900 (has links)
La récente révolution de l'apprentissage automatique s'est fortement appuyée sur l'utilisation de bancs de test standardisés. Ces derniers sont au centre de la méthodologie scientifique en apprentissage automatique, fournissant des cibles et mesures indéniables des améliorations des algorithmes d'apprentissage. Ils ne garantissent cependant pas la validité des résultats ce qui implique que certaines conclusions scientifiques sur les avancées en intelligence artificielle peuvent s'avérer erronées.
Nous abordons cette question dans cette thèse en soulevant d'abord la problématique (Chapitre 5), que nous étudions ensuite plus en profondeur pour apporter des solutions (Chapitre 6) et finalement developpons un nouvel outil afin d'amélioration la méthodologie des chercheurs (Chapitre 7).
Dans le premier article, chapitre 5, nous démontrons la problématique de la reproductibilité pour des bancs de test stables et consensuels, impliquant que ces problèmes sont endémiques aussi à de grands ensembles d'applications en apprentissage automatique possiblement moins stable et moins consensuels. Dans cet article, nous mettons en évidence l'impact important de la stochasticité des bancs de test, et ce même pour les plus stables tels que la classification d'images. Nous soutenons d'après ces résultats que les solutions doivent tenir compte de cette stochasticité pour améliorer la reproductibilité des bancs de test.
Dans le deuxième article, chapitre 6, nous étudions les différentes sources de variation typiques aux bancs de test en apprentissage automatique, mesurons l'effet de ces variations sur les méthodes de comparaison d'algorithmes et fournissons des recommandations sur la base de nos résultats. Une contribution importante de ce travail est la mesure de la fiabilité d'estimateurs peu coûteux à calculer mais biaisés servant à estimer la performance moyenne des algorithmes. Tel qu'expliqué dans l'article, un estimateur idéal implique plusieurs exécution d'optimisation
d'hyperparamètres ce qui le rend trop coûteux à calculer. La plupart des chercheurs doivent donc recourir à l'alternative biaisée, mais nous ne savions pas jusqu'à présent la magnitude de la dégradation de cet estimateur. Sur la base de nos résultats, nous fournissons des recommandations pour la comparison d'algorithmes sur des bancs de test avec des budgets de calculs limités. Premièrement, les sources de variations devraient être randomisé autant que possible. Deuxièmement, la randomization devrait inclure le partitionnement aléatoire des données pour les ensembles d'entraînement, de validation et de test, qui s'avère être la plus importante des sources de variance. Troisièmement, des tests statistiques tel que la version du Mann-Withney U-test présenté dans notre article devrait être utilisé plutôt que des comparisons sur la simple base de moyennes afin de prendre en considération l'incertitude des mesures de performance.
Dans le chapitre 7, nous présentons un cadriciel d'optimisation d'hyperparamètres développé avec principal objectif de favoriser les bonnes pratiques d'optimisation des hyperparamètres. Le cadriciel est conçu de façon à privilégier une interface simple et intuitive adaptée aux habitudes de travail des chercheurs en apprentissage automatique. Il inclut un nouveau système de versionnage d'expériences afin d'aider les chercheurs à organiser leurs itérations expérimentales et tirer profit des résultats antérieurs pour augmenter l'efficacité de l'optimisation des hyperparamètres. L'optimisation des hyperparamètres joue un rôle important dans les bancs de test, les hyperparamètres étant un facteur confondant significatif. Fournir aux chercheurs un instrument afin de bien contrôler ces facteurs confondants est complémentaire aux recommandations pour tenir compte des sources de variation dans le chapitre 6.
Nos recommendations et l'outil pour l'optimisation d'hyperparametre offre une base solide pour une méthodologie robuste et fiable. / The recent revolution in machine learning has been strongly based on the use of standardized benchmarks. Providing clear target metrics and undeniable measures of improvements of learning algorithms, they are at the center of the scientific methodology in machine learning. They do not ensure validity of results however, therefore some scientific conclusions based on flawed methodology may prove to be wrong.
In this thesis we address this question by first raising the issue (Chapter 5), then we study it to find solutions and recommendations (Chapter 6) and build tools to help improve the methodology of researchers (Chapter 7).
In first article, Chapter 5, we demonstrate the issue of reproducibility in stable and consensual benchmarks, implying that these issues are endemic to a large ensemble of machine learning applications that are possibly less stable or less consensual. We raise awareness of the important impact of stochasticity even in stable image classification tasks and contend that solutions for reproducible benchmarks should account for this stochasticity.
In second article, Chapter 6, we study the different sources of variation that are typical in machine learning benchmarks, measure their effect on comparison methods to benchmark algorithms and provide recommendations based on our results. One important contribution of this work is that we measure the reliability of a cheaper but biased estimator for the average performance of algorithms. As explained in the article, an ideal estimator involving multiple rounds of hyperparameter optimization is too computationally expensive. Most researchers must resort to use the biased alternative, but it has been unknown until now how serious a degradation of the quality of estimation this leads to. Our investigations provides guidelines for benchmarks on practical budgets. First, as many sources of variations as possible should be randomized. Second, the partitioning of data in training, validation and test sets should be randomized as well, since this is the most important source of
variation. Finally, statistical tests should be used instead of ad-hoc average comparisons so that the uncertainty of performance estimation can be accounted for when comparing machine learning algorithms.
In Chapter 7, we present a framework for hyperparameter optimization that has been developed with the main goal of encouraging best practices for hyperparameter optimization. The framework is designed to favor a simple and intuitive interface adapted to the workflow of machine learning researchers. It includes a new version control system for experiments to help researchers organize their rounds of experimentations and leverage prior results for more efficient hyperparameter optimization. Hyperparameter optimization plays an important role in benchmarking, with the effect of hyperparameters being a serious confounding factor. Providing an instrument for researchers to properly control this confounding factor is complementary to our
guidelines to account for sources of variation in Chapter 7.
Our recommendations together with our tool for hyperparameter optimization provides a solid basis for a reliable methodology in machine learning benchmarks.
|
328 |
Improving predictive behavior under distributional shiftAhmed, Faruk 08 1900 (has links)
L'hypothèse fondamentale guidant la pratique de l'apprentissage automatique est qu’en phase de test, les données sont \emph{indépendantes et identiquement distribuées} à la distribution d'apprentissage. En pratique, les ensembles d'entraînement sont souvent assez petits pour favoriser le recours à des biais trompeurs. De plus, lorsqu'il est déployé dans le monde réel, un modèle est susceptible de rencontrer des données nouvelles ou anormales. Lorsque cela se produit, nous aimerions que nos modèles communiquent une confiance prédictive réduite. De telles situations, résultant de différentes formes de changement de distribution, sont incluses dans ce que l'on appelle actuellement les situations \emph{hors distribution} (OOD). Dans cette thèse par article, nous discutons des aspects de performance OOD relativement à des changement de distribution sémantique et non sémantique -- ceux-ci correspondent à des instances de détection OOD et à des problèmes de généralisation OOD.
Dans le premier article, nous évaluons de manière critique le problème de la détection OOD, en se concentrant sur l’analyse comparative et l'évaluation. Tout en soutenant que la détection OOD est trop vague pour être significative, nous suggérons plutôt de détecter les anomalies sémantiques. Nous montrons que les classificateurs entraînés sur des objectifs auxiliaires auto-supervisés peuvent améliorer la sémanticité dans les représentations de caractéristiques, comme l’indiquent notre meilleure détection des anomalies sémantiques ainsi que notre meilleure généralisation.
Dans le deuxième article, nous développons davantage notre discussion sur le double objectif de robustesse au changement de distribution non sémantique et de sensibilité au changement sémantique. Adoptant une perspective de compositionnalité, nous décomposons le changement non sémantique en composants systématiques et non systématiques, la généralisation en distribution et la détection d'anomalies sémantiques formant les tâches correspondant à des compositions complémentaires. Nous montrons au moyen d'évaluations empiriques sur des tâches synthétiques qu'il est possible d'améliorer simultanément les performances sur tous ces aspects de robustesse et d'incertitude. Nous proposons également une méthode simple qui améliore les approches existantes sur nos tâches synthétiques.
Dans le troisième et dernier article, nous considérons un scénario de boîte noire en ligne dans lequel non seulement la distribution des données d'entrée conditionnées sur les étiquettes change de l’entraînement au test, mais aussi la distribution marginale des étiquettes. Nous montrons que sous de telles contraintes pratiques, de simples estimations probabilistes en ligne du changement d'étiquette peuvent quand même être une piste prometteuse.
Nous terminons par une brève discussion sur les pistes possibles. / The fundamental assumption guiding practice in machine learning has been that test-time data is \emph{independent and identically distributed} to the training distribution. In practical use, training sets are often small enough to encourage reliance upon misleading biases. Additionally, when deployed in the real-world, a model is likely to encounter novel or anomalous data. When this happens, we would like our models to communicate reduced predictive confidence. Such situations, arising as a result of different forms of distributional shift, comprise what are currently termed \emph{out-of-distribution} (OOD) settings. In this thesis-by-article, we discuss aspects of OOD performance with regards to semantic and non-semantic distributional shift — these correspond to instances of OOD detection and OOD generalization problems.
In the first article, we critically appraise the problem of OOD detection, with regard to benchmarking and evaluation. Arguing that OOD detection is too broad to be meaningful, we suggest detecting semantic anomalies instead. We show that classifiers trained with auxiliary self-supervised objectives can improve semanticity in feature representations, as indicated by improved semantic anomaly detection as well as improved generalization.
In the second article, we further develop our discussion of the twin goals of robustness to non-semantic distributional shift and sensitivity to semantic shift. Adopting a perspective of compositionality, we decompose non-semantic shift into systematic and non-systematic components, along with in-distribution generalization and semantic anomaly detection forming the complementary tasks. We show by means of empirical evaluations on synthetic setups that it is possible to improve performance at all these aspects of robustness and uncertainty simultaneously. We also propose a simple method that improves upon existing approaches on our synthetic benchmarks.
In the third and final article, we consider an online, black-box scenario in which both the distribution of input data conditioned on labels changes from training to testing, as well as the marginal distribution of labels. We show that under such practical constraints, simple online probabilistic estimates of label-shift can nevertheless be a promising approach.
We close with a brief discussion of possible avenues forward.
|
329 |
Application de l'intelligence artificielle à la prédiction de la demande en eau chaude domestique et en électricité pour le contrôle par modèle prédictif dans les bâtiments résidentielsMaltais, Louis-Gabriel 30 August 2022 (has links)
Le secteur du bâtiment représente plus du tiers de la consommation énergétique et des émissions de gaz à effet de serre mondiales. Face à cet enjeu, des stratégies passives ont permis d'améliorer l'efficacité énergétique des bâtiments. À mesure que les technologies passives se rapprochent de leur limite physique d'efficacité, il devient nécessaire de s'intéresser à des technologies actives. Les stratégies de contrôle par modèle prédictif ont le potentiel de réduire la consommation énergétique des systèmes de chauffage, climatisation, ventilation, conditionnement de l'air et de production d'eau chaude domestique. Une difficulté limitant leur implantation dans les bâtiments provient du besoin de prédire des paramètres influencés par le comportement des occupantes et des occupants qui apparait stochastique, complexifiant le développement de modèles de prédiction. Dans ce contexte, cette thèse se concentre à évaluer des méthodes basées sur les données pour estimer la prédictibilité de la consommation d'eau chaude domestique et d'électricité dans un bâtiment résidentiel. L'impact d'une prédictibilité variable sur les performances est évalué lors de l'implémentation de ces modèles de prédiction dans des contrôleurs par modèle prédictif appliqués à des systèmes de production d'eau chaude domestique. Premièrement, la prédictibilité des profils de consommation d'eau chaude est évaluée à partir de profils mesurés dans un bâtiment résidentiel de 40 logements. Plus précisément, des réseaux de neurones sont entraînés à prédire cette consommation pour des systèmes de tailles variables allant d'un à 100 logements. Le niveau de prédictibilité est identifié comme étant proportionnel au nombre de logements et hautement variable pour des systèmes unifamiliaux, passant de très faible à élevé (c.-à-d., coefficient de détermination allant de 8 à 92% avec une moyenne de 58%). Les résultats montrent une difficulté à prédire précisément les pics de consommation, souvent sous-estimés lorsqu'une faible prédictibilité est observée. Puisqu'un contrôleur par modèle prédictif base ses décisions sur les prédictions, une faible prédictibilité pourrait impacter les performances en termes d'économie d'énergie et de respect des contraintes applicables à un système de production d'eau chaude. Deuxièmement, l'impact du niveau de prédictibilité des profils de consommation d'eau chaude sur les performances de contrôleurs par modèle prédictif est estimé. Les performances d'un contrôleur par modèle prédictif théorique employant des prédictions parfaitement précises sont comparées avec celles obtenues avec un contrôleur employant des prédictions imparfaites produites par les réseaux de neurones entraînés précédemment. Pour un système unifamilial, le principal effet des prédictions imparfaites sur les performances est le non-respect plus fréquent des contraintes de température dû à une incapacité à agir suffisamment en avance en préparation aux futurs pics de consommation d'eau chaude sous-estimés. Néanmoins, en comparaison avec une commande traditionnelle, des économies d'énergie allant de 4 à 8% ont été obtenues avec le contrôleur employant les prédictions imparfaites. En prédisant les périodes de pointe énergétique, les contrôleurs par modèle prédictif ont la capacité de réduire les pointes de consommation énergétique en déplaçant une partie de cette consommation vers les périodes hors-pointes. Dans cette optique, plusieurs modèles de prédiction basés sur les données sont entraînés afin de prédire la consommation d'électricité de logements unifamiliaux liée à l'éclairage et à l'utilisation des prises de courant sur plusieurs horizons allant de 10 minutes à 24 heures. Les arbres de décision renforcés (boosted) par le gradient sont identifiés comme étant la méthode produisant la meilleure qualité de prédiction. Une grande variabilité quant au niveau de prédictibilité est observée entre les logements, ce qui pourrait affecter la capacité des contrôleurs à réduire la consommation énergétique de pointe dans certains cas. Finalement, un dernier chapitre explore le potentiel d'un contrôleur par modèle prédictif employant les modèles de prédiction de la demande en eau chaude et de la consommation d'électricité pour prédire les périodes de pointe. Les résultats démontrent une plus grande différenciation entre les contrôleurs par modèle prédictif avec prédictions parfaites et imparfaites, le premier permettant de réduire d'avantage la consommation énergétique de pointe du chauffe-eau en prédisant plus précisément les périodes de pointe ainsi que la demande en eau chaude domestique correspondante. En comparaison avec la commande traditionnelle, des économies d'énergie pendant les périodes de pointe allant de 10 à 70% (moyenne de 26%) selon l'unité résidentielle étudiée ont été obtenues avec le contrôleur basé sur les prédictions imparfaites. Globalement, cette thèse représente un grand pas vers l'application future des contrôleurs par modèle prédictif basés sur l'apprentissage machine dans les bâtiments résidentiels, et les résultats obtenus démontrent le potentiel de cette stratégie de contrôle face à la réduction de la consommation d'énergie des systèmes de production d'eau chaude domestique unifamiliaux. / The building sector accounts for more than a third of the worldwide energy consumption and greenhouse gas emissions. Facing these challenges, passive strategies have allowed to increase the energy efficiency of buildings. As these passive technologies are reaching their efficiency limits, it is necessary to turn our interest to active technologies. Model predictive control strategies have the potential to reduce the energy consumption of heating, cooling, ventilation and air conditioning as well as domestic hot water production systems. One of the challenges towards their application in buildings is the requirement to predict parameters that are influenced by occupants' behavior that appears to be stochastic. In this context, this thesis focuses on evaluating data-based methods to estimate the predictability of domestic hot water and electricity consumption profiles in a residential building. The impact of a varying predictability on the performance is evaluated by implementing these forecasting models in model predictive controllers applied to domestic hot water production systems. First, the predictability of domestic hot water consumption profiles is evaluated from profiles measured in a 40-unit case-study residential building. More specifically, neural networks are trained to predict this consumption for systems of varying size ranging between one and 100 units. The level of predictability is identified as proportional to the number of units and shows high variability for single-family systems, starting at very low and reaching high levels (i.e., coefficient of determination from 8 to 92% with a mean of 58%). Results show that accurately predicting consumption peaks is a challenge and often results in underestimating their amplitude when a low predictability is observed. As the decisions of model predictive controllers are based on predictions, a low predictability could impact their energy-saving performance and ability to respect the constraints of domestic hot water production systems. Thus, the impact of the level of predictability of hot water consumption profiles on the performance of model predictive controllers is estimated. The performance of a theoretical model predictive controller relying on perfectly accurate predictions are compared with that of a controller using imperfect predictions produced by the previously trained neural networks. In single-family systems, the main impact of imperfect predictions on the performance is more violations of the storage temperature constraint due to the inability to act sufficiently in advance in preparation of underestimated future hot water consumption peaks. Nonetheless, comparing with a traditional controller, energy savings from 4 to 8% were obtained with the predictive controller relying on imperfect forecasts. By predicting energy-peak periods, the predictive controllers have the ability to reduce peak energy consumption by moving parts of the energy consumption to off-peak periods. In this context, many data-based prediction models are trained to predict the plug load and lighting electricity consumption of single-family residential units over horizons of 10 minutes to 24 hours. Gradient-boosted regression trees are identified as the method providing the highest prediction quality. A high variability is observed for the level of predictability between residential units, which could affect the controllers' ability to reduce electricity consumption peaks in some cases. Finally, a last chapter explores the potential of a model predictive controller using the prediction models of the domestic hot water demand and of the electricity consumption to forecast electricity-peak periods. As the electricity consumption was demonstrated as challenging to predict in many contexts, the impact of forecasting inaccuracies on the performance of controllers is even more displayed here. The results show that the model predictive controllers with perfect or imperfect predictions are more differentiated, with the first managing to reduce more the electricity-consumption peaks of the water heater by accurately predicting peak periods along with the corresponding domestic hot water demand. Compared with a traditional controller, peak-period energy savings ranging from 10 to 70% (mean of 26%) were obtained with the controller relying on imperfect forecasts depending on the studied residential unit. Globally, this thesis is a major step towards future application of model predictive controllers based on machine learning in residential buildings. The results demonstrate the potential of this control strategy to reduce the energy consumption of single-family domestic hot water systems.
|
330 |
Dignité des patients cérébrolésés réanimés par ventilation non thérapeutique pour le besoin d'autrui. Réflexion éthique théologique à l'aide de la Théorie de la reconnaissanceRandriamananjanahary, Andriamahay Jonah 14 September 2022 (has links)
À partir des années 1950, la ventilation mécanique a été utilisée dans les soins comme moyen d'assistance respiratoire, notamment lors de l'épidémie de poliomyélite. Grâce à la ventilation, certains patients voués à la mort sont réanimés et maintenus en vie par cette technique. À partir des années 1960, grâce au progrès de l'immunologie, de la thérapie antirejet et de la chirurgie, la ventilation mécanique est utilisée comme support d'assistance respiratoire dans le cadre de la transplantation d'organes. À partir des années 1990, elle sera utilisée pour minimiser la dégradation des organes en attente de prélèvement de patients donneurs. Les patients cérébrolésés dont la mort est imminente, ainsi que des patients en état de mort cérébrale, sont des candidats à cette pratique. Cette nouvelle technique, nommée « ventilation non thérapeutique » accorde, non seulement la préservation des organes, mais permet à l'équipe médicale de planifier, d'organiser les opérations de prélèvement et de transplantation. En outre, elle contribue à maintenir une respiration artificielle à une femme enceinte cérébrolésée grave jusqu'au terme de sa grossesse. Si l'évolution de cette technique de ventilation artificielle a offert de nouvelles possibilités, elle suscite de nouvelles interrogations éthiques. Bien que certains donneurs puissent donner un consentement éclairé, garant de l'autonomie, le fait de réanimer les patients pour les besoins d'autrui suscite des questionnements. De plus, dans le cas des patients cérébrolésés, l'absence de directive anticipée pose un problème. La question se pose : n'y a-t-il pas un risque de réifier l'être humain, le considérer comme un objet ? À cela s'ajoute la question du respect de la dignité de ces patients : le fait de les réanimer pour le besoin d'autrui respecte-t-il la dignité de la personne ? Bien que ces interrogations aient été abondantes à partir des années 1960, la littérature démontre qu'il n'y a que peu d'intérêt dans l'analyse de la ventilation artificielle comme moyen technique et comme objet de recherche. Pourtant le constat est clair, depuis l'usage clinique de la ventilation artificielle, l'émergence de cas cliniques inédits, situés entre la vie est observée. Ces situations engendrent des dilemmes éthiques. La question se pose donc: comment cette technique de ventilation est-elle arrivée à franchir le stade de l'usage non-thérapeutique ? Un survol de l'évolution du souffle antique vers la ventilation mécanique nous montre que le souffle a perdu sa charge religieuse et divine au cours des siècles. Le souffle contemporain est réduit à une notion purement physiologique d'échange gazeux. Il n'est plus un indicateur de vie, dont l'absence évoque la mort. Il est substituable par une machine telle que la ventilation mécanique. De plus, il y a un paradoxe. La présence de souffle ou de respiration naturelle était jadis garant et signe de vie. Désormais, un patient déclaré en état de mort cérébrale continue à respirer grâce à la ventilation artificielle, mais n'est plus considéré en vie. La mort devient un évènement technicisé, maitrisable, dépendant du statut du cerveau. Cela pourrait être expliqué par le fait que le souffle antique, l'âme sont intériorisés au cours des siècles pour transmigrer dans le cerveau. Pour mieux clarifier les processus d'évolution et de transformation de la technique en lien avec les patients cérébrolésés, nous faisons appel à différentes théories. Le cadre théorique développé par le théologien et historien Jacques Ellul nous a permis de comprendre la progression, la finalité et l'évolution de la ventilation artificielle dans le temps. En outre, grâce à la mobilisation de théories sociales, autour de la déshumanisation de Nick Haslam, il nous est possible d'apporter un nouvel éclairage sur les critères et les situations qui conduisent à considérer les patients comme des êtres non-humains ou comme des objets. La théorie de la reconnaissance d'Axel Honneth nous a servi à discerner non seulement le contexte d'évolution de la technique, mais également de comprendre pourquoi les patients cérébrolésés peuvent être réifiés, instrumentalisés pour le besoin d'autrui. À partir des axes de réflexion issus de la théorie de la reconnaissance et des constats, nous proposons une réflexion éthique théologique autour des trois formes de reconnaissance, à savoir l'amour, le droit et la solidarité. La théologie, par ses réserves de traditions et d'histoire, nous apporte un nouvel éclairage sur la condition particulière des patients cérébrolésés et apporte des balises pour contrer les processus potentiels de déshumanisation et de réification. / Since the 1950s, mechanical ventilation has been used in health care as a means of respiratory assistance, particularly during the polio epidemic. Thanks to ventilation, some patients destined to die were resuscitated and kept alive by this technique. From the 1960s onwards, thanks to advances in immunology, anti-rejection therapy and surgery, mechanical ventilation was used as a means of respiratory assistance in the context of organ transplantation. From the 1990s onwards, it will be used to minimize the degradation of organs awaiting harvesting from donor patients. Brain damaged patients whose death is imminent, as well as brain dead patients, have been candidates for this practice. This new technique, called "non-therapeutic ventilation", not only preserves the organs, but also allows the medical team to plan and organize the removal and transplantation operations. In addition, it helps maintain artificial respiration for a pregnant woman with severe brain injury until the end of her pregnancy. If this technique of artificial ventilation has evolved to offer new possibilities, nonetheless it raises new ethical questions. Although some donors can give informed consent, thus guaranteeing autonomy, the fact of resuscitating patients for the needs of others raises questions. In addition, in the case of brain-dead patients, the absence of an advanced directive poses a problem. The question that arises is whether there is not a risk of reifying the human being, of considering him as an object. In addition, there is the question of respect for the dignity of these patients. Does resuscitating them for the needs of others respect the dignity of the person? Although these types of questions have been abundant since the 1960s, the literature shows that there is little interest in the analysis of artificial ventilation as a technical means and as an object of research. However, since the clinical use of artificial ventilation, the emergence of new clinical cases, situated between life and death, has been clearly observed. These situations generate ethical dilemmas. The question arises: how does this ventilation technique contribute to crossing the line of non-therapeutic use? An overview of the evolution from the "ancient breath" to mechanical ventilation shows us that breath has lost its religious and divine charge over the centuries. Contemporary breath is reduced to a purely physiological notion of gas exchange. It is no longer an indicator of life, of which absence evokes death. It can be substituted by a machine such as mechanical ventilation. There is, however, a paradox. The presence of breath or natural breathing was once a guarantee and sign of life. Now, a patient declared brain dead continues to breathe thanks to artificial ventilation but is no longer considered alive. Death becomes a technical event, controllable, dependent on the status of the brain. This could be explained by the fact that the "ancient breath", the soul, has been internalized over the centuries to eventually transmigrate into the brain. To better clarify the processes of evolution and transformation of this technique in relation to brain injury patients, we appeal to different theories. The theoretical framework developed by the theologian and historian Jacques Ellul has allowed us to understand the progression, the evolution and the finality of artificial ventilation over time. Moreover, thanks to Nick Haslam and his mobilization of social theories regarding dehumanization, it is possible for us to shed new light on the criteria and on situations that lead to considering patients as non-human beings or as objects. Axel Honneth's theory of recognition has helped us to appreciate not only the context of the evolution of technology, but also to understand why brain injury patients can be reified, and instrumentalized for the needs of others. Based on the lines of thought derived from the theory of recognition and its findings, we propose a theological ethical reflection around the three forms of recognition, namely love, right and solidarity. Theology, with its reserves of tradition and history, sheds new light on the particular condition of brain injury patients and provides guidelines to counteract the potential processes of dehumanization and reification.
|
Page generated in 0.0681 seconds