• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 587
  • 373
  • 138
  • 4
  • 3
  • Tagged with
  • 1156
  • 922
  • 628
  • 356
  • 354
  • 313
  • 300
  • 298
  • 260
  • 231
  • 219
  • 213
  • 213
  • 203
  • 200
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Application de l'intelligence artificielle à la prédiction de la demande en eau chaude domestique et en électricité pour le contrôle par modèle prédictif dans les bâtiments résidentiels

Maltais, Louis-Gabriel 13 December 2023 (has links)
Le secteur du bâtiment représente plus du tiers de la consommation énergétique et des émissions de gaz à effet de serre mondiales. Face à cet enjeu, des stratégies passives ont permis d'améliorer l'efficacité énergétique des bâtiments. À mesure que les technologies passives se rapprochent de leur limite physique d'efficacité, il devient nécessaire de s'intéresser à des technologies actives. Les stratégies de contrôle par modèle prédictif ont le potentiel de réduire la consommation énergétique des systèmes de chauffage, climatisation, ventilation, conditionnement de l'air et de production d'eau chaude domestique. Une difficulté limitant leur implantation dans les bâtiments provient du besoin de prédire des paramètres influencés par le comportement des occupantes et des occupants qui apparait stochastique, complexifiant le développement de modèles de prédiction. Dans ce contexte, cette thèse se concentre à évaluer des méthodes basées sur les données pour estimer la prédictibilité de la consommation d'eau chaude domestique et d'électricité dans un bâtiment résidentiel. L'impact d'une prédictibilité variable sur les performances est évalué lors de l'implémentation de ces modèles de prédiction dans des contrôleurs par modèle prédictif appliqués à des systèmes de production d'eau chaude domestique. Premièrement, la prédictibilité des profils de consommation d'eau chaude est évaluée à partir de profils mesurés dans un bâtiment résidentiel de 40 logements. Plus précisément, des réseaux de neurones sont entraînés à prédire cette consommation pour des systèmes de tailles variables allant d'un à 100 logements. Le niveau de prédictibilité est identifié comme étant proportionnel au nombre de logements et hautement variable pour des systèmes unifamiliaux, passant de très faible à élevé (c.-à-d., coefficient de détermination allant de 8 à 92% avec une moyenne de 58%). Les résultats montrent une difficulté à prédire précisément les pics de consommation, souvent sous-estimés lorsqu'une faible prédictibilité est observée. Puisqu'un contrôleur par modèle prédictif base ses décisions sur les prédictions, une faible prédictibilité pourrait impacter les performances en termes d'économie d'énergie et de respect des contraintes applicables à un système de production d'eau chaude. Deuxièmement, l'impact du niveau de prédictibilité des profils de consommation d'eau chaude sur les performances de contrôleurs par modèle prédictif est estimé. Les performances d'un contrôleur par modèle prédictif théorique employant des prédictions parfaitement précises sont comparées avec celles obtenues avec un contrôleur employant des prédictions imparfaites produites par les réseaux de neurones entraînés précédemment. Pour un système unifamilial, le principal effet des prédictions imparfaites sur les performances est le non-respect plus fréquent des contraintes de température dû à une incapacité à agir suffisamment en avance en préparation aux futurs pics de consommation d'eau chaude sous-estimés. Néanmoins, en comparaison avec une commande traditionnelle, des économies d'énergie allant de 4 à 8% ont été obtenues avec le contrôleur employant les prédictions imparfaites. En prédisant les périodes de pointe énergétique, les contrôleurs par modèle prédictif ont la capacité de réduire les pointes de consommation énergétique en déplaçant une partie de cette consommation vers les périodes hors-pointes. Dans cette optique, plusieurs modèles de prédiction basés sur les données sont entraînés afin de prédire la consommation d'électricité de logements unifamiliaux liée à l'éclairage et à l'utilisation des prises de courant sur plusieurs horizons allant de 10 minutes à 24 heures. Les arbres de décision renforcés (boosted) par le gradient sont identifiés comme étant la méthode produisant la meilleure qualité de prédiction. Une grande variabilité quant au niveau de prédictibilité est observée entre les logements, ce qui pourrait affecter la capacité des contrôleurs à réduire la consommation énergétique de pointe dans certains cas. Finalement, un dernier chapitre explore le potentiel d'un contrôleur par modèle prédictif employant les modèles de prédiction de la demande en eau chaude et de la consommation d'électricité pour prédire les périodes de pointe. Les résultats démontrent une plus grande différenciation entre les contrôleurs par modèle prédictif avec prédictions parfaites et imparfaites, le premier permettant de réduire d'avantage la consommation énergétique de pointe du chauffe-eau en prédisant plus précisément les périodes de pointe ainsi que la demande en eau chaude domestique correspondante. En comparaison avec la commande traditionnelle, des économies d'énergie pendant les périodes de pointe allant de 10 à 70% (moyenne de 26%) selon l'unité résidentielle étudiée ont été obtenues avec le contrôleur basé sur les prédictions imparfaites. Globalement, cette thèse représente un grand pas vers l'application future des contrôleurs par modèle prédictif basés sur l'apprentissage machine dans les bâtiments résidentiels, et les résultats obtenus démontrent le potentiel de cette stratégie de contrôle face à la réduction de la consommation d'énergie des systèmes de production d'eau chaude domestique unifamiliaux. / The building sector accounts for more than a third of the worldwide energy consumption and greenhouse gas emissions. Facing these challenges, passive strategies have allowed to increase the energy efficiency of buildings. As these passive technologies are reaching their efficiency limits, it is necessary to turn our interest to active technologies. Model predictive control strategies have the potential to reduce the energy consumption of heating, cooling, ventilation and air conditioning as well as domestic hot water production systems. One of the challenges towards their application in buildings is the requirement to predict parameters that are influenced by occupants' behavior that appears to be stochastic. In this context, this thesis focuses on evaluating data-based methods to estimate the predictability of domestic hot water and electricity consumption profiles in a residential building. The impact of a varying predictability on the performance is evaluated by implementing these forecasting models in model predictive controllers applied to domestic hot water production systems. First, the predictability of domestic hot water consumption profiles is evaluated from profiles measured in a 40-unit case-study residential building. More specifically, neural networks are trained to predict this consumption for systems of varying size ranging between one and 100 units. The level of predictability is identified as proportional to the number of units and shows high variability for single-family systems, starting at very low and reaching high levels (i.e., coefficient of determination from 8 to 92% with a mean of 58%). Results show that accurately predicting consumption peaks is a challenge and often results in underestimating their amplitude when a low predictability is observed. As the decisions of model predictive controllers are based on predictions, a low predictability could impact their energy-saving performance and ability to respect the constraints of domestic hot water production systems. Thus, the impact of the level of predictability of hot water consumption profiles on the performance of model predictive controllers is estimated. The performance of a theoretical model predictive controller relying on perfectly accurate predictions are compared with that of a controller using imperfect predictions produced by the previously trained neural networks. In single-family systems, the main impact of imperfect predictions on the performance is more violations of the storage temperature constraint due to the inability to act sufficiently in advance in preparation of underestimated future hot water consumption peaks. Nonetheless, comparing with a traditional controller, energy savings from 4 to 8% were obtained with the predictive controller relying on imperfect forecasts. By predicting energy-peak periods, the predictive controllers have the ability to reduce peak energy consumption by moving parts of the energy consumption to off-peak periods. In this context, many data-based prediction models are trained to predict the plug load and lighting electricity consumption of single-family residential units over horizons of 10 minutes to 24 hours. Gradient-boosted regression trees are identified as the method providing the highest prediction quality. A high variability is observed for the level of predictability between residential units, which could affect the controllers' ability to reduce electricity consumption peaks in some cases. Finally, a last chapter explores the potential of a model predictive controller using the prediction models of the domestic hot water demand and of the electricity consumption to forecast electricity-peak periods. As the electricity consumption was demonstrated as challenging to predict in many contexts, the impact of forecasting inaccuracies on the performance of controllers is even more displayed here. The results show that the model predictive controllers with perfect or imperfect predictions are more differentiated, with the first managing to reduce more the electricity-consumption peaks of the water heater by accurately predicting peak periods along with the corresponding domestic hot water demand. Compared with a traditional controller, peak-period energy savings ranging from 10 to 70% (mean of 26%) were obtained with the controller relying on imperfect forecasts depending on the studied residential unit. Globally, this thesis is a major step towards future application of model predictive controllers based on machine learning in residential buildings. The results demonstrate the potential of this control strategy to reduce the energy consumption of single-family domestic hot water systems.
332

Agent-based simulations for advanced supply chain planning : a methodological framework for requirements analysis and deployment

Santa-Eulalia, Luis-Antonio 16 April 2018 (has links)
Le paradigme multi-agents est largement utilisé pour concevoir des outils de simulation dédiés à la chaîne de création de valeur. En dépit de son attrait et de son ample utilisation dans la recherche, la technologie agent et son intégration avec des outils de planification de la chaîne de création de valeur distribuée représente encore un champ à explorer. En particulier, il existe une lacune de recherche dans la phase d'analyse des cadres méthodologiques basés sur le concept des multi-agents. Cette phase représente le premier effort de modélisation et influence considérablement le processus de création entier, ainsi que les simulations résultantes. Afin de contribuer à combler cette lacune, cette thèse présente un cadre méthodologique appelé FAMASS -Architecture FORAC pour modéliser des simulations multi-agents pour la planification des chaînes de création de valeur. L'approche FAMASS a l'intention de fournir une représentation uniforme d'un système distribué de planification avancée (d-APS) qui utilise la technologie multi-agents, un support à des analystes de simulation pour définir clairement les besoin fonctionnels des utilisateurs de scénarios de simulation, ainsi que leurs définitions expérimentales, et un guide aux analystes pour déployer les modèles d'analyse en modèles de spécification et de design. Par conséquent, la capitalisation de la connaissance et du savoir-faire des acteurs de la simulation est améliorée. Les scénarios de simulation sont donc modélisés plus vite, de façon plus précise, et ils sont éventuellement développés et utilisés. Le cadre méthodologique proposé est validé à travers une méthode de preuve-de-concept fondée sur un cas industriel solide et réaliste.
333

Dignité des patients cérébrolésés réanimés par ventilation non thérapeutique pour le besoin d'autrui. Réflexion éthique théologique à l'aide de la Théorie de la reconnaissance

Randriamananjanahary, Andriamahay Jonah 13 December 2023 (has links)
À partir des années 1950, la ventilation mécanique a été utilisée dans les soins comme moyen d'assistance respiratoire, notamment lors de l'épidémie de poliomyélite. Grâce à la ventilation, certains patients voués à la mort sont réanimés et maintenus en vie par cette technique. À partir des années 1960, grâce au progrès de l'immunologie, de la thérapie antirejet et de la chirurgie, la ventilation mécanique est utilisée comme support d'assistance respiratoire dans le cadre de la transplantation d'organes. À partir des années 1990, elle sera utilisée pour minimiser la dégradation des organes en attente de prélèvement de patients donneurs. Les patients cérébrolésés dont la mort est imminente, ainsi que des patients en état de mort cérébrale, sont des candidats à cette pratique. Cette nouvelle technique, nommée « ventilation non thérapeutique » accorde, non seulement la préservation des organes, mais permet à l'équipe médicale de planifier, d'organiser les opérations de prélèvement et de transplantation. En outre, elle contribue à maintenir une respiration artificielle à une femme enceinte cérébrolésée grave jusqu'au terme de sa grossesse. Si l'évolution de cette technique de ventilation artificielle a offert de nouvelles possibilités, elle suscite de nouvelles interrogations éthiques. Bien que certains donneurs puissent donner un consentement éclairé, garant de l'autonomie, le fait de réanimer les patients pour les besoins d'autrui suscite des questionnements. De plus, dans le cas des patients cérébrolésés, l'absence de directive anticipée pose un problème. La question se pose : n'y a-t-il pas un risque de réifier l'être humain, le considérer comme un objet ? À cela s'ajoute la question du respect de la dignité de ces patients : le fait de les réanimer pour le besoin d'autrui respecte-t-il la dignité de la personne ? Bien que ces interrogations aient été abondantes à partir des années 1960, la littérature démontre qu'il n'y a que peu d'intérêt dans l'analyse de la ventilation artificielle comme moyen technique et comme objet de recherche. Pourtant le constat est clair, depuis l'usage clinique de la ventilation artificielle, l'émergence de cas cliniques inédits, situés entre la vie est observée. Ces situations engendrent des dilemmes éthiques. La question se pose donc: comment cette technique de ventilation est-elle arrivée à franchir le stade de l'usage non-thérapeutique ? Un survol de l'évolution du souffle antique vers la ventilation mécanique nous montre que le souffle a perdu sa charge religieuse et divine au cours des siècles. Le souffle contemporain est réduit à une notion purement physiologique d'échange gazeux. Il n'est plus un indicateur de vie, dont l'absence évoque la mort. Il est substituable par une machine telle que la ventilation mécanique. De plus, il y a un paradoxe. La présence de souffle ou de respiration naturelle était jadis garant et signe de vie. Désormais, un patient déclaré en état de mort cérébrale continue à respirer grâce à la ventilation artificielle, mais n'est plus considéré en vie. La mort devient un évènement technicisé, maitrisable, dépendant du statut du cerveau. Cela pourrait être expliqué par le fait que le souffle antique, l'âme sont intériorisés au cours des siècles pour transmigrer dans le cerveau. Pour mieux clarifier les processus d'évolution et de transformation de la technique en lien avec les patients cérébrolésés, nous faisons appel à différentes théories. Le cadre théorique développé par le théologien et historien Jacques Ellul nous a permis de comprendre la progression, la finalité et l'évolution de la ventilation artificielle dans le temps. En outre, grâce à la mobilisation de théories sociales, autour de la déshumanisation de Nick Haslam, il nous est possible d'apporter un nouvel éclairage sur les critères et les situations qui conduisent à considérer les patients comme des êtres non-humains ou comme des objets. La théorie de la reconnaissance d'Axel Honneth nous a servi à discerner non seulement le contexte d'évolution de la technique, mais également de comprendre pourquoi les patients cérébrolésés peuvent être réifiés, instrumentalisés pour le besoin d'autrui. À partir des axes de réflexion issus de la théorie de la reconnaissance et des constats, nous proposons une réflexion éthique théologique autour des trois formes de reconnaissance, à savoir l'amour, le droit et la solidarité. La théologie, par ses réserves de traditions et d'histoire, nous apporte un nouvel éclairage sur la condition particulière des patients cérébrolésés et apporte des balises pour contrer les processus potentiels de déshumanisation et de réification. / Since the 1950s, mechanical ventilation has been used in health care as a means of respiratory assistance, particularly during the polio epidemic. Thanks to ventilation, some patients destined to die were resuscitated and kept alive by this technique. From the 1960s onwards, thanks to advances in immunology, anti-rejection therapy and surgery, mechanical ventilation was used as a means of respiratory assistance in the context of organ transplantation. From the 1990s onwards, it will be used to minimize the degradation of organs awaiting harvesting from donor patients. Brain damaged patients whose death is imminent, as well as brain dead patients, have been candidates for this practice. This new technique, called "non-therapeutic ventilation", not only preserves the organs, but also allows the medical team to plan and organize the removal and transplantation operations. In addition, it helps maintain artificial respiration for a pregnant woman with severe brain injury until the end of her pregnancy. If this technique of artificial ventilation has evolved to offer new possibilities, nonetheless it raises new ethical questions. Although some donors can give informed consent, thus guaranteeing autonomy, the fact of resuscitating patients for the needs of others raises questions. In addition, in the case of brain-dead patients, the absence of an advanced directive poses a problem. The question that arises is whether there is not a risk of reifying the human being, of considering him as an object. In addition, there is the question of respect for the dignity of these patients. Does resuscitating them for the needs of others respect the dignity of the person? Although these types of questions have been abundant since the 1960s, the literature shows that there is little interest in the analysis of artificial ventilation as a technical means and as an object of research. However, since the clinical use of artificial ventilation, the emergence of new clinical cases, situated between life and death, has been clearly observed. These situations generate ethical dilemmas. The question arises: how does this ventilation technique contribute to crossing the line of non-therapeutic use? An overview of the evolution from the "ancient breath" to mechanical ventilation shows us that breath has lost its religious and divine charge over the centuries. Contemporary breath is reduced to a purely physiological notion of gas exchange. It is no longer an indicator of life, of which absence evokes death. It can be substituted by a machine such as mechanical ventilation. There is, however, a paradox. The presence of breath or natural breathing was once a guarantee and sign of life. Now, a patient declared brain dead continues to breathe thanks to artificial ventilation but is no longer considered alive. Death becomes a technical event, controllable, dependent on the status of the brain. This could be explained by the fact that the "ancient breath", the soul, has been internalized over the centuries to eventually transmigrate into the brain. To better clarify the processes of evolution and transformation of this technique in relation to brain injury patients, we appeal to different theories. The theoretical framework developed by the theologian and historian Jacques Ellul has allowed us to understand the progression, the evolution and the finality of artificial ventilation over time. Moreover, thanks to Nick Haslam and his mobilization of social theories regarding dehumanization, it is possible for us to shed new light on the criteria and on situations that lead to considering patients as non-human beings or as objects. Axel Honneth's theory of recognition has helped us to appreciate not only the context of the evolution of technology, but also to understand why brain injury patients can be reified, and instrumentalized for the needs of others. Based on the lines of thought derived from the theory of recognition and its findings, we propose a theological ethical reflection around the three forms of recognition, namely love, right and solidarity. Theology, with its reserves of tradition and history, sheds new light on the particular condition of brain injury patients and provides guidelines to counteract the potential processes of dehumanization and reification.
334

La géosimulation orientée agent : un support pour la planification dans le monde réel

Sahli, Nabil 11 April 2018 (has links)
La planification devient complexe quand il s’agit de gérer des situations incertaines. Prédire de façon précise est une tâche fastidieuse pour les planificateurs humains. L’approche Simulation-Based Planning consiste à associer la planification à la simulation. Chaque plan généré est simulé afin d’être testé et évalué. Le plan le plus approprié est alors retenu. Cependant, le problème est encore plus complexe lorsque viennent s’ajouter des contraintes spatiales. Par exemple, lors d’un feu de forêt, des bulldozers doivent construire une ligne d’arrêt pour arrêter la propagation des feux. Ils doivent alors tenir compte non seulement de l’avancée des feux mais aussi des caractéristiques du terrain afin de pouvoir avancer plus facilement. Nous proposons une approche de géosimulation basée sur les agents et qui a pour but d’assister la planification dans un espace réel, à large échelle géographique et surtout à forte composante spatiale. Un feu de forêt est un problème typique nécessitant une planification dans un monde réel incertain et soumis à de fortes contraintes spatiales. Nous illustrons donc notre approche (nommée ENCASMA) sur le problème des feux de forêts. L’approche consiste à établir un parallélisme entre l’Environnement Réel ER (p.ex. une forêt incendiée) et un Environnement de Simulation ES (p.ex. une reproduction virtuelle de la forêt incendiée). Pour garantir un niveau acceptable de réalisme, les données spatiales utilisées dans l’ES doivent absolument provenir d’un SIG (Système d’information Géographique). Les planificateurs réels comme les pompiers ou les bulldozers sont simulés par des agents logiciels qui raisonnent sur l’espace modélisé par l’ES. Pour une meilleure sensibilité spatiale (pour tenir compte de toutes les contraintes du terrain), les agents logiciels sont dotés de capacités avancées telles que la perception. En utilisant une approche par géosimulation multiagent, nous pouvons générer une simulation réaliste du plan à exécuter. Les décideurs humains peuvent visualiser les conséquences probables de l’exécution de ce plan. Ils peuvent ainsi évaluer le plan et éventuellement l’ajuster avant son exécution effective (sur le terrain). Quand le plan est en cours d’exécution, et afin de garantir la cohérence des données entre l’ER et l’ES, nous gardons trace sur l’ES des positions (sur l’ER) des planificateurs réels (en utilisant les technologies du positionnement géoréférencé). Nous relançons la planification du reste du plan à partir de la position courante de planificateur réel, et ce de façon périodique. Ceci est fait dans le but d’anticiper tout problème qui pourrait survenir à cause de l’aspect dynamique de l’ER. Nous améliorons ainsi le processus classique de l’approche DCP (Distributed Continual Planning). Enfin, les agents de l’ES doivent replanifier aussitôt qu’un événement imprévu est rapporté. Étant donné que les plans générés dans le cas étudié (feux de forêts) sont essentiellement des chemins, nous proposons également une approche basée sur la géosimulation orientée agent pour résoudre des problèmes particuliers de Pathfinding (recherche de chemin). De plus, notre approche souligne les avantages qu’apporte la géosimulation orientée agent à la collaboration entre agents humains et agents logiciels. Plus précisément, elle démontre : • Comment la cognition spatiale des agents logiciels sensibles à l’espace peut être complémentaire avec la cognition spatiale des planificateurs humains. • Comment la géosimulation orientée agent peut complémenter les capacités humaines de planification lors de la résolution de problèmes complexes. Finalement, pour appliquer notre approche au cas des feux de forêts, nous avons utilisé MAGS comme plate-forme de géosimulation et Prometheus comme simulateur du feu. Les principales contributions de cette thèse sont : 1. Une architecture (ENCASMA) originale pour la conception et l’implémentation d’applications (typiquement des applications de lutte contre les désastres naturels) dans un espace géographique réel à grande échelle et dynamique. 2. Une approche basée sur les agents logiciels pour des problèmes de Pathfinding (recherche de chemin) particuliers (dans un environnement réel et à forte composante spatiale, soumis à des contraintes qualitatives). 3. Une amélioration de l’approche de planification DCP (plus particulièrement le processus de continuité) afin de remédier à certaines limites de la DCP classique. 4. Une solution pratique pour un problème réel et complexe : la lutte contre les feux de forêts. Cette nouvelle solution permet aux experts du domaine de mieux planifier d’avance les actions de lutte et aussi de surveiller l’exécution du plan en temps réel. / Planning becomes complex when addressing uncertain situations. Accurate predictions remain a hard task for human planners. The Simulation-Based Planning approach consists in associating planning and simulation. Each generated plan is simulated in order to be tested and evaluated. The most appropriate plan is kept. The problem is even more complex when considering spatial constraints. For example, when fighting a wildfire, dozers build a firebreak to stop fire propagation. They have to take into account not only the fire spread but also the terrain characteristics in order to move easily. We propose an agent-based geosimulation approach to assist such planners with planning under strong spatial constraints in a real large-scale space. Forest fire fighting is a typical problem involving planning within an uncertain real world under strong spatial constraints. We use this case to illustrate our approach (ENCASM). The approach consists in drawing a parallel between the Real Environment RE (i.e. a forest in fire) and the Simulated Environment SE (i.e. a virtual reproduction of the forest). Spatial data within the SE should absolutely come from a GIS (Geographic Information System) for more realism. Real planners such as firefighters or dozers are simulated using software agents which reason about the space of the SE. To achieve a sufficient spatial awareness (taking into account all terrain’s features), agents have advanced capabilities such as perception. Using a multiagent geosimulation approach, we can generate a realistic simulation of the plan so that human decision makers can visualize the probable consequences of its execution. They can thus evaluate the plan and adjust it before it can effectively be executed. When the plan is in progress and in order to maintain coherence between RE and SE, we keep track in the SE of the real planners’ positions in the RE (using georeferencing technologies). We periodically replan the rest of the plan starting from the current position of the real planner. This is done in order to anticipate any problem which could occur due to the dynamism of the RE. We thus enhance the process of the classical Distributed Continual Planning DCP. Finally, the agents must replan as soon as an unexpected event is reported by planners within the RE. Since plans in the studied case (forest fires) are mainly paths, we propose a new approach based on agent geosimulation to solve particular Pathfinding problems. Besides, our approach highlights the benefits of the agent-based geo-simulation to the collaboration of both humans and agents. It thus shows: • How spatial cognitions of both spatially aware agents and human planners can be complementary. • How agent-based geo-simulation can complement human planning skills when addressing complex problems. Finally, when applying our approach on firefighting, we use MAGS as a simulation platform and Prometheus as a fire simulator. The main contributions of this thesis are: 1. An original architecture (ENCASMA) for the design and the implementation of applications (typically, natural disasters applications) in real, dynamic and large-scale geographic spaces. 2. An agent-based approach for particular Pathfinding problems (within real and spatially constrained environments and under qualitative constraints). 3. An enhancement of the DCP (particularly, the continual process) approach in order to overcome some limits of the classical DCP. 4. A practical solution for a real and complex problem: wildfires fighting. This new solution aims to assist experts when planning firefighting actions and monitoring the execution of these plans.
335

Contraintes et observabilité dans les systèmes de Markov décentralisés

Besse, Camille 16 April 2018 (has links)
De manière générale, les problèmes séquentiels de décisions multiagents sont très difficiles à résoudre surtout lorsque les agents n'observent pas parfaitement ni complètement l'état de leur environnement. Les modèles actuels pour représenter ces problèmes restent à ce jour très généraux et difficilement applicables dans les multiples applications possibles. Nous proposons dans cette thèse plusieurs approches de réduction de la complexité computationnelle et en pire cas de ces modèles. Une première approche se base sur l'utilisation de contraintes sur l'espace des actions possibles que les différents agents du système peuvent entreprendre. Cette utilisation de connaissances a priori dans la modélisation au travers de modèles déjà connus, mais non appliqués à la prise de décision séquentielle permet une réduction significative d'un des facteurs de la complexité algorithmique. La seconde approche consiste à restreindre les possibilités d'observations de l'agent à un ensemble similaire à l'espace d'états utilisé pour représenter son environnement. De cette manière, nous montrons que les agents peuvent converger rapidement en probabilité vers des croyances communes sans nécessairement avoir à communiquer. Dans ce contexte, nous avons également développé un algorithme permettant alors aux agents de se coordonner au moment de l'exécution lorsqu'il n'existe pas de communication explicite. Enfin, nous avons entrepris la mise en application de telles réductions à deux problèmes. Un premier problème de patrouille multiagent est considéré et modélisé, et un second problème lié à l'apprentissage de POMDPS continus dans des cas précis de transition et d'observabilité est également abordé. Les résultats obtenus montrent que dans certains cas de problèmes de coordination, la communication ? lorsqu'elle est disponible ? est non négligeable, et que dans le cas de l'apprentissage de POMDPs, considérer le quasi-déterminisme du modèle permet l'apprentissage de converger.
336

Évaluation des propriétés physiques de la peau reconstruite bilamellaire autologue à l'aide de trois instruments de mesure

Arcand, Charles 22 April 2024 (has links)
Titre de l'écran-titre (visionné le 15 avril 2024) / $\bf{\underline{Introduction :}}$ Le traitement des patients souffrant de brûlures extensives constitue un défi au niveau médical puisqu'ils font face à une paucité de sites donneurs pour réaliser le traitement conventionnel de greffe cutanée d'épaisseur partielle (STSG : split-thickness skin graft). La peau reconstruite bilamellaire autologue (PRBA), un produit développé au Laboratoire d'Organogenèse Expérimentale (LOEX) et évalué précédemment dans une série de cas, est une alternative potentielle. Les qualités physiques de la PRBA suivant sa greffe chez le patient brûlé doivent être évaluées. <br>$\bf{\underline{Methode :}}$ Dans le cadre de l'étude clinique SASS-2 (*Self-Assembled Skin Substitute for the Autologous Treatment of Severe Burn Wounds in Acute Stage of Burn Trauma*), la PRBA a été greffée côte à côte à la STSG. La qualité de la cicatrice a été évaluée quantitativement à l'aide de trois instruments de mesure : le Dermascan (épaisseur du derme), le Cutomètre® (élasticité et fermeté de la peau), et le Mexamètre® (érythème et mélanine). Les cicatrices ont aussi été évaluées par l'échelle de Vancouver modifiée. Les patients ont été évalués à trois, six, 12, 24 et 36 mois post-greffe. Chaque donnée recueillie par les appareils de mesure était obtenue à trois reprises. <br>$\bf{\underline{Resultats :}}$ Aucune différence de l'érythème, l'épaisseur du derme, et des propriétés viscoélastiques n'a été objectivée entre les deux greffes. Le contenu en mélanine était significativement plus bas suite aux greffes de PRBA. Le score de Vancouver était similaire pour les deux substituts. Aucune cicatrice pathologique n'a été diagnostiquée cliniquement. <br>$\bf{\underline{Conclusion :}}$ La peau à la suite des greffes de PRBA avait une épaisseur et des propriétés viscoélastiques similaires à celle obtenue suite à la greffe de STSG. Le contenu de mélanine était inférieur, comme on pouvait s'y attendre en raison de la croissance limitée des mélanocytes pendant la production des PRBA. Ces résultats indiquent que la PRBA pourrait être une alternative intéressante à la STSG chez les patients souffrant de brûlures graves. / $\bf{\underline{Introduction:}}$ Severely burned patients present great medical challenges as viable skin used for conventional Split Thickness Skin Graft (STSG) gets scarce. Self-Assembled Skin Substitute (SASS), a skin substitute created at the Laboratoire d'Organogenèse Expérimentale (LOEX) and used in a previous case series, could become an alternative for such patients. The physical properties of SASS following its graft in burn victims must be evaluated. <br>$\bf{\underline{Methods:}}$ Within the SASS-2 clinical trial (*Self-Assembled Skin Substitute for the Autologous Treatment of Severe Burn Wounds in Acute Stage of Burn Trauma*), SASS has been grafted next to the STSG. Long term scar quality was evaluated using three devices: the Dermascan (dermal thickness), the Cutometer® (firmness and elasticity), and the Mexameter® (melanin and erythema). Measurements of both test sites and other sites were performed at three-, six-, 12-, 24- and 36-months post-graft. All measurements were repeated 3 times. The modified Vancouver Scar Scale (mVSS) was also used in the follow-up appointments. <br>$\bf{\underline{Results:}}$ No difference has been detected in dermal thickness, skin firmness or elasticity between the scars of the areas grafted with SASS and the areas grafted with STSG. Erythema values were similar between sites and diminished with time in all patients. Melanin levels were significantly lower in the sites grafted SASS than the sites grafted withSTSG. mVSS scores were lower in the sites grafted with STSG. No skin graft met the required criteria for pathologic scar at the end of their evaluation. <br>$\bf{\underline{Conclusion:}}$ Following graft, SASS shows a similar thickness, and viscoelastic properties when compared to STSG. Its melanin content was inferior, which was to be expected owing to the poor growth of melanocytes during production of SASS. These results show that SASS could provide a good alternative to STSG in severely burned patients.
337

Détection précoce de ravageurs sur les plantes de cannabis par imagerie multispectrale : intelligence artificielle et apprentissage automatique

Si Ahmed, Ahmed 30 April 2024 (has links)
Ce mémoire porte sur l'étude de nouvelles méthodes de détection précoce des maladies sur les plantes du cannabis avec de l'imagerie par tests non-destructifs. Ces méthodes permettent la détection des ravageurs sur les plantes du cannabis à l'état précoce à partir d'images multispectrales et ainsi facilitent l'automatisation de l'inspection et la surveillance des cultures. Le travail se sépare en trois parties. Premièrement, les différentes techniques utilisées dans ce domaine pour la détection des plantes malades ainsi que la surveillance de celle-ci seront détaillées. Ensuite, il sera question d'un article publié dans le cadre de la conférence SPIE Defense + Commercial Sensing (Ahmed, et al., 2023). Cet article propose une nouvelle méthode pour la détection précoce des maladies sur les plants de cannabis en utilisant l'intelligence artificielle et l'imagerie multispectrale. À ce jour, il s'agit du premier article disponible avec cette méthode testée sur des plants du cannabis. Il permet d'introduire le reste de ce mémoire puisque le travail fait dans le cadre de cet article a directement contribué au reste de la recherche. Il sera ensuite question du travail effectué pour obtenir des images multispectrales avec la caméra multispectrale Micasense Red-Edge. Nous parlerons de la nouvelle méthode qui a été appliquée pour réussir la détection. Pour terminer, nous montrerons les résultats de ce projet sous la forme de graphes et de tableaux des différentes prédictions
338

Automated hypovigilance detection in the ICU using artificial intelligence to analyse continuously monitored vital signs

Giguère, Raphaëlle 16 December 2024 (has links)
La vigilance telle que définie par van Schie (2021) est la capacité d'être conscient des changements pertinents et imprévus dans son environnement. L'hypovigilance, un état de vigilance réduite, affecte la perception, l'attention, la prise de décision et le jugement, et constitue une manifestation d'un délirium. Cette dernière condition est associée, dans les milieux de soins, à une incidence élevée de complications médicales. Il est donc intéressant d'explorer la détection d'une baisse de vigilance afin de prédire le délirium pour qu'un système d'aide à la décision puisse un jour identifier des épisodes de délirium ou prédire leur survenue à l'avance. Cependant, cela doit être effectué de façon non intrusive, efficace, et en continu, particulièrement dans des milieux opérationnels comme les unités de soins intensifs. Or, les avancées en intelligence artificielle permettent de développer des modèles de détection de l'hypovigilance basés sur les fluctuations psychophysiologiques des signes vitaux tels que la fréquence cardiaque et la respiration, comme mesures indirectes des changements d'état de vigilance. L'objectif de cette étude était de dériver un algorithme d'intelligence artificielle capable de détecter les épisodes d'hypovigilance à partir de tels signes vitaux de patients admis aux soins intensifs. En utilisant la base de données ÉVEILS (Évaluation du délirium à l'aide de paramètres physiologiques et de la surveillance de l'hypovigilance) six modèles ont été développés. Le plus performant fut le LightGBM, avec une précision moyenne de 0.76, un rappel moyen de 0.74 et un score F1 moyen de 0.69. Ces résultats mettent en évidence la possibilité de développer un modèle automatisé pour détecter l'hypovigilance à partir des signes vitaux colligés en continue au chevet des patients. Des études supplémentaires seront nécessaires pour valider ce modèle auprès d'autres cohortes de patients, et pour une généralisation à des populations en santé et à d'autres types de contextes où la vigilance est aussi importante (par exemple des pilotes d'avion). / Vigilance is defined by van Schie (2021) as the ability to be aware of relevant and unexpected changes in an individual's environment. Hypovigilance, a state of reduced vigilance, affects perception, attention, decision-making, and judgment, and is a clinical manifestation of delirium and one of the diagnostic criteria used to diagnose delirium. The latter condition is associated, in hospital care environments, with a high incidence of medical complications. It is therefore desirable to use hypovigilance detection to identify and eventually possibly predict the onset of episodes of delirium. However, this must be done non-intrusively, efficiently, and continuously, particularly in operational settings such as intensive care units. Advances in artificial intelligence (AI) are now making it possible to develop hypovigilance detection models based on psychophysiological fluctuations in vital signs such as heart rate and respiration, as indirect measures of changes in vigilance state. The aim of this study was to derive an AI algorithm capable of detecting hypovigilance episodes from such vital signs of patients admitted to intensive care unit. Using the ÉVEILS (Evaluation of delirium using physiological parameters and hypovigilance monitoring) database, six models were developed. The best performing model was LightGBM, with an average precision of 0.76, an average recall of 0.74, and an average F1 score of 0.69. These results highlight the possibility of developing an automated model to detect hypovigilance based on vital signs collected continuously at the bedside. Further studies need to be conducted to validate this model with other patient cohorts, and for generalization to healthy populations and other types of context where vigilance is also important (e.g. aircraft pilots).
339

Environnements personnels d'apprentissage : modélisation multi-agents d'un support de construction

N'dongo, Harouna 02 May 2024 (has links)
À l’heure du Web 2.0, de nouvelles pratiques d’apprentissage se sont développées au sein de la communauté universitaire. Les étudiants adoptent des pratiques d’intégration de leurs activités sociales au sein de leur processus d’apprentissage. Ces derniers s’attendent à avoir accès à une vaste quantité d’information à travers des outils formels ou informels et à faire partie d'une communauté mondiale de pairs. Le besoin de combiner les ressources institutionnelles et personnelles formalise le concept d’environnement personnel d’apprentissage (EPA). Toutefois, l’élaboration de tels environnements nécessite de développer des compétences complexes que les étudiants du supérieur, pourtant décrits comme natifs du numérique, ne possèdent pas nécessairement. Quelques supports de construction d’EPA ont été proposés dans la littérature, mais ces travaux mettent de côté un point important qui est l’interopérabilité des ressource s. L’objectif du présent mémoire est de fournir aux étudiants un support de construction de leur EPA sous forme d’un tableau de bord, qui permettra d’avoir une vision actualisée des ressources et d’exploiter davantage les liens qui en découlent. Offrir aux étudiants un support de construction de leur EPA est une façon de leur faciliter la réappropriation individuelle des ressources d’apprentissage provenant de sources variées et une gestion optimale en termes de contenu et de processus. La solution proposée est basée sur le concept des systèmes multi-agents et repose sur le modèle organisationnel Agent - Groupe - Rôle. Un prototype a également été implémenté et a permis de démontrer la faisabilité de la solution proposée. / With Web 2.0, the university community have developed new learning practices. Students adopt practices for integrating their social activities into their learning process. The needs of learners are rapidly changed and institutions do not still offer resources totally adapted to this context. Students expect to have access to a vast amount of information through formal or informal tools and to be part of a global peer community. The need to combine institutional and personal resources implies a new concept: Personal Learning Environment (PLE). A PLE is defined as a space for learners to customize the aggregation of heterogeneous resources for their learning needs. Developing such environments requires the involvement of complex skills that higher education students, though described as digital natives, do not necessarily possess. The objective of this research work is to allow students to have support for the construction of their PLE as a dashboard. It would provide an up - to - date view of resources use and further exploit the resulting linkages. The proposed solution is based on the Agent - Group - Role organizational model, one of design method for multi-agent systems. A prototype was also implemented and allowed to demonstrate the feasibility of the proposed solution.
340

Influence de l'intelligence artificielle sur les travailleurs et sur leurs tâches

Tchatchouang Wanko, Chris Emmanuel 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 30 octobre 2023) / De plus en plus les technologie innovantes tel que l'intelligence artificielle sont introduites dans des organisation des secteurs sensibles tel que le secteur de l'électricité. Le fait de s'interroger sur les enjeux, et les impacts de leurs utilisations massives devient une réelle préoccupation pour la société et son devenir. Cette question est d'autant plus présente lorsqu'il subsiste un doute quant à ces effets sur les travailleurs ou sur les tâches que ces travailleurs doivent accomplir au quotidien. Dans le but d'apporter une contribution à cette préoccupation de la société la présente recherche s'intéresse aux impacts de l'utilisation de l'intelligence artificielle sur les travailleurs et sur leurs tâches. Au travers de la lentille offerte par la théorie de l'adéquation tache-technologie, en deux études, une revue de la littérature et une étude de cas unique, la présente recherche passe en revue les utilisations présentes dans la littérature, qui sont faites de l'IA dans les organisations du secteur de l'électricité. Cette recherche sonde quels en sont les impacts sur les travailleurs et sur leurs tâches et enfin examine la contribution des structures de gouvernances dans cette relation. L'étude de cas, dans une organisation du secteur de l'électricité au Canada permettra entre autres de rapprocher les résultats et d'ouvrir de nouvelles perceptives pour la recherche et la pratique. / More and more, innovative technologies such as artificial intelligence are being introduced into organizations in sensitive sectors such as the electricity industry. Questions about the stakes and impacts of their massive use are becoming a real concern for society and its future. This is even more the case when there are doubts about the effects on workers or the tasks they must perform on a daily basis. With the aim of contributing to this concern for society, the present research looks at the impacts of the use of artificial intelligence on workers and their tasks. Through the lens offered by task-technology fit theory, in two studies, a literature review and a single case study, the present research reviews the uses, present in the literature, that are being made of AI in organizations in the electricity sector. It probes the impact on workers and their tasks and examines the contribution of governance structures to this relationship. The case study, in an electricity sector organization in Canada, will, among other things, reconcile the results and open new insights for research and practice.

Page generated in 0.0457 seconds