Spelling suggestions: "subject:"santa numérique""
1 |
A secure design of WoT services for smart cities / Conception sécurisée de services IoT pour les villes connectéesEl jaouhari, Saad 13 December 2018 (has links)
WebRTC est une technologie récente de communication qui permet d’établir des échanges multimédia conversationnels directement entre navigateurs. Nous nous intéressons dans cette thèse à des locuteurs dans un Smart Space (SS) défini comme un environnement centré-utilisateur instrumenté par unensemble de capteurs et d’actionneurs connectés. Nous analysons les capacités nécessaires pour permettre à un participant d’une session WebRTC d’impliquer dans cette même session, les flux induits par les objets connectés appartenant au SS d’un utilisateur quelconque de la session. Cette approche recèle un gisement de nombreux nouveaux usages. Nous limitons notre analyse à ceux concernant l’exercice distant d’une expertise et d’un savoir-faire. Techniquement, il s’agit d’articuler de façon contrôlée WebRTC et IoT/WoT. Nous procédons à une extension de WebRTC par WoT pour fournir à tout utilisateur d’une session WebRTC, un accès aux objets connectés du SS de tout autre participant à la session, en mettant l’accent sur la sécurisation de cet accès ainsi que sur sa conformité aux exigences de respect de la vie privée (RGPD) de l’utilisateur concerné. Le positionnement de notre approche dans le contexte des services de communication opérant dans les villes connectées, impose la prise en compte de SSs multiples et variés induisant chacun ses propres politiques de routage et de sécurité. Pour répondre à nos objectifs, il devient nécessaire au cours d’une session WebRTC, d’identifier, sélectionner, déployer et appliquer les règles de routage et de sécurité de façon à garantir un accès rapide et sécurisé aux différents SSs concernés et distribués sur tout le réseau. Nous développons une architecture originale répondant à ces besoins et intégrant un contrôleur SDN du fait de l’étroite imbrication entre les problématiques de routage et de sécurité. Un prototype illustrant notre approche a été mis en oeuvre et testé afin d’évaluer la performance et la sécurité du système. Nous illustrons finalement notre approche dans le domaine de la santé en démontrant son apport pour gérer une infrastructure de grande taille telle qu’un hôpital. / The richness and the versatility of WebRTC, a new peer-to-peer, real-time and browser based communication technology, allowed the imagination of new and innovative services. In this thesis, we analyzed the capabilities required to allow a participant in a WebRTC session to access the smart Things belonging to his own environment as well as those of any other participant in the same session. The access to such environment, which we call “SmartSpace (SS)”, can be either passive, for example by monitoring the contextual information provided by the sensors, or active by requesting the execution of commands by the actuators, or a mixture of both. This approach deserves attention because it allows solving in an original way various issues such as allowing experts to remotely exercise and provide their expertise and/or knowing how. From a technical point of view the issue is not trivial because it requires a smooth and mastered articulation between two different technologies: WebRTC and the Internet of Things (IoT) /Web of Things (WoT). Hence, the first part of the problem studied in this thesis, consists in analyzing the possibilities of extending WebRTC capabilities with theWoT. So as to provide a secure and privacy-respectful access to the various smart objects located in the immediate environment of a participant to any otherend-user involved in the same ongoing WebRTC session. This approach is then illustrated in the ehealth domain and tested in a real smart home (a typical example of a smart space). Moreover,positioning our approach in the context of communication services operating in smart cities requires the ability to support a multiplicity of SSs,each with its own network and security policy. Hence,in order to allow a participant to access one of his own SSs or one of another participant (through a delegation of access process), it becomes necessary to dynamically identify, select, deploy, and enforce the SS’s specific routing and security rules, so as to have an effective, fast and secure access. Therefore, the second part of the problem studied in this Ph.D.consists in defining an efficient management of the routing and security issues regarding the possibility of having multiple SSs distributed over the entire network.
|
2 |
Prédiction d’états mentaux futurs à partir de données de phénotypage numériqueJean, Thierry 12 1900 (has links)
Le phénotypage numérique mobilise les nombreux capteurs du téléphone intelligent (p. ex. : accéléromètre, GPS, Bluetooth, métadonnées d’appels) pour mesurer le comportement humain au quotidien, sans interférence, et les relier à des symptômes psychiatriques ou des indicateurs de santé mentale. L’apprentissage automatique est une composante intégrale au processus de transformation de signaux bruts en information intelligible pour un clinicien. Cette approche émerge d’une volonté de caractériser le profil de symptômes et ses variations dans le temps au niveau individuel.
Ce projet consistait à prédire des variables de santé mentale (p. ex. : stress, humeur, sociabilité, hallucination) jusqu’à sept jours dans le futur à partir des données du téléphone intelligent pour des patients avec un diagnostic de schizophrénie. Le jeu de données CrossCheck, composé d’un échantillon de 62 participants, a été utilisé. Celui-ci inclut 23,551 jours de signaux du téléphone avec 29 attributs et 6364 autoévaluations de l’état mental à l’aide d’échelles ordinales à 4 ancrages.
Des modèles prédictifs ordinaux ont été employés pour générer des prédictions discrètes interprétables sur l’échelle de collecte de données. Au total, 240 modèles d’apprentissage automatique ont été entrainés, soit les combinaisons de 10 variables de santé mentale, 3 horizons temporels (même jour, prochain jour, prochaine semaine), 2 algorithmes (XGBoost, LSTM) et 4 tâches d’apprentissage (classification binaire, régression continue, classification multiclasse, régression ordinale). Les modèles ordinaux et binaires ont performé significativement au-dessus du niveau de base et des deux autres tâches avec une erreur moyenne absolue macro entre 1,436 et 0,767 et une exactitude balancée de 58% à 73%. Les résultats montrent l’effet prépondérant du débalancement des données sur la performance prédictive et soulignent que les mesures n’en tenant pas compte surestiment systématiquement la performance.
Cette analyse ancre une série de considérations plus générales quant à l’utilisation de l’intelligence artificielle en santé. En particulier, l’évaluation de la valeur clinique de solutions d’apprentissage automatique présente des défis distinctifs en comparaison aux traitements conventionnels. Le rôle grandissant des technologies numériques en santé mentale a des conséquences sur l’autonomie, l’interprétation et l’agentivité d’une personne sur son expérience. / Digital phenotyping leverages the numerous sensors of smartphones (e.g., accelerometer, GPS,
Bluetooth, call metadata) to measure daily human behavior without interference and link it to
psychiatric symptoms and mental health indicators. Machine learning is an integral component
of processing raw signals into intelligible information for clinicians. This approach emerges from
a will to characterize symptom profiles and their temporal variations at an individual level.
This project consisted in predicting mental health variables (e.g., stress, mood, sociability,
hallucination) up to seven days in the future from smartphone data for patients with a diagnosis
of schizophrenia. The CrossCheck dataset, which has a sample of 62 participants, was used. It
includes 23,551 days of phone sensor data with 29 features, and 6364 mental state self-reports
on 4-point ordinal scales.
Ordinal predictive models were used to generate discrete predictions that can be interpreted
using the guidelines from the clinical data collection scale. In total, 240 machine learning models
were trained, i.e., combinations of 10 mental health variables, 3 forecast horizons (same day, next
day, next week), 2 algorithms (XGBoost, LSTM), and 4 learning tasks (binary classification,
continuous regression, multiclass classification, ordinal regression). The ordinal and binary
models performed significantly better than the baseline and the two other tasks with a macroaveraged mean absolute error between 1.436 and 0.767 and a balanced accuracy between 58%
and 73%. Results showed a dominant effect of class imbalance on predictive performance and
highlighted that metrics not accounting for it lead to systematic overestimation of performance.
This analysis anchors a series of broader considerations about the use of artificial intelligence in
healthcare. In particular, assessing the clinical value of machine learning solutions present
distinctive challenges when compared to conventional treatments. The growing role of digital
technologies in mental health has implication for autonomy, sense-making, and agentivity over
one’s experience.
|
3 |
Systèmes d’intelligence artificielle et santé : les enjeux d’une innovation responsable.Voarino, Nathalie 09 1900 (has links)
L’avènement de l’utilisation de systèmes d’intelligence artificielle (IA) en santé s’inscrit dans le cadre d’une nouvelle médecine « haute définition » qui se veut prédictive, préventive et personnalisée en tirant partie d’une quantité inédite de données aujourd’hui disponibles. Au cœur de l’innovation numérique en santé, le développement de systèmes d’IA est à la base d’un système de santé interconnecté et auto-apprenant qui permettrait, entre autres, de redéfinir la classification des maladies, de générer de nouvelles connaissances médicales, ou de prédire les trajectoires de santé des individus en vue d’une meilleure prévention. Différentes applications en santé de la recherche en IA sont envisagées, allant de l’aide à la décision médicale par des systèmes experts à la médecine de précision (ex. ciblage pharmacologique), en passant par la prévention individualisée grâce à des trajectoires de santé élaborées sur la base de marqueurs biologiques.
Des préoccupations éthiques pressantes relatives à l’impact de l’IA sur nos sociétés émergent avec le recours grandissant aux algorithmes pour analyser un nombre croissant de données relatives à la santé (souvent personnelles, sinon sensibles) ainsi que la réduction de la supervision humaine de nombreux processus automatisés. Les limites de l’analyse des données massives, la nécessité de partage et l’opacité des décisions algorithmiques sont à la source de différentes préoccupations éthiques relatives à la protection de la vie privée et de l’intimité, au consentement libre et éclairé, à la justice sociale, à la déshumanisation des soins et du patient, ou encore à la sécurité. Pour répondre à ces enjeux, de nombreuses initiatives se sont penchées sur la définition et l’application de principes directeurs en vue d’une gouvernance éthique de l’IA. L’opérationnalisation de ces principes s’accompagne cependant de différentes difficultés de l’éthique appliquée, tant relatives à la portée (universelle ou plurielle) desdits principes qu’à la façon de les mettre en pratique (des méthodes inductives ou déductives).
S’il semble que ces difficultés trouvent des réponses dans la démarche éthique (soit une approche sensible aux contextes d’application), cette manière de faire se heurte à différents défis. L’analyse des craintes et des attentes citoyennes qui émanent des discussions ayant eu lieu lors de la coconstruction de la Déclaration de Montréal relativement au développement responsable de l’IA permet d’en dessiner les contours. Cette analyse a permis de mettre en évidence trois principaux défis relatifs à l’exercice de la responsabilité qui pourrait nuire à la mise en place d’une gouvernance éthique de l’IA en santé : l’incapacitation des professionnels de santé et des patients, le problème des mains multiples et l’agentivité artificielle. Ces défis demandent de se pencher sur la création de systèmes d’IA capacitants et de préserver l’agentivité humaine afin de favoriser le développement d’une responsabilité (pragmatique) partagée entre les différentes parties prenantes du développement des systèmes d’IA en santé. Répondre à ces différents défis est essentiel afin d’adapter les mécanismes de gouvernance existants et de permettre le développement d’une innovation numérique en santé responsable, qui doit garder l’humain au centre de ses développements. / The use of artificial intelligence (AI) systems in health is part of the advent of a new "high definition" medicine that is predictive, preventive and personalized, benefiting from the unprecedented amount of data that is today available. At the heart of digital health innovation, the development of AI systems promises to lead to an interconnected and self-learning healthcare system. AI systems could thus help to redefine the classification of diseases, generate new medical knowledge, or predict the health trajectories of individuals for prevention purposes. Today, various applications in healthcare are being considered, ranging from assistance to medical decision-making through expert systems to precision medicine (e.g. pharmacological targeting), as well as individualized prevention through health trajectories developed on the basis of biological markers.
However, urgent ethical concerns emerge with the increasing use of algorithms to analyze a growing number of data related to health (often personal and sensitive) as well as the reduction of human intervention in many automated processes. From the limitations of big data analysis, the need for data sharing and the algorithmic decision ‘opacity’ stems various ethical concerns relating to the protection of privacy and intimacy, free and informed consent, social justice, dehumanization of care and patients, and/or security. To address these challenges, many initiatives have focused on defining and applying principles for an ethical governance of AI. However, the operationalization of these principles faces various difficulties inherent to applied ethics, which originate either from the scope (universal or plural) of these principles or the way these principles are put into practice (inductive or deductive methods).
These issues can be addressed with context-specific or bottom-up approaches of applied ethics. However, people who embrace these approaches still face several challenges. From an analysis of citizens' fears and expectations emerging from the discussions that took place during the coconstruction of the Montreal Declaration for a Responsible Development of AI, it is possible to get a sense of what these difficulties look like. From this analysis, three main challenges emerge: the incapacitation of health professionals and patients, the many hands problem, and artificial agency. These challenges call for AI systems that empower people and that allow to maintain human agency, in order to foster the development of (pragmatic) shared responsibility among the various stakeholders involved in the development of healthcare AI systems. Meeting these challenges is essential in order to adapt existing governance mechanisms and enable the development of a responsible digital innovation in healthcare and research that allows human beings to remain at the center of its development.
|
Page generated in 0.0454 seconds