• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 9
  • 1
  • Tagged with
  • 39
  • 14
  • 8
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

L'Analyse et l'enregistrement automatique par microprocesseur des décalages du segment ST de l'électrocardiogramme en monitoring ambulatoire.

Le-Huy Phieu. January 1900 (has links)
Th. doct.-ing.--Métrolog. et électronique biomédicale--Nancy--I.N.P.L., 1984.
2

Développement d'un système de monitorage du blocage neuromusculaire par la méthode de phonomyographie

Trager, Guillaume January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
3

Processus de surveillance clinique par des infirmières expertes en contexte de soins critiques : une explication théorique

Milhomme, Daniel January 2016 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2016-2017 / Introduction : En sciences infirmières, la surveillance clinique est présentée comme un élément incontournable lié à la sécurité des patients. Bien qu’elle soit largement définie dans la littérature, il reste que son déploiement n’est pas bien compris. C’est donc à partir de définitions de la surveillance clinique et d’études majoritairement exploratoires et descriptives sur la collecte des données, le raisonnement clinique et la prise de décision que le portrait du processus comportemental et cognitif qui sous-tend la surveillance clinique est actuellement dressé. But : Cette étude visait à élaborer une explication théorique au processus de surveillance clinique par des infirmières expertes dans un contexte de soins critiques afin de mieux comprendre comment il se déploie. Ancrage théorique : Le Modèle des systèmes de Neuman (2011) a été utilisé pour favoriser une cohérence dans la réflexion et assurer un ancrage disciplinaire à cette étude. Ce modèle dégageait les éléments importants quant aux soins et à la santé de la personne hospitalisée dans un environnement de soins critiques. Méthode : Afin d’élaborer l’explication théorique au processus de surveillance clinique, l’approche par théorisation ancrée de Strauss et Corbin (1998) a été utilisée auprès de quinze infirmières expertes (n=15) de soins critiques. Ainsi, trois rencontres ont été réalisées auprès de ces infirmières, dont deux d’entre elles étaient sous forme d’entrevues semi-dirigées, et une rencontre portait sur la méthode de la pensée à voix haute (Think Aloud Method). Des périodes d’observation participante dans les unités de soins intensifs ont aussi été réalisées. Résultats : La surveillance clinique en soins critiques est un processus de vigilance collective qui prend naissance à partir d’actions mentales et comportementales en lien avec la collecte, l’analyse et l’interprétation des données. Ce processus est composé de cinq éléments centraux, soit : 1) Gérer le risque de complications ; 2) Collecter des données ; 3) Détecter un problème, 4) Prendre une décision et 5) Travailler en synergie. Discussion : Cette étude a permis de comprendre le processus de surveillance clinique réalisé par des infirmières expertes dans un contexte de soins critiques par l’élaboration d’une explication théorique. Cette thèse illustre un volet important de la pratique infirmière en soins critiques et fournit une aide tangible pour accroître la sécurité des patients hospitalisés dans les unités de soins intensifs. Mots clés : Surveillance clinique, vigilance, détection précoce, gestion du risque, soins critiques, soins intensifs, infirmière experte, processus, théorisation ancrée, recherche qualitative. / Background: Nursing Science presents surveillance as an indispensable component of patient safety. Although the literature defines surveillance fully, its implementation is not well understood. As a result, the current behavioral and cognitive process underlying clinical surveillance are based on clinical surveillance definitions and studies on data collection, clinical reasoning and decision-making. For the most part, these sources tend to be exploratory and descriptive. Purpose: In order to better understand how clinical surveillance is put into practice, this dissertation aims to formulate a theoretical explanation of the process that expert nurses employ in critical care. Theoretical Framework: In this study the Neuman Systems Model (2011) provides consistency in thinking and ensures a disciplinary underpinning. This model reveals key elements in relation to the care and health of the critically ill person hospitalized in an intensive care environment. Method: To develop the theoretical explanation for the surveillance process of critical care nurses, Strauss and Corbin’s (1998) grounded theory approach was used with fifteen expert critical care nurses (n=15). Consequently, three meetings were conducted with these nurses; two in the form of semi-structured interviews and one based on the think-aloud strategy. Periods of participant observation in intensive care units were also undertaken. Results: Surveillance in critical care is a continual process of collaborative vigilance that starts with the thought process and behaviour related to data collection, analysis and interpretation. The surveillance process comprises five key elements: 1) Manage the risk of complications; 2) Collect the data; 3) Identify a problem, 4) Make a decision, and 5) Work in synergy. Discussion: In developing a theoretical explanation this research leads to an understanding of the surveillance process performed by expert nurses in a critical care context. This study illustrates an important aspect of critical care nursing practice, and provides tangible help to increase patient safety in intensive care units. Keywords: Surveillance, vigilance, early detection, risk management, critical care, intensive care, expert nurse, process, grounded theory, qualitative research.
4

Conception d'un système de surveillance du rythme respiratoire comportant la fusion d'informations venant de capteurs hétérogènes

Pelletier-Rioux, Jean Sébastien 28 January 2022 (has links)
Le rythme respiratoire est un signe vital qui permet le diagnostic de plusieurs maladies respiratoires. Cependant, la surveillance du rythme respiratoire à l'extérieur du milieu hospitalier pose un défi qui a présentement peu de solutions. La plupart des capteurs existants ont des problèmes qui causent un non-fonctionnement dans certains environnements ; il n'existe pas de capteurs qui donnent l'information de manière quasi-parfaite en tout temps. Le mémoire présente une solution incluant plusieurs capteurs pour répondre à ce problème. La solution proposée permet de fusionner les informations en provenance de plusieurs capteurs hétérogènes afin d'obtenir l'information complète sur le rythme respiratoire, même dans des conditions ou un capteur individuel ne peut fournir cette information. Cette solution proposée utilise deux capteurs disponibles couramment sur le marché, soit un microphone MEMS et des accéléromètres. La solution comprend aussi une mesure de bioimpédance par un système qui pourrait être adapté pour être portable. Le mémoire présente ces capteurs et la procédure pour transmettre les signaux de ceux-ci vers un ordinateur. Le mémoire traite toutes les étapes de traitement de signal nécessaires pour tirer les informations du signal de respiration donné par ces capteurs. Le traitement de signal permet de réduire plusieurs types de bruits ainsi que de trouver des informations spécifiques au type de signal étudié. Le système cherche à reconnaître chacune des phases du cycle respiratoire pour chaque capteur individuel. Il utilise les informations sur les états possibles fournis par chaque capteur pour les fusionner ensuite avec un système de poids. Dans un environnement contrôlé, le système avec les données fusionnées permet d'avoir un taux d'erreur pouvant atteindre 0,88% pour un segment de 30 secondes, par rapport à des systèmes avec des capteurs uniques qui donnent des taux d'erreur variant entre 4,42% et 17,70% pour ces mêmes 30 secondes.
5

Evaluation rétrospective à la Maternité Régionale de Nancy de la prise en charge du travail de patientes ayant accouché par voie basse spontanée d'un nouveau-né présentant un pH au cordon inférieur ou égal à 7,10

Bucher, Marie January 2009 (has links) (PDF)
Mémoire de sage-femme : Médecine : Nancy 1 : 2009. / Titre provenant de l'écran-titre. Bibliogr.
6

Apprentissage multisource par programmation logique inductive application à la caractérisation d'arythmies cardiques /

Fromont, Élisa Cordier, Marie-Odile January 2005 (has links) (PDF)
Thèse doctorat : Informatique : Rennes 1 : 2005. / Bibliogr. p. 197-206.
7

Pilotages d'algorithmes pour la reconnaissance en ligne d'arythmies cardiaques

Portet, François Cordier, Marie-Odile Carrault, Guy January 2005 (has links) (PDF)
Thèse doctorat : Informatique : Rennes 1 : 2005. / Bibliogr. p. 209-220.
8

Nouvelle technologie de monitorage à distance dans le traitement des patients sous dialyse péritonéale

Chauvel, Femie 28 September 2023 (has links)
Titre de l'écran-titre (visionné le 25 septembre 2023) / La dialyse péritonéale (DP) permet au patient insuffisant rénal terminal de réaliser son traitement de dialyse en autonomie à son domicile. Amia avec Sharesource est un appareil de DP (cycleur) innovant incluant une communication via une plateforme connectée permettant la révision à distance par l'équipe traitante des données et alarmes de la séance. L'objectif de ce mémoire est de présenter la dialyse à domicile, de la situer dans le contexte social et économique actuel, de présenter la technologie Amia avec le monitorage à distance Sharesource et déterminer via une étude si cette technologie permet de diminuer le nombre de complications, de visites hospitalières imprévues, d'appels entre le patient et l'équipe traitante, et d'hospitalisations. L'appréciation des patients ainsi que l'évolution de la cohorte en DP étaient également étudiées. Cette étude prospective, menée au CHU de Québec, Hôtel-Dieu-de-Québec, porte sur l'ensemble des patients ayant débuté la DP avec le cycleur Amia avec Sharesource entre juin 2019 et Août 2021 et comparé à une cohorte avec cycleur standard (HomeChoice) des 2 années précédentes. Les données étaient collectées à l'inclusion et à 3, 6, 9, 12 mois. Les résultats des 50 patients du groupe Amia sont comparés aux 60 patients du groupe standard ayant des caractéristiques de populations comparables. On observe une réduction du nombre de visites imprévues, d'hospitalisations et d'appels patients/équipe traitante, mais non significative cependant (respectivement p=0,76, p=0,56, et p=0,24) Il n'y avait pas de différence en terme de nombre de complications. Le score d'appréciation était excellent et la cohorte de DP a pu être maintenue malgré le contexte pandémique de SARS-COV2. / Peritoneal dialysis (PD) allows patients with end-stage renal failure to carry out their dialysis treatment independently in the comfort of their home. Amia with Sharesource is an innovative PD device (cycler) with a bidirectional communication system via a connected platform allowing remote review by the treating team (nurses and doctors) of data and alarms for each PD session. The aim of this work is to present home dialysis, place it into social and economic context, present the Amia with Sharesource distance monitoring technology and determine with a study if this technology can reduce the number of complications, unplanned hospital visits, calls between the patient and the treating team, and hospitalizations. The appreciation of the patients as well as the evolution of the PD cohort were also studied. This prospective study, conducted at the University Hospital of Québec, Hôtel-Dieu-de-Québec, includes all patients who started PD with the Amia cycler with Sharesource between June 2019 and August 2021. This Amia group was compared to a cohort using the standard cycler (HomeChoice) of the previous 2 years. Data were collected at baseline and at 3, 6, 9, and 12 months. The data of the 50 patients in the Amia group were compared to the 60 patients in the standard group with comparable population characteristics. A reduction in the number of unplanned visits, hospitalizations and patient/treating team calls was observed, but was however not statistically significant (respectively p=0.76, p=0.56, and p=0.24). There was no difference in the 2 groups complication rates. The appreciation score was excellent, and the PD cohort could be maintained despite the pandemic context of SARS-COV2.
9

Une méthode de test fonctionnel en-ligne basée sur une approche de monitorage distribuée continue appliquée aux systèmes communicants / A novel online functional testing methodology based on a fully distributed continuous monitoring approach applied to communicating systems

Alvarez Aldana, José Alfredo 28 September 2018 (has links)
Les réseaux MANET représentent un domaine important de recherche en raison des nombreuses opportunités découlant des problématiques et des applications inhérentes à ce type de réseau. Les problématiques les plus récurrentes sont la mobilité, la disponibilité ainsi que les ressources limitées. Un intérêt bien connu dans les réseaux et donc dans les MANET est de monitorer les propriétés de ce réseau et de ses nœuds. Les contraintes des MANET peuvent avoir un impact significatif sur les efforts mis en œuvre pour les monitorer. La mobilité et la disponibilité peuvent créer des résultats incomplets pour le monitorage. Les propriétés usuelles utilisées en monitorage sont simples, comme notamment la consommation moyenne du processeur, la bande passante moyenne, etc. De plus, l'évolution des réseaux a conduit à un besoin croissant d'examiner des comportements plus complexes, dépendants et imbriqués. La littérature indique que la précision des valeurs obtenues par monitorage et donc des approches n'est pas fiable et difficile à atteindre en raison des propriétés dynamiques du MANET. Nous proposons donc des architectures de surveillance décentralisées et distribuées qui reposent sur de multiples points d'observation. L'approche décentralisée combine des algorithmes dits hiérarchiques et de ‘gossip’ pour fournir une approche de monitorage efficace. Grâce à des expérimentations approfondies, nous avons conclu que même si nous étions en mesure d'atteindre d’excellentes performances, la fragmentation du réseau a toujours un impact sévère sur la méthodologie mise en place. Essayant d'améliorer notre technique, nous avons proposé une approche distribuée pour améliorer l'efficacité et la précision globale.Il fournit un mécanisme de consensus qui lui permet d'agréger de nombreux résultats fournis par plusieurs nœuds et fournit un résultat plus significatif et plus précis. Nous soutenons notre proposition avec de nombreuses définitions mathématiques qui modélisent les résultats locaux pour un seul nœud et les résultats globaux pour le réseau. Nos expériences ont été évaluées avec un émulateur construit en interne qui s'appuie sur Amazon Web Services, NS-3, Docker et GoLang avec un nombre variable de nœuds, la taille du réseau, sa densité, la vitesse des nœuds, les algorithmes de mobilité et les délais. Grâce à cet émulateur, nous avons pu analyser plusieurs aspects en fournissant des testbeds reproductibles, documentés et accessibles. Nous avons obtenu des résultats prometteurs pour les deux approches, et surtout pour l'approche distribuée en particulier en ce qui concerne la précision des valeurs obtenues par monitorage / MANETs represent a significant area of network research due to the many opportunities derived from the problematics and applications. The most recurring problematics are the mobility, the availability and also the limited resources. A well-known interest in networks and therefore in MANETs is to monitor properties of the network and nodes. The problematics of the MANETs can have a significant impact on the monitoring efforts. Mobility and availability can create incomplete results for the monitoring. The usual properties discussed in monitoring are simple ones, e.g., average CPU consumption, average bandwidth and so on. Moreover, the evolution of networks has led to an increasing need to examine more complex, dependent and intertwined behaviors. The literature states that accuracy of the approaches is not reliable and difficult to achieve due to the dynamic properties of the MANET. Therefore, we propose a decentralized and distributed monitoring architecture that rely on multiple points of observation. The decentralized approach combines gossip and hierarchical algorithms to provide an effective monitoring approach. Through extensive experimentation, we concluded that although we were able to achieve exceptional performance, network fragmentation still has a harsh impact on the approach. Trying to improve our approach, we proposed a distributed approach, relying on stronger bedrock to enhance the overall efficiency and accuracy. It provides a consensus mechanism that allows it to aggregate and provides a more meaningful and accurate result. We support our proposal with numerous mathematical definition that models local results for a single node and global results for the network. Our experiments were evaluated with an emulator built in-house that relies on Amazon Web Services, NS-3, Docker and GoLang with varying number of nodes, network size, network density, speed, mobility algorithms and timeouts. Through this emulator, we were able to analyze multiple aspects of the approaches by providing a repeatable, documented and accessible test beds. We obtained promising results for both approaches, but for the distributed approach, especially regarding accuracy
10

Detection and localization of link-level network anomalies using end-to-end path monitoring / Détection et localisation des anomalies réseau au niveau des liens en utilisant de la surveillance des chemins de bout-en-bout

Salhi, Emna 13 February 2013 (has links)
L'objectif de cette thèse est de trouver des techniques de détection et de localisation des anomalies au niveau des liens qui soient à faible coût, précises et rapides. La plupart des techniques de détection et de localisation des anomalies au niveau des liens qui existent dans la littérature calculent les solutions, c-à-d l'ensemble des chemins à monitorer et les emplacements des dispositifs de monitorage, en deux étapes. La première étape sélectionne un ensemble minimal d'emplacements des dispositifs de monitorage qui permet de détecter/localiser toutes les anomalies possibles. La deuxième étape sélectionne un ensemble minimal de chemins de monitorage entre les emplacements sélectionnés de telle sorte que tous les liens du réseau soient couverts/distinguables paire par paire. Toutefois, ces techniques ignorent l'interaction entre les objectifs d'optimisation contradictoires des deux étapes, ce qui entraîne une utilisation sous-optimale des ressources du réseau et des mesures de monitorage biaisées. L'un des objectifs de cette thèse est d'évaluer et de réduire cette interaction. A cette fin, nous proposons des techniques de détection et de localisation d'anomalies au niveau des liens qui sélectionnent les emplacements des moniteurs et les chemins qui doivent être monitorés conjointement en une seule étape. Par ailleurs, nous démontrons que la condition établie pour la localisation des anomalies est suffisante mais pas nécessaire. Une condition nécessaire et suffisante qui minimise le coût de localisation considérablement est établie. Il est démontré que les deux problèmes sont NP-durs. Des algorithmes heuristiques scalables et efficaces sont alors proposés. / The aim of this thesis is to come up with cost-efficient, accurate and fast schemes for link-level network anomaly detection and localization. It has been established that for detecting all potential link-level anomalies, a set of paths that cover all links of the network must be monitored, whereas for localizing all potential link-level anomalies, a set of paths that can distinguish between all links of the network pairwise must be monitored. Either end-node of each path monitored must be equipped with a monitoring device. Most existing link-level anomaly detection and localization schemes are two-step. The first step selects a minimal set of monitor locations that can detect/localize any link-level anomaly. The second step selects a minimal set of monitoring paths between the selected monitor locations such that all links of the network are covered/distinguishable pairwise. However, such stepwise schemes do not consider the interplay between the conflicting optimization objectives of the two steps, which results in suboptimal consumption of the network resources and biased monitoring measurements. One of the objectives of this thesis is to evaluate and reduce this interplay. To this end, one-step anomaly detection and localization schemes that select monitor locations and paths that are to be monitored jointly are proposed. Furthermore, we demonstrate that the already established condition for anomaly localization is sufficient but not necessary. A necessary and sufficient condition that minimizes the localization cost drastically is established. The problems are demonstrated to be NP-Hard. Scalable and near-optimal heuristic algorithms are proposed.

Page generated in 0.0474 seconds