• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 10
  • 3
  • 1
  • Tagged with
  • 41
  • 17
  • 15
  • 13
  • 12
  • 11
  • 11
  • 9
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Classification de menaces d’erreurs par analyse statique, simplification syntaxique et test structurel de programmes / Classification of errors threats by static analysis, program sclicing and structural testing of programs

Chebaro, Omar 13 December 2011 (has links)
La validation des logiciels est une partie cruciale dans le cycle de leur développement. Deux techniques de vérification et de validation se sont démarquées au cours de ces dernières années : l’analyse statique et l’analyse dynamique. Les points forts et faibles des deux techniques sont complémentaires. Nous présentons dans cette thèse une combinaison originale de ces deux techniques. Dans cette combinaison, l’analyse statique signale les instructions risquant de provoquer des erreurs à l’exécution, par des alarmes dont certaines peuvent être de fausses alarmes, puis l’analyse dynamique (génération de tests) est utilisée pour confirmer ou rejeter ces alarmes. L’objectif de cette thèse est de rendre la recherche d’erreurs automatique, plus précise, et plus efficace en temps. Appliquée à des programmes de grande taille, la génération de tests, peut manquer de temps ou d’espace mémoire avant de confirmer certaines alarmes comme de vraies erreurs ou conclure qu’aucun chemin d’exécution ne peut atteindre l’état d’erreur de certaines alarmes et donc rejeter ces alarmes. Pour surmonter ce problème, nous proposons de réduire la taille du code source par le slicing avant de lancer la génération de tests. Le slicing transforme un programme en un autre programme plus simple, appelé slice, qui est équivalent au programme initial par rapport à certains critères. Quatre utilisations du slicing sont étudiées. La première utilisation est nommée all. Elle consiste à appliquer le slicing une seule fois, le critère de simplification étant l’ensemble de toutes les alarmes du programme qui ont été détectées par l’analyse statique. L’inconvénient de cette utilisation est que la génération de tests peut manquer de temps ou d’espace et les alarmes les plus faciles à classer sont pénalisées par l’analyse d’autres alarmes plus complexes. Dans la deuxième utilisation, nommée each, le slicing est effectué séparément par rapport à chaque alarme. Cependant, la génération de tests est exécutée pour chaque programme et il y a un risque de redondance d’analyse si des alarmes sont incluses dans d’autres slices. Pour pallier ces inconvénients, nous avons étudié les dépendances entre les alarmes et nous avons introduit deux utilisations avancées du slicing, nommées min et smart, qui exploitent ces dépendances. Dans l’utilisation min, le slicing est effectué par rapport à un ensemble minimal de sous-ensembles d’alarmes. Ces sous-ensembles sont choisis en fonction de dépendances entre les alarmes et l’union de ces sous-ensembles couvre l’ensemble de toutes les alarmes. Avec cette utilisation, on a moins de slices qu’avec each, et des slices plus simples qu’avec all. Cependant, l’analyse dynamique de certaines slices peut manquer de temps ou d’espace avant de classer certaines alarmes, tandis que l’analyse dynamique d’une slice éventuellement plus simple permettrait de les classer. L’utilisation smart consiste à appliquer l’utilisation précédente itérativement en réduisant la taille des sous-ensembles quand c’est nécessaire. Lorsqu’une alarme ne peut pas être classée par l’analyse dynamique d’une slice, des slices plus simples sont calculées. Nous prouvons la correction de la méthode proposée. Ces travaux sont implantés dans sante, notre outil qui relie l’outil de génération de tests PathCrawler et la plate-forme d’analyse statique Frama-C. Des expérimentations ont montré, d’une part, que notre combinaison est plus performante que chaque technique utilisée indépendamment et, d’autre part, que la vérification devient plus rapide avec l’utilisation du slicing. De plus, la simplification du programme par le slicing rend les erreurs détectées et les alarmes restantes plus faciles à analyser / Software validation remains a crucial part in software development process. Two major techniques have improved in recent years, dynamic and static analysis. They have complementary strengths and weaknesses. We present in this thesis a new original combination of these methods to make the research of runtime errors more accurate, automatic and reduce the number of false alarms. We prove as well the correction of the method. In this combination, static analysis reports alarms of runtime errors some of which may be false alarms, and test generation is used to confirm or reject these alarms. When applied on large programs, test generation may lack time or space before confirming out certain alarms as real bugs or finding that some alarms are unreachable. To overcome this problem, we propose to reduce the source code by program slicing before running test generation. Program slicing transforms a program into another simpler program, which is equivalent to the original program with respect to certain criterion. Four usages of program slicing were studied. The first usage is called all. It applies the slicing only once, the simplification criterion is the set of all alarms in the program. The disadvantage of this usage is that test generation may lack time or space and alarms that are easier to classify are penalized by the analysis of other more complex alarms. In the second usage, called each, program slicing is performed with respect to each alarm separately. However, test generation is executed for each sliced program and there is a risk of redundancy if some alarms are included in many slices. To overcome these drawbacks, we studied dependencies between alarms on which we base to introduce two advanced usages of program slicing : min and smart. In the min usage, the slicing is performed with respect to subsets of alarms. These subsets are selected based on dependencies between alarms and the union of these subsets cover the whole set of alarms. With this usage, we analyze less slices than with each, and simpler slices than with all. However, the dynamic analysis of some slices may lack time or space before classifying some alarms, while the dynamic analysis of a simpler slice could possibly classify some. Usage smart applies previous usage iteratively by reducing the size of the subsets when necessary. When an alarm cannot be classified by the dynamic analysis of a slice, simpler slices are calculated. These works are implemented in sante, our tool that combines the test generation tool PathCrawler and the platform of static analysis Frama-C. Experiments have shown, firstly, that our combination is more effective than each technique used separately and, secondly, that the verification is faster after reducing the code with program slicing. Simplifying the program by program slicing also makes the detected errors and the remaining alarms easier to analyze
32

Sur diverses extensions des chaînes de Markov cachées avec application au traitement des signaux radar

Lapuyade-Lahorgue, Jérôme 10 December 2008 (has links) (PDF)
L'objectif de cette thèse est de proposer différents modèles généralisant le modèle classique des chaînes de Markov cachées à bruit indépendant couramment utilisé en inférence bayésienne de signaux. Les diverses extensions de ce modèle visent à l'enrichir et à prendre en compte différentes propriétés du signal, comme le caractère non gaussien du bruit, ou la nature semi-markovienne du signal caché. Dans un problème d'inférence bayésienne, nous disposons de deux processus aléatoires X et Y , on observe la réalisation y de Y et nous estimons la réalisation cachée x de X. Le lien existant entre les deux processus est modélisé par la distribution de probabilité p(x, y). Dans le modèle classique des chaînes de Markov cachées à bruit indépendant, la distribution p(x) est celle d'une chaîne de Markov et la distribution p(y|x) est celle de marginales indépendantes conditionnellement à x. Bien que ce modèle puisse être utilisé dans de nombreuses applications, il ne parvient pas à modéliser toutes les situations de dépendance. Le premier modèle que nous proposons est de type “chaînes de Markov triplet”, on considère ainsi un troisième processus U tel que le triplet (X, U, Y ) soit une chaîne de Markov. Dans le modèle proposé, ce processus auxiliaire modélise la semi-markovianité de X ; on parvient ainsi à prendre en compte la non markovianité éventuelle du processus caché. Dans un deuxième modèle, nous considérons des observations à dépendance longue et nous proposons un algorithme d'estimation original des paramètres de ce modèle. Nous étudions par ailleurs différents modèles prenant en compte simultanément la semi-markovianité des données cachées, la dépendance longue dans les observations ou la non stationnarité des données cachées. Enfin, la nature non nécessairement gaussienne du bruit est prise en compte via l'introduction des copules. L'intérêt des différents modèles proposés est également validé au travers d'expérimentations. Dans la dernière partie de cette thèse, nous étudions également comment la segmentation obtenue par une méthode bayésienne peut être utilisée dans la détection de cibles dans le signal radar. Le détecteur original que nous implémentons utilise la différence de statistiques entre un signal recu et les signaux recus de son voisinage. Le détecteur ainsi implémenté s'avère donner de meilleurs résultats en présence de fort bruit que le détecteur habituellement utilisé en traitement radar.
33

CONTRIBUTION À L'AMÉLIORATION DE LA TESTABILITÉ ET DU DIAGNOSTIC DE SYSTÈMES COMPLEXES : Application aux systèmes avioniques

Arnaud, Lefebvre 29 May 2009 (has links)
L'objet des travaux de cette thèse est de proposer de nouveaux processus de définition de tests (testabilité), de nouvelles méthodes de tests, ainsi que de nouvelles méthodes d'interprétation des tests (diagnostic). Ces travaux ont été menés dans le cadre de l'aéronautique et ont porté dans un premier temps sur l'identification des besoins en diagnostic des hélicoptères. Les problématiques liées au test et au diagnostic des hélicoptères portaient sur : - La non-détection de certaines défaillances - L'occurrence de nombreuses fausses alarmes - L'ambiguïté de localisation de défaillances Dans un premier temps nous avons réalisé l'état de l'art des recherches en diagnostic, ceci afin de sélectionner les technologies et méthodologies permettant de répondre aux problématiques identifiées. Les technologies candidates ont ensuite été architecturées afin de proposer un traitement intégré permettant de répondre à l'ensemble des besoins identifiés. Ainsi nous avons travaillé sur les méthodologies de définition du test, aux moyens d'outils de simulation de la testabilité. Nous avons aussi défini de nouvelles méthodes de test permettant de déterminer l'état de capteurs analogiques aux moyens d'algorithmes basés sur des évaluateurs de calcul de variation de l'écart type, du facteur de forme et du rapport signal sur bruit. Nous avons ensuite travaillé sur l'amélioration du diagnostic au niveau système à l'aide d'automates temporisés afin de simuler le fonctionnement des arbres de tests élémentaires. Ces travaux ont ensuite conduit à la modélisation et au diagnostic des systèmes complexes à l'aide des diagrammes d'état, des arbres de défaillances dynamiques, ainsi que leur simulation à l'aide des réseaux de Petri. Les modèles utilisés ont été complétés au moyen de nouvelles portes dynamiques. Ces travaux ont été appliqués au monde aéronautique, sur plusieurs hélicoptères et ont fait l'objet de deux brevets.
34

Estimação da seção em falta e processamento de alarmes em sistemas de potência utilizando um sistema híbrido fundamentado na heurística construtiva e na programação inteira / Fault section estimation and alarm processing in power systems using a hybrid system based on constructive heuristic and integer programming

Fritzen, Paulo Cícero 21 September 2012 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This work proposes a methodology which is able to accomplish alarms processing and to estimate fault section in electrical power systems. The purpose is to filter alarms generated during a shutdown and indicate which equipment is at fault. To solve this problem, the methods employed are Constructive Heuristic (CH) and Integer Programming (IP) through their integration. Initially, CH method performs an analysis of fault direction in each power system equipment through alarms signaled by protective relays and circuit breakers status. Thus, by having as much information as possible, CH carries out an analysis on the level of equipment (busbars, power transformers and transmission lines) which can or cannot identify the direction in which disturbance occurred. The final processing is performed by IP, which analyzes the response of protection system as a whole (system-level analysis), using post-fault topology of power grid along with response of CH, indicating the fault section (s) and possible failures in the opening of circuit breakers. / Este trabalho propõe uma metodologia capaz de realizar o processamento de alarmes e estimar a seção em falta em sistemas elétricos de potência. A finalidade é filtrar os alarmes gerados durante um desligamento e indicar qual equipamento está sob falta. Para resolver o problema, são utilizados os métodos da Heurística Construtiva (HC) e da Programação Inteira (PI), através de sua integração. Inicialmente, o método da HC realiza, através dos alarmes sinalizados por relés de proteção e estado de disjuntores, uma análise quanto à direção da falta em cada equipamento do sistema de energia elétrica. Assim, a HC na posse de tantas informações quanto possível realiza uma análise em nível de equipamento (barramentos, transformadores de potência e linhas de transmissão), podendo ou não identificar a direção em que o distúrbio ocorreu. O processamento final é feito pela PI, que analisa a resposta do sistema de proteção como um todo (análise em nível de sistema), usando a topologia pós-falta da rede juntamente com a resposta da HC, indicando a(s) seção(ões) em falta(s) e as possíveis falhas de abertura em disjuntores.
35

Nova metodologia para a estimação da seção em falta em sistemas elétricos de potência com foco nos alarmes dos relés de distância e busca de seções isoladas / New methodology for the fault section estimation in power systems with focus on distance relay alarms and isolated sections search

Menco, Carlos Andres Lazaro 25 February 2014 (has links)
This works proposes a novel methodology for Fault Section Estimation in Power Systems. This document describes a computational tool to assist operators of electrical system in decision-making, thus ensuring the reliability of the energy supply and the reduction of reestablishment time after of fault occurrence. The proposed methodology is based on the interpretation of alarms provided by the Supervisory and Data Acquisition System (SCADA) and the electrical characteristics of the system, as well as impedance of transmission lines and transformers, circuit breakers states and settings of distance protective relays. The methodology is deterministic and uses the interception between zones of distance protective relays as base for the section estimation and the circuit breaker states to associate physically isolated sections in the system after of fault occurrence, making use of a shortest path search algorithm. Possible fault scenarios were simulated on the IEEE-30 Bus System in order to validate the methodology. The results show that the approach can provide satisfactory solutions, even in cases of multiple faults or failure of protections devices. / Este trabalho propõe uma nova metodologia para a estimação da seção de falta em sistemas elétricos de potência. O presente documento descreve uma ferramenta computacional capaz de auxiliar os operadores do sistema elétrico na tomada de decisão, favorecendo a confiabilidade do fornecimento da energia e a redução do tempo de reestabelecimento quando da ocorrência de falta. A metodologia proposta esta baseada na interpretação dos alarmes fornecidos pelo Sistema de Supervisão e Aquisição de dados (SCADA) e nas características elétricas do sistema, assim como impedâncias de linhas de transmissão e transformadores; nos estados dos disjuntores e nos sinais e ajustes dos relés de proteção de distância. A metodologia é determinística e utiliza a intercepção entre as zonas de proteção dos relés de distância como base para a estimação da seção e os estados dos disjuntores para associar as seções fisicamente isoladas no sistema ante a ocorrência de falta, fazendo uso de um algoritmo de busca do caminho mais curto. Possíveis cenários de falta foram simulados no sistema IEEE-30 barras a fim de validar a metodologia. Os resultados mostram que a abordagem consegue fornecer soluções satisfatórias, mesmo em casos de faltas múltiplas ou em caso de falha de dispositivos de proteção.
36

Détection robuste de signaux acoustiques de mammifères marins / Robust detection of the acoustic signals of marine mammals

Dadouchi, Florian 08 October 2014 (has links)
Les océans subissent des pressions d'origine anthropique particulièrement fortes comme la surpêche, la pollution physico-chimique, et le bruit rayonné par les activités industrielles et militaires. Cette thèse se place dans un contexte de compréhension de l'impact du bruit rayonné dans les océans sur les mammifères marins. L'acoustique passive joue donc un rôle fondamental dans ce problème. Ce travail aborde la tâche de détection de signatures acoustiques de mammifères marins dans le spectrogramme. Cette tâche est difficile pour deux raisons : 1. le bruit océanique a une structure complexe (non-stationnaire, coloré), 2. les signaux de mammifères marins sont inconnus et possèdent eux aussi une structure complexe (non-stationnaires bande étroite et/ou impulsionnels). Le problème doit donc être résolu de manière locale en temps-fréquence, et ne pas faire d'hypothèse a priori sur le signal. Des détecteurs statistiques basés uniquement sur la connaissance des statistiques du bruit dans le spectrogramme existent, mais souffrent deux lacunes : 1. leurs performances en terme de probabilité de fausse alarme/ probabilité de détection se dégradent fortement à faible rapport signal à bruit, et 2. ils ne sont pas capables de séparer les signaux à bande étroite des signaux impulsionnels. Ce travail apporte des pistes de réflexion sur ces problèmes.L'originalité de ce travail de thèse repose dans la formulation d'un test d'hypothèse binaire prenant explicitement en compte l'organisation spatiale des pics temps-fréquence. Nous introduisons une méthode d'Analyse de la Densité des Fausses Alarmes (FADA) qui permet de discriminer les régions temps-fréquence abritant le signal de celles n'abritant que du bruit. Plus précisément,le nombre de fausses alarmes dans une région du plan est d'abord modélisé par une loi binomiale, puis par une loi binomiale corrélée, afin de prendre en considération la redondance du spectrogramme. Le test d'hypothèse binaire est résolu par une approche de Neyman-Pearson. Nous démontrons numériquement la pertinence de cette approche et nous la validons sur données réelles de mammifères marins disposant d'une grande variété de signaux et de conditions de bruit. En particulier, nous illustrons la capacité de FADA à discriminer efficacement le signal du bruit en milieu fortement impulsionnel. / The oceans experience heavy anthropogenic pressure due to overfishing, physico-chemical pollution, and noise radiated by industrial and military activities. This work focuses on the use of passive acoustic monitoring of the oceans, as a tool to understand the impact of radiated noise on marine ecosystems, and particularly on marine mammals. This work tackles the task of detection of acoustical signals of marine mammals using the spectrogram. This task is uneasy for two reasons : 1. the ocean noise structure is complex (non-stationary and colored) and 2. the signals of interest are unknown and also shows a complex structure (non-stationary narrow band and/or impulsive). The problem therefore must be solved locally without making a priori hypothesis on the signal. Statistical detectors only based on the local analysis of the noise spectrogram coefficients are available, making them suitable for this problem. However, these detectors suffer two disadvantages : 1. the trade-offs false alarm probability/ detection probability that are available for low signal tonoise ratio are not satisfactory and 2. the separation between narrow-band and impulsive signals is not possible. This work brings some answers to these problems.The main contribution of this work is to formulate a binary hypothesis test taking explicitly in account the spatial organization of time-frequency peaks. We introduce the False Alarm Density Analysis (FADA) framework that efficiently discriminates time-frequency regions hosting signal from the ones hosting noise only. In particular the number of false alarms in regions of the binary spectrogram is first modeled by a binomial distribution, and then by a correlated binomial distribution to take in account the spectrogram redundancy. The binary hypothesis test is solved using a Neyman-Pearson criterion.We demonstrate the relevance of this approach on simulated data and validate the FADA detector on a wide variety of real signals. In particular we show the capability of the proposed method to efficiently detect signals in highly impulsive environment.
37

Proposta de um sistema de seguran?a eletr?nica predial

Casillo, Danielle Simone da Silva 12 May 2004 (has links)
Made available in DSpace on 2014-12-17T14:55:17Z (GMT). No. of bitstreams: 1 DanielleSS_da_capa_ate_pag_13.pdf: 7780699 bytes, checksum: dd280d1a1b7808173600cb1ec29d5cbc (MD5) Previous issue date: 2004-05-12 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / This work presents a suggestion of a security system of land automation having as objective main the creation of a system capable from easy method, supervise the installations of a building with the goal to preserver security personal and patrimonial necessities, aim at portability low cost and use easiness. Was designed an alarms central and access controller that has digital and analogical inputs for sensors and outputs for buzzer, telephonic dialing and electronic lock. The system is supervised by software that makes solicitations of information to the alarms central through the one computer's serial port (RS-232). The supervisory software was developed in platform LabVIEW with displays the received data on a graphical interface informing the sensors' current states distributed in the building and system events as alarns occurrences. This system also can be viewed through the Internet for people registered by the land security's system administrator / Este trabalho apresenta uma proposta de um sistema de seguran?a para automa??o predial, tendo como objetivo principal ? cria??o de um sistema que seja capaz de uma forma simples, monitorar as instala??es de um pr?dio a fim de atender as necessidades de prote??o patrimonial e pessoal, visando portabilidade, baixo custo e facilidade de uso. Foi projetada uma central de alarmes e controlador de acesso com entradas anal?gicas e digitais para sensores e sa?das para sirene, discadora telef?nica e fechadura eletr?nica. O sistema ? supervisionado por um software de monitoramento que f?z requisi??es de informa??es ? central de alarmes atrav?s da porta serial do computador (RS-232). O software supervis?rio foi desenvolvido na plataforma de desenvolvimento LabVIEW o qual disponibiliza os dados recebidos numa interface gr?fica informando os estados atuais dos sensores distribu?dos no interior do pr?dio e eventos do sistema como ocorr?ncias de alarmes. Este sistema tamb?m pode ser visualizado atrav?s da lnternet por pessoas cadastradas pelo administrador do sistema de seguran?a predial
38

ESPECIFICAÇÃO DE UM SISTEMA MULTIAGENTE DE RECOMENDAÇÃO DE AÇÕES EM CASO DE FALHAS DE SISTEMAS DE AUTOMAÇÃO E CONTROLE / SPECIFICATION OF A MULTI-AGENT SYSTEM RECOMMENDATION FOR ACTION IN CASE OF FAILURES OF SYSTEMS AUTOMATION IN CONTROL

Quintão, Heider Cristian Moura 15 February 2008 (has links)
Made available in DSpace on 2016-08-17T14:52:39Z (GMT). No. of bitstreams: 1 Heider Cristian Moura Quintao.pdf: 4191526 bytes, checksum: 3053fbdd9113f05514fce93fc176aa9e (MD5) Previous issue date: 2008-02-15 / When equipment failure occur in complex industrial plants, the automation and control system generates a great amount of alarms that can confuse the operators and lead them to take wrong decisions - the time for decision taking is very short and the amount of generated information is higher, being impossible for the operator read all of them before taking the correct decision. The new industrial systems have presented functionalities that try to minimize this deficiency presenting some support to the user, but still in an inefficient form. This work presents a proposal of an Alarm Management System based on Action Recommendation - SIGARA, a knowledge-based tool which aims supporting users of industrial control systems, when abnormal events occur. SIGARA is an action recommender multi-agent system, shaped on the basis of the described tasks and phases of the ONTORMAS ontology and MAAEM methodology. Beyond searching the solution of a problem of the real world in the industries, the proposed SIGARA presents some additional features not present on existing systems, as the application of information filtering techniques in different processing phases, and also the use of MAAEM and ONTORMAS in this new domain. / Quando ocorrem falhas de equipamentos em plantas industriais complexas, o sistema de automação e controle gera uma grande quantidade de alarmes que podem confundir os operadores e induzi-los a tomar decisões erradas. O tempo para a tomada de decisão é muito curto e a quantidade de informação gerada é muito grande, sendo impossível que o operador consiga ler todas antes de tomar a decisão correta. Os novos sistemas industriais têm apresentado funcionalidades que buscam minimizar essa deficiência apresentando algum suporte ao usuário, mas ainda de forma ineficiente. O presente trabalho apresenta como proposta um Sistema Informatizado de Gerenciamento de Alarmes baseado na Recomendação de Ações (SIGARA). É uma ferramenta baseada em conhecimento que objetiva suportar usuários de sistemas industriais de automação e controle, quando da ocorrência de alguma anomalia. O SIGARA é um sistema multiagente de recomendação de ações, modelado com base nas tarefas e fases descritas na ontologia ONTORMAS ( Ontology for Reusing Multi-agent Software ), conforme a metodologia MAAEM ( Multi-Agent Application Engineering Methodology ). Além de buscar a solução de um problema do mundo real presente nas indústrias, o SIGARA proposto apresenta alguns diferenciais frente aos existentes no mercado, como o uso de técnicas de filtragem de informação em várias etapas do processamento das informações, e também a aplicação da MAAEM e ONTORMAS que ainda não haviam sido utilizadas nesse domínio.
39

[en] A NOVEL SELF-ADAPTIVE APPROACH FOR OPTIMIZING THE USE OF IOT DEVICES IN PATIENT MONITORING USING EWS / [pt] UMA NOVA ABORDAGEM AUTOADAPTÁVEL PARA OTIMIZAR O USO DE DISPOSITIVOS IOT NO MONITORAMENTO DE PACIENTES USANDO O EWS

ANTONIO IYDA PAGANELLI 15 May 2023 (has links)
[pt] A Internet das Coisas (IoT) se propõe a interligar o mundo físico e a Internet, o que abre a possibilidade de desenvolvimento de diversas aplicações, principalmente na área da saúde. Essas aplicações requerem um grande número de sensores para coletar informações continuamente, gerando grandes fluxos de dados, muitas vezes excessivos, redundantes ou sem significado para as operações do sistema. Essa geração massiva de dados de sensores desperdiça recursos computacionais para adquirir, transmitir, armazenar e processar informações, levando à perda de eficiência desses sistemas ao longo do tempo. Além disso, os dispositivos IoT são projetados para serem pequenos e portáteis, alimentados por baterias, para maior mobilidade e interferência minimizada no ambiente monitorado. No entanto, esse design também resulta em restrições de consumo de energia, tornando a vida útil da bateria um desafio significativo que precisa ser enfrentado. Além disso, esses sistemas geralmente operam em ambientes imprevisíveis, o que pode gerar alarmes redundantes e insignificantes, tornando-os ineficazes. No entanto, um sistema auto-adaptativo que identifica e prevê riscos iminentes através de um sistema de pontuação de alertas antecipados (EWS) pode lidar com esses problemas. Devido ao seu baixo custo de processamento, a referência EWS pode ser incorporada em dispositivos vestíveis e sensores, permitindo um melhor gerenciamento das taxas de amostragem, transmissões, produção de alarmes e consumo de energia. Seguindo a ideia acima, esta tese apresenta uma solução que combina um sistema EWS com um algoritmo auto-adaptativo em aplicações IoT de monitoramento de pacientes. Desta forma, promovendo uma redução na aquisição e transmissão de dados , diminuindo alarmes não acionáveis e proporcionando economia de energia para esses dispositivos. Além disso, projetamos e desenvolvemos um protótipo de hardware capaz de embarcar nossa proposta, evidenciando a sua viabilidade técnica. Além disso, usando nosso protótipo, coletamos dados reais de consumo de energia dos componentes de hardware que foram usados durante nossas simulações com dados reais de pacientes provenientes de banco de dados públicos. Nossos experimentos demonstraram grandes benefícios com essa abordagem, reduzindo em 87 por cento os dados amostrados, em 99 por cento a carga total das mensagens transmitidas do dispositivo de monitoramento, 78 por cento dos alarmes e uma economia de energia de quase 82 por cento. No entanto, a fidelidade do monitoramento do estado clínico dos pacientes apresentou um erro absoluto total médio de 6,8 por cento (mais ou menos 5,5 por cento), mas minimizado para 3,8 por cento (mais ou menos 2,8 por cento) em uma configuração com menores ganhos na redução de dados. A perda de detecção total dos alarmes dependendo da configuração de frequências e janelas de tempo analisadas ficou entre 0,5 por cento e 9,5 por cento, com exatidão do tipo de alarme entre 89 por cento e 94 por cento. Concluindo, este trabalho apresenta uma abordagem para o uso mais eficiente de recursos computacionais, de comunicação e de energia para implementar aplicativos de monitoramento de pacientes baseados em IoT. / [en] The Internet of Things (IoT) proposes to connect the physical world to the Internet, which opens up the possibility of developing various applications, especially in healthcare. These applications require a huge number of sensors to collect information continuously, generating large data flows, often excessive, redundant, or without meaning for the system s operations. This massive generation of sensor data wastes computational resources to acquire, transmit, store, and process information, leading to the loss of efficiency of these systems over time. In addition, IoT devices are designed to be small and portable, powered by batteries, for increased mobility and minimized interference with the monitored environment. However, this design also results in energy consumption restrictions, making battery lifetime a significant challenge that needs to be addressed. Furthermore, these systems often operate in unpredictable environments, which can generate redundant and negligible alarms, rendering them ineffective. However, a self-adaptive system that identifies and predicts imminent risks using early-warning scores (EWS) can cope with these issues. Due to its low processing cost, EWS guidelines can be embedded in wearable and sensor devices, allowing better management of sampling rates, transmissions, alarm production, and energy consumption. Following the aforementioned idea, this thesis presents a solution combining EWS with a self-adaptive algorithm for IoT patient monitoring applications. Thus, promoting a reduction in data acquisition and transmission, decreasing non-actionable alarms, and providing energy savings for these devices. In addition, we designed and developed a hardware prototype capable of embedding our proposal, which attested to its technical feasibility. Moreover, using our wearable prototype, we collected the energy consumption data of hardware components and used them during our simulations with real patient data from public datasets. Our experiments demonstrated great benefits of our approach, reducing by 87 percent the sampled data, 99 percent the total payload of the transmitted messages from the monitoring device, 78 percent of the alarms, and an energy saving of almost 82 percent. However, the fidelity of monitoring the clinical status of patients showed a mean total absolute error of 6.8 percent (plus-minus 5.5 percent) but minimized to 3.8 percent (plus-minus 2.8 percent) in a configuration with lower data reduction gains. The total loss of alarm detection depends on the configuration of frequencies and time windows, remaining between 0.5 percent and 9.5 percent, with an accuracy of the type of alarm between 89 percent and 94 percent. In conclusion, this work presents an approach for more efficient use of computational, communication, and energy resources to implement IoT-based patient monitoring applications.
40

Approche matricielle de l'opérateur de propagation des ondes ultrasonores en milieu diffusant aléatoire

Aubry, Alexandre 23 September 2008 (has links) (PDF)
Cette thèse étudie les propriétés de l'opérateur de propagation des ondes ultrasonores en milieu aléatoire. Le dispositif expérimental consiste en un réseau multi-éléments placé en vis-à-vis d'un milieu désordonné. L'opérateur de propagation est donné par la matrice des réponses inter-éléments mesurées entre chaque couple de transducteurs. En s'appuyant sur la théorie des matrices aléatoires, le comportement statistique de cet opérateur a été étudié en régime de diffusion simple et multiple. Une cohérence déterministe des signaux est ainsi mise en évidence en régime de diffusion simple, cohérence qui disparaît dès que la diffusion multiple prédomine. Cette différence de comportement a permis la mise au point d'un radar intelligent séparant les échos simplement et multiplement diffusés. On peut ainsi extraire l'écho direct d'une cible échogène enfouie dans un milieu hautement diffusant, bien que ce dernier soit source de diffusion multiple et d'aberration. Une deuxième approche consiste, au contraire, à extraire une contribution de diffusion multiple noyée dans une contribution de diffusion simple largement prédominante. L'étude de l'intensité multiplement diffusée permet de mesurer des paramètres de transport (p.ex. la constante de diffusion D) caractérisant la propagation de l'onde multiplement diffusée. Un passage en champ lointain (ondes planes) permet d'obtenir une mesure fiable de D en étudiant le cône de rétrodiffusion cohérente. Un passage en champ proche, via l'utilisation de faisceaux gaussiens, permet d'effectuer des mesures locales de D en étudiant la croissance du halo diffusif. Cette approche a été appliquée au cas de l'os trabéculaire humain autour de 3 MHz.

Page generated in 0.0452 seconds