Spelling suggestions: "subject:"évènements"" "subject:"evènements""
71 |
MODELISATION ET SIMULATION DE L’INTRODUCTION DE TECHNOLOGIES RFID DANS DES SYSTEMES DE CONFIGURATION A LA DEMANDE / MODELING AND SIMULATION OF THE INTRODUCTION OF RFID TECHNOLOGIES IN CONFIGURATION TO ORDER SYSTEMSHaouari, Lobna 18 December 2012 (has links)
L'IDentification par Radio-Fréquences (RFID) permet une identification rapide et efficace des objets. Dans les systèmes de personnalisation de masse, elle promet un apport considérable grâce à sa capacité à gérer des flux d'information complexes caractérisant ce type de systèmes.Dans cette thèse, nous étudions les impacts de la RFID sur les systèmes de configuration à la demande (CTO). Nous nous basons sur un cas réel pour apporter une mesure fiable et directement exploitable. La littérature à ce sujet offre souvent des mesures sommaires, théoriques ou qualitatives, d'où l'originalité de la thèse.L'étude est réalisée par une approche de simulation à évènements discrets et évalue l'apport des technologies RFID à deux niveaux. Le premier concerne des changements directs du système (e.g. accélération des maintes vérifications caractérisant la CTO, libération de ressources...). Ces changements influencent la performance du système en termes de temps de séjour, de taux de retard des commandes, etc. Le deuxième niveau concerne des changements profonds tirant profit d'une visibilité accrue des produits et de la facilité d'une collecte de données rigoureuse. Ces changements se focalisent sur l'allocation dynamique de la charge de travail. La remise en question des processus à l'occasion de l'introduction d'une technologie RFID constitue un point original en raison du manque de publications soulignantsuffisamment cet avantage.Nos expérimentations ont montré que les apports des technologies RFID dans un système CTO sont indéniables. De plus, repenser le fonctionnement du système afin d'exploiter plus profondément le potentiel de la technologie accroit les bénéfices. / Radio Frequency IDentification allows quick and secure identification of objects. In mass customisation systems, RFID technologies can be peculiarly efficient, because they are able to support the complex flows of information which characterize these systems.In this study, we focus on RFID technologies effects on configuration to order (CTO) systems.We base the research on an existing case in order to obtain reliable information directly usable by decision makers. The rarity of studies offering quantitative, detailed and real case based measures makes the originality of this thesis.RFID technology implementation's effect is analysed by a discrete event simulation approach and is presented in two levels:The first level relates direct changes brought about by RFID (e.g. faster execution of the many checks due to the wide range of products, reduced workload for resources…). These changes have an impact on system's performance in terms of lead time, late orders' rate, etc.The second level is axed on deeper changes occurring due to the increased product visibility and the ease of collecting large amounts of data with an RFID technology.These changes mainly focus on the dynamic allocation of workload. Reconsidering of processes and proposing changes deeper than the simple direct technology impact is a breakthrough, in this study, because of the lack of publications highlighting this benefit adequately.In conclusion, RFID contribution in CTO systems and, extensively, in assembly to order systems may be undeniable. Moreover, beyond the direct technology impact, rethinking how the system works by exploiting the deeper potential of technology can increase profits.
|
72 |
Towards better privacy preservation by detecting personal events in photos shared within online social networks / Vers une meilleure protection de la vie privée par la détection d'événements dans les photos partagées sur les réseaux sociauxRaad, Eliana 04 December 2015 (has links)
De nos jours, les réseaux sociaux ont considérablement changé la façon dont les personnes prennent des photos qu’importe le lieu, le moment, le contexte. Plus que 500 millions de photos sont partagées chaque jour sur les réseaux sociaux, auxquelles on peut ajouter les 200 millions de vidéos échangées en ligne chaque minute. Plus particulièrement, avec la démocratisation des smartphones, les utilisateurs de réseaux sociaux partagent instantanément les photos qu’ils prennent lors des divers événements de leur vie, leurs voyages, leurs aventures, etc. Partager ce type de données présente un danger pour la vie privée des utilisateurs et les expose ensuite à une surveillance grandissante. Ajouté à cela, aujourd’hui de nouvelles techniques permettent de combiner les données provenant de plusieurs sources entre elles de façon jamais possible auparavant. Cependant, la plupart des utilisateurs des réseaux sociaux ne se rendent même pas compte de la quantité incroyable de données très personnelles que les photos peuvent renfermer sur eux et sur leurs activités (par exemple, le cas du cyberharcèlement). Cela peut encore rendre plus difficile la possibilité de garder l’anonymat sur Internet dans de nombreuses situations où une certaine discrétion est essentielle (politique, lutte contre la fraude, critiques diverses, etc.).Ainsi, le but de ce travail est de fournir une mesure de protection de la vie privée, visant à identifier la quantité d’information qui permettrait de ré-identifier une personne en utilisant ses informations personnelles accessibles en ligne. Premièrement, nous fournissons un framework capable de mesurer le risque éventuel de ré-identification des personnes et d’assainir les documents multimédias destinés à être publiés et partagés. Deuxièmement, nous proposons une nouvelle approche pour enrichir le profil de l’utilisateur dont on souhaite préserver l’anonymat. Pour cela, nous exploitons les évènements personnels à partir des publications des utilisateurs et celles partagées par leurs contacts sur leur réseau social. Plus précisément, notre approche permet de détecter et lier les évènements élémentaires des personnes en utilisant les photos (et leurs métadonnées) partagées au sein de leur réseau social. Nous décrivons les expérimentations que nous avons menées sur des jeux de données réelles et synthétiques. Les résultats montrent l’efficacité de nos différentes contributions. / Today, social networking has considerably changed why people are taking pictures all the time everywhere they go. More than 500 million photos are uploaded and shared every day, along with more than 200 hours of videos every minute. More particularly, with the ubiquity of smartphones, social network users are now taking photos of events in their lives, travels, experiences, etc. and instantly uploading them online. Such public data sharing puts at risk the users’ privacy and expose them to a surveillance that is growing at a very rapid rate. Furthermore, new techniques are used today to extract publicly shared data and combine it with other data in ways never before thought possible. However, social networks users do not realize the wealth of information gathered from image data and which could be used to track all their activities at every moment (e.g., the case of cyberstalking). Therefore, in many situations (such as politics, fraud fighting and cultural critics, etc.), it becomes extremely hard to maintain individuals’ anonymity when the authors of the published data need to remain anonymous.Thus, the aim of this work is to provide a privacy-preserving constraint (de-linkability) to bound the amount of information that can be used to re-identify individuals using online profile information. Firstly, we provide a framework able to quantify the re-identification threat and sanitize multimedia documents to be published and shared. Secondly, we propose a new approach to enrich the profile information of the individuals to protect. Therefore, we exploit personal events in the individuals’ own posts as well as those shared by their friends/contacts. Specifically, our approach is able to detect and link users’ elementary events using photos (and related metadata) shared within their online social networks. A prototype has been implemented and several experiments have been conducted in this work to validate our different contributions.
|
73 |
Contribution au diagnostic et pronostic des systèmes à évènements discrets temporisés par réseaux de Petri stochastiques / Contribution to fault diagnosis and prognosis of timed discrete event systems using stochastic Petri netsAmmour, Rabah 11 December 2017 (has links)
La complexification des systèmes et la réduction du nombre de capteurs nécessitent l’élaboration de méthodes de surveillance de plus en plus efficaces. Le travail de cette thèse s’inscrit dans ce contexte et porte sur le diagnostic et le pronostic des Systèmes à Événements Discrets (SED) temporisés. Les réseaux de Petri stochastiques partiellement mesurés sont utilisés pour modéliser le système. Le modèle représente à la fois le comportement nominal et le comportement dysfonctionnel du système. Il permet aussi de représenter ses capteurs à travers une mesure partielle des transitions et des places. Notre contribution porte sur l’exploitation de l’information temporelle pour le diagnostic et le pronostic des SED. À partir d’une suite de mesures datées, les comportements du système qui expliqueraient ces mesures sont d’abord déterminés. La probabilité de ces comportements est ensuite évaluée pour fournir un diagnostic du système en termes de probabilité d’occurrence d’un défaut. Dans le cas où une faute est diagnostiquée, une approche permettant d’estimer la distribution de sa date d’occurrence est proposée. L’objectif est de donner plus de détails sur cette faute afin de mieux la caractériser. Par ailleurs, la probabilité des comportements compatibles est exploitée pour estimer l’état actuel du système. Il s’agit de déterminer les marquages compatibles avec les mesures ainsi que leurs probabilités associées. À partir de cette estimation d’état, la prise en considération des évolutions possibles du système permet d’envisager la prédiction de la faute avant son occurrence. Une estimation de la probabilité d’occurrence de la faute sur un horizon de temps futur est ainsi obtenue. Celle-ci est ensuite étendue à l’évaluation de la durée de vie résiduelle du système. Enfin, une application des différentes approches développées sur un cas d’un système de tri est proposée. / Due to the increasing complexity of systems and to the limitation of sensors number, developing monitoring methods is a main issue. This PhD thesis deals with the fault diagnosis and prognosis of timed Discrete Event Systems (DES). For that purpose, partially observed stochastic Petri nets are used to model the system. The model represents both the nominal and faulty behaviors of the system and characterizes the uncertainty on the occurrence of events as random variables with exponential distributions. It also considers partial measurements of both markings and events to represent the sensors of the system. Our main contribution is to exploit the timed information, namely the dates of the measurements for the fault diagnosis and prognosis of DES. From the proposed model and collected measurements, the behaviors of the system that are consistent with those measurements are obtained. Based on the event dates, our approach consists in evaluating the probabilities of the consistent behaviors. The probability of faults occurrences is obtained as a consequence. When a fault is detected, a method to estimate its occurrence date is proposed. From the probability of the consistent trajectories, a state estimation is deduced. The future possible behaviors of the system, from the current state, are considered in order to achieve fault prediction. This prognosis result is extended to estimate the remaining useful life as a time interval. Finally, a case study representing a sorting system is proposed to show the applicability of the developed methods.
|
74 |
Forçages anthropiques multiples dans les écosystèmes aquatiques méditerranéens et conséquences sur les communautés bactériennes / Multiple anthropogenic forcings in Mediterranean aquatic ecosystems and consequences on bacterial communitiesReoyo Prats, Brice 06 December 2017 (has links)
Les changements globaux sont aujourd’hui une réalité et les activités humaines à l’origine de ces bouleversements tendent à augmenter avec par exemple l’utilisation toujours plus importante de produits chimiques. Les pollutions résultantes peuvent alors avoir un fort impact sur les écosystèmes, en particulier ceux d’eaux douces de surface.Cette thèse a d’abord montré au travers d’un échantillonnage à haute fréquence d’une rivière typiquement méditerranéenne (la Têt), lors d’un évènement pluvieux intense caractéristique, que des phénomènes de multicontaminations ont lieu avec la présence dans les eaux naturelles de sels nutritifs, éléments trace métalliques, pesticides et produits pharmaceutiques entre autres. Ces phénomènes de contaminations multiples sont principalement liés aux débordements du réseau urbain d’évacuation des eaux qui ont lieu au travers des débordements de déversoirs d’orage. Cette étude a également montré, grâce à l’utilisation de la nouvelle technique de séquençage haut-débit MiSeq, que les changements dans les diversités structurelles des communautés bactériennes aquatiques de la matière en suspension évoluent principalement en fonction de l’hydrodynamique de la rivière, les plus fortes dissimilarités entre les communautés s’observant lors du pic de débit. Les paramètres physico-chimiques environnementaux ont également un impact majeur sur la structure des communautés, ce qui pourrait amener suite à l’exploration des taxons bactériens associés à une dynamique de contaminations caractéristiques, à la découverte de biomarqueurs spécifiques de ces phénomènes. / Global changes cannot be ignored nowadays and human activities causing these disruptions tend to increase with, for example, the growing use of chemicals. The resulting pollution can then have a strong impact on ecosystems, in particular those of fresh surface waters.This thesis first showed through a high-frequency sampling of a typically Mediterranean river (the Têt River), during a characteristic intense rainy event, that multicontaminations occur with the presence in natural waters of nutrients, trace metals, pesticides and pharmaceuticals among others. These multicontamination phenomena are mainly related to the overflows of the sewage system that take place through storm overflows. This study has also shown, through the use of the new MiSeq high-throughput sequencing technique, that changes in the structural diversities of aquatic bacterial communities of suspended matter evolve mainly according to the hydrodynamics of the river, the strongest dissimilarities between the communities being observed during peak flow. The physico-chemical environmental parameters also have a major impact on the structure of communities, which could lead to the exploration of bacterial taxa associated with a characteristic contaminations dynamic, to the discovery of specific biomarkers of these phenomena.
|
75 |
Évaluation pharmacoéconomique des thérapies efficaces et dispendieuses en prévention des maladies cardiovasculairesFanton-Aita, Fiorella 04 1900 (has links)
Les maladies cardiovasculaires (MCV) ont une prévalence élevée dans le monde et sont considérées comme la deuxième cause de mortalité chez la population canadienne. Les statines sont reconnues comme le traitement par excellence dans la prévention des MCV. Toutefois, les statines ne conviennent pas à tous les patients, potentiellement, en raison de la survenue d’effets secondaires et du manque d’efficacité. Avec l’avancement de la science, de nouvelles thérapies voient le jour dans le milieu cardiovasculaire. Les inhibiteurs de la proprotéine convertase subtilisine-kexine de type 9 PCSK9 (iPCSK9) constituent un traitement efficace pour réduire les évènements cardiovasculaires. Cependant, ces thérapies sont dispendieuses pour le système de santé.
Cette thèse a pour but d’explorer la pharmacoéconomie des thérapies dispendieuses ayant démontrées une efficacité clinique importante dans le traitement préventif des MCV. La pharmacoéconomie est un outil d’évaluation destiné aux décideurs ayant comme objectif d’optimiser l’utilisation des ressources humaines et financières.
Tout d’abord, dans un premier article, nous avons évalué l’efficacité maximale d’une thérapie hypolipémiante à partir des grilles de risque cardiovasculaires. Selon les résultats obtenus, l’efficacité maximale qu’il est raisonnable d’espérer a correspondu à une diminution du risque relatif variant entre 0,46 et 0,66.
Ensuite, dans un deuxième article, nous avons estimé l’efficacité d’une thérapie dispendieuse dans un contexte différent puisque les études cliniques étaient en cours. Avec l’aide d’un modèle de Markov, la propension à payer a été fixée à deux seuils distincts, alors que le coût d’acquisition de la thérapie est demeuré fixe. Nos résultats ont estimé que pour atteindre les seuils de propension à payer de 50 000 $ et 100 000 $ par année de vie ajustée pour la qualité, l’efficacité devrait être de 0,58 et 0,78 respectivement.
Finalement, l’étude randomisée contrôlée établissant l’efficacité clinique des iPCSK9 a été publiée. Nous avons donc pu évaluer le coût-utilité réel des iPCSK9 avec une nouvelle méthode de simulation, nommée Conditions et évènements discrètement intégrés. Cette étude est l’objet
2
de mon troisième article. Les résultats de cet article ont estimé que l’iPCSK9 n’est pas coût-efficace selon l’efficacité obtenue dans les études cliniques.
En conclusion, suite aux résultats présentés dans cette thèse rédigée par articles, il serait envisageable d’intégrer dans le modèle pharmacoéconomique l’option d’un test génétique afin d’individualiser le traitement de chaque patient. / Cardiovascular diseases (CVD) have a high prevalence worldwide and are considered the second leading cause of death in the Canadian population. Statins are recognized to be the gold standard treatment in the prevention of CVD. However, statins are not suitable for all patients, potentially because of side effects and lack of efficacy. With the advancement of science, new therapies are emerging in the cardiovascular field. Inhibitors of proprotein convertase subtilisin-kexin type 9 (iPCSK9) have been shown to be effective in reducing cardiovascular events. However, these therapies are expensive.
This article-based thesis aims to explore the pharmacoeconomics of expensive therapies that have demonstrated significant clinical efficacy in the preventive treatment of CVD. Pharmacoeconomics is an evaluation tool for decision-makers with the objective of optimizing the use of human and financial resources.
In the first publication, we evaluated the maximum effectiveness of lipid-lowering therapy from cardiovascular risk grids. According to our results, this maximum expected benefit fluctuates between 0.46 and 0.66.
In the second publication, we estimated the effectiveness of an expensive therapy. At the time of our second publication, the results of the randomized controlled trial evaluating the clinical efficacy of iPCSK9 had not been published yet. Therefore, we used a Markov model to estimate the necessary clinical efficacy of PCSK9 inhibitors to reach two arbitrarily selected willingness-to-pay (WTP) thresholds. Our results showed that an efficacy of 0.58 and 0.78 were necessary to reach WTP thresholds of $50,000 and $100,000 per quality-adjusted life years respectively.
Once the clinical efficacy of iPCSK9 was published, we evaluated their cost-utility. This was the object of our third article and a new simulation method named Discretely Integrated Condition was used. Our results suggested that at the current price, the PCSK9 inhibitors were not cost-effective.
Following the results presented in this article-based thesis, it would be of interest to integrate the option of a hypothetical genetic test into the pharmacoeconomic model. This genetic test would be able to identify good responders in order to optimize the treatment of each individual patient.
|
76 |
Optimization of cost-based threat response for Security Information and Event Management (SIEM) systems / Optimisation de la réponse aux menaces basée sur les coûts dans des systèmes pour la Sécurité de l'Information et la Gestion des Evénements (SIEMs)Gonzalez Granadillo, Gustavo Daniel 12 December 2013 (has links)
Les SIEMs (systèmes pour la Sécurité de l'Information et la Gestion des Evénements) sont le cœur des centres opérationnels de sécurité actuels. Les SIEMs corrèlent les événements en provenance de différents capteurs (anti-virus, pare-feux, systèmes de détection d'intrusion, etc), et offrent des vues synthétiques pour la gestion des menaces ainsi que des rapports de sécurité. La recherche dans les technologies SIEM a toujours mis l'accent sur la fourniture d'une interprétation complète des menaces, en particulier pour évaluer leur importance et hiérarchiser les réponses. Toutefois, dans de nombreux cas, la réponse des menaces a encore besoin de l'homme pour mener l'analyse et aboutir à la prise de décisions, p.ex. compréhension des menaces, définition des contremesures appropriées ainsi que leur déploiement. Il s'agit d'un processus lent et coûteux, nécessitant un haut niveau d'expertise, qui reste néanmoins sujet à erreurs. Ainsi, des recherches récentes sur les SIEMs ont mis l'accent sur l'importance et la capacité d'automatiser le processus de sélection et le déploiement des contremesures. Certains auteurs ont proposé des mécanismes automatiques de réponse, comme l'adaptation des politiques de sécurité pour dépasser les limites de réponses statiques ou manuelles. Bien que ces approches améliorent le processus de réaction (en le rendant plus rapide et/ou plus efficace), ils restent limités car ces solutions n'analysent pas l'impact des contremesures choisies pour atténuer les attaques. Dans cette thèse, nous proposons une nouvelle approche systématique qui sélectionne la contremesure optimale au travers d'un ensemble de candidats, classés sur la base d'une comparaison entre leur efficacité à arrêter l'attaque et leur capacité à préserver, simultanément, le meilleur service aux utilisateurs légitimes. Nous proposons également un modèle pour représenter graphiquement les attaques et les contre-mesures, afin de déterminer le volume de chaque élément dans un scénario de multiples attaques. Les coordonnées de chaque élément sont dérivés d'un URI . Ce dernier est composé principalement de trois axes : l’utilisateur, le canal et le ressource. Nous utilisons la méthodologie CARVER pour donner un poids approprié à chaque élément composant les axes de notre système de coordonnées. Cette approche nous permet de connecter les volumes avec les risques (p.ex. des grands volumes sont équivalents à des risques élevés, tandis que des petits volumes sont équivalents à des risques faibles). Deux concepts sont considérés en comparant deux ou plusieurs volumes de risques: le risque résiduel, qui résulte lorsque le volume du risque est plus élevé que le volume de la contre-mesure, et le dommage collatéral, qui en résulte lorsque le volume de la contre-mesure est supérieur au volume du risque. En conséquence, nous sommes en mesure d'évaluer les contre-mesures pour des scénarios d'attaques individuelles et multiples, ce qui permet de sélectionner la contre-mesure ou groupe de contre-mesures qui fournit le plus grand bénéfice à l'organisation / Current Security Information and Event Management systems (SIEMs) constitute the central platform of modern security operating centers. They gather events from various sensors (intrusion detection systems, anti-virus, firewalls, etc.), correlate these events, and deliver synthetic views for threat handling and security reporting. Research in SIEM technologies has traditionally focused on providing a comprehensive interpretation of threats, in particular to evaluate their importance and prioritize responses accordingly. However, in many cases, threat responses still require humans to carry out the analysis and decision tasks e.g., understanding the threats, defining the appropriate countermeasures and deploying them. This is a slow and costly process, requiring a high level of expertise, and remaining error-prone nonetheless. Thus, recent research in SIEM technology has focused on the ability to automate the process of selecting and deploying countermeasures. Several authors have proposed automatic response mechanisms, such as the adaptation of security policies, to overcome the limitations of static or manual response. Although these approaches improve the reaction process (making it faster and/or more efficient), they remain limited since these solutions do not analyze the impact of the countermeasures selected to mitigate the attacks. In this thesis, we propose a novel and systematic process to select the optimal countermeasure from a pool of candidates, by ranking them based on a trade-off between their efficiency in stopping the attack and their ability to preserve, at the same time, the best service to normal users. In addition, we propose a model to represent graphically attacks and countermeasures, so as to determine the volume of each element in a scenario of multiple attacks. The coordinates of each element are derived from a URI. This latter is mainly composed of three axes: user, channel, and resource. We use the CARVER methodology to give an appropriate weight to each element composing the axes in our coordinate system. This approach allows us to connect the volumes with the risks (i.e. big volumes are equivalent to high risk, whereas small volumes are equivalent to low risk). Two concepts are considered while comparing two or more risk volumes: Residual risk, which results when the risk volume is higher than the countermeasure volume; and Collateral damage, which results when the countermeasure volume is higher than the risk volume. As a result, we are able to evaluate countermeasures for single and multiple attack scenarios, making it possible to select the countermeasure or group of countermeasures that provides the highest benefit to the organization
|
77 |
Répertoire de réponses comportementales en situations sociales problématiques chez des personnes agressives et non-agressives : une étude PREAhumada-Alarcon, Rodrigo 08 1900 (has links)
Les théories cognitives considèrent régulièrement le répertoire de réponses parmi les multitudes de facteurs modulant l’utilisation de comportements agressifs en situations sociales, mais peu d’études explorent le concept à l’aide de mesures adéquates reflétant la nature automatique et instantanée des processus cognitifs qui s’y jouent. Cette étude se base sur de précédents travaux faisant l’utilisation de potentiels reliés aux évènements (PRE) pour l’étude de certains aspects du traitement de l’information sociale liée à l’agression. L’activité électrique du cerveau des participants fut enregistrée pendant la lecture de scénarios sociaux hostiles mettant en scènes des réactions hypothétiques à des provocations ambiguës. Les participants placés dans le groupe agressif ont montré une N400 plus ample suivant la lecture d’un mot cible décrivant une réaction non-hostile face à une situation problématique que les participants non-agressifs. Cette déflexion fut également observée chez les participants non-agressifs, mais elle n’est pas statistiquement significative. Cette différence peut être comprise comme une déficience d’accès aux réponses non-hostiles chez les participants agressifs. La présente étude met en évidence les différences au niveau du répertoire de réponses chez les personnes agressives et non-agressives et démontre l’utilité des techniques PRE dans l’étude des processus cognitifs sous-tendant les comportements agressifs. / Behavioral script repertoires are often discussed in socio-cognitive theories as part of the multitude of factors that modulate the use of aggressive behavior in response to problematic social situations, yet few studies explored the concept with measures capable of properly navigating the instantaneous and automatic access to such repertoires. This study bases itself on previous works using event-related potential (ERP) techniques to study aspects of social information processing of aggression. Participants’ brain activity was recorded as they read somewhat hostile social scenarios involving hypothetical behavioral responses to provocations. Participants in the aggressive group showed a statistically significant larger negative shift around 400 ms in the ERP waveform following the reading of a target word describing a non-hostile reaction to a problematic social situation than of a target word describing a hostile reaction, compatible to an N400 effect. Though observed as well, this N400 effect was statistically non-significant in the nonaggressive group. This group difference could be understood as a deficiency in accessing nonaggressive behavioral responses in script repertoires for aggressive individuals. The present study showcases some of the differences between aggressive and nonaggressive people regarding the access to the script repertoire and further proves the usefulness of ERP techniques in the study of cognitive processes underlying aggression.
|
78 |
Classification de situations de conduite et détection des événements critiques d'un deux roues motorisé / Powered Two Wheelers riding patterns classification and critical events recognitionAttal, Ferhat 06 July 2015 (has links)
L'objectif de cette thèse est de développer des outils d'analyse de données recueillies sur les deux roues motorisés (2RMs). Dans ce cadre, des expérimentations sont menées sur des motos instrumentés dans un contexte de conduite réelle incluant à la fois des conduites normales dites naturelles et des conduites à risques (presque chute et chute). Dans la première partie de la thèse, des méthodes d'apprentissage supervisé ont été utilisées pour la classification de situations de conduite d'un 2RM. Les approches développées dans ce contexte ont montré l'intérêt de prendre en compte l'aspect temporel des données dans la conduite d'un 2RM. A cet effet, nous avons montré l'efficacité des modèles de Markov cachés. La seconde partie de cette thèse porte sur le développement d'outils de détection et de classification hors ligne des évènements critiques de conduite, ainsi que, la détection en ligne des situations de chute d'un 2RM. L'approche proposée pour la détection hors ligne des évènements critiques de conduite repose sur l'utilisation d'un modèle de mélange de densités gaussiennes à proportions logistiques. Ce modèle sert à la segmentation non supervisée des séquences de conduite. Des caractéristiques extraites du paramètre du modèle de mélange sont utilisées comme entrées d'un classifieur pour classifier les évènements critiques. Pour la détection en ligne de chute, une méthode simple de détection séquentielle d'anomalies basée sur la carte de contrôle MCUSUM a été proposée. Les résultats obtenus sur une base de données réelle ont permis de montrer l'efficacité des méthodologies proposées à la fois pour la classification de situations de conduite et à la détection des évènements critiques de conduite / This thesis aims to develop framework tools for analyzing and understanding the riding of Powered Two Wheelers (PTW). Experiments are conducted using instrumented PTW in real context including both normal (naturalistic) riding behaviors and critical riding behaviors (near fall and fall). The two objectives of this thesis are the riding patterns classification and critical riding events detection. In the first part of this thesis, a machine-learning framework is used for riding pattern recognition problem. Therefore, this problem is formulated as a classification task to identify the class of riding patterns. The approaches developed in this context have shown the interest to take into account the temporal aspect of the data in PTW riding. Moreover, we have shown the effectiveness of hidden Markov models for such problem. The second part of this thesis focuses on the development of the off-line detection and classification of critical riding events tools and the on-line fall detection. The problem of detection and classification of critical riding events has been performed towards two steps: (1) the segmentation step, where the multidimensional time of data were modeled and segmented by using a mixture model with quadratic logistic proportions; (2) the classification step, which consists in using a pattern recognition algorithm in order to assign each event by its extracted features to one of the three classes namely Fall, near Fall and Naturalistic riding. Regarding the fall detection problem, it is formulated as a sequential anomaly detection problem. The Multivariate CUmulative SUM (MCUSUM) control chart was applied on the data collected from sensors mounted on the motorcycle. The obtained results on a real database have shown the effectiveness of the proposed methodology for both riding pattern recognition and critical riding events detection problems
|
79 |
Interprétation automatique de données hétérogènes pour la modélisation de situations collaboratives : application à la gestion de crise / Automatic interpretation of heterogeneous data to model collaborative situations : application to crisis managementFertier, Audrey 29 November 2018 (has links)
Les travaux présentés dans ce manuscrit s’appliquent au domaine de la gestion de crise française, et notamment à la phase de réponse qui suit un évènement majeur, comme une crue ou un accident industriel. Suite à l’évènement, des cellules de crise sont activées pour prévenir et traiter les conséquences de la crise. Elles font face, dans l’urgence, à de nombreuses difficultés. Les parties-prenantes sont nombreuses, autonomes et hétérogènes, la coexistence de plans d’urgence engendre des contradictions et des effets en cascade se nourrissent des interconnexions entre réseaux. Ces constats arrivent alors que les données disponibles sur les réseaux informatiques ne cessent de se multiplier. Elles sont, par exemple, émises par des capteurs de mesures, sur des réseaux sociaux, ou par des bénévoles. Ces données sont l’occasion de concevoir un système d’information capable de les collecter pour les interpréter en un ensemble d’information formalisé, utilisable en cellule de crise. Pour réussir, les défis liés aux 4Vs du Big data doivent être relevés en limitant le Volume, unifiant (la Variété) et améliorant la Véracité des données et des informations manipulées, tout en suivant la dynamique (Vélocité) de la crise en cours. Nos états de l’art sur les différentes parties de l’architecture recherchée nous ont permis de définir un tel système d’information. Ce dernier est aujourd’hui capable de (i) recevoir plusieurs types d’évènements émis de sources de données connues ou inconnues, (ii) d’utiliser des règles d’interprétations directement déduites de règles métiers réelles et (iii) de formaliser l’ensemble des informations utiles aux parties-prenantes. Son architecture fait partie des architectures orientées évènements, et coexiste avec l’architecture orientée services du logiciel développé par le laboratoire Centre de Génie Industriel (CGI). Le système d’information ainsi implémenté a pu être éprouvé sur un scénario de crue majeure en Loire Moyenne, élaboré par deux Services de Prévision des Crues (SPC) français. Le modèle décrivant la situation de crise courante, obtenu par le système d’information proposé, peut être utilisé pour (i) déduire un processus de réponse à la crise, (ii) détecter des imprévus ou (iii) mettre à jour une représentation de la situation en cellule de crise. / The present work is applied to the field of French crisis management, and specifically to the crisis response phase which follows a major event, like a flood or an industrial accident. In the aftermath of the event, crisis cells are activated to prevent and deal with the consequences of the crisis. They face, in a hurry, many difficulties. The stakeholders are numerous, autonomous and heterogeneous, the coexistence of contingency plans favours contradictions and the interconnections of networks promotes cascading effects. These observations arise as the volume of data available continues to grow. They come, for example, from sensors, social media or volunteers on the crisis theatre. It is an occasion to design an information system able to collect the available data to interpret them and obtain information suited to the crisis cells. To succeed, it will have to manage the 4Vs of Big Data: the Volume, the Variety and Veracity of data and information, while following the dynamic (velocity) of the current crisis. Our literature review on the different parts of this architecture enables us to define such an information system able to (i) receive different types of events emitted from data sources both known and unknown, (ii) to use interpretation rules directly deduced from official business rules and (iii) to structure the information that will be used by the stake-holders. Its architecture is event-driven and coexists with the service oriented architecture of the software developed by the CGI laboratory. The implemented system has been tested on the scenario of a 1/100 per year flood elaborated by two French forecasting centres. The model describing the current crisis situation, deduced by the proposed information system, can be used to (i) deduce a crisis response process, (ii) to detect unexpected situations, and (iii) to update a COP suited to the decision-makers.
|
80 |
Environnement de programmation, support à l'exécution et simulateur pour machines à grand nombre de cœurs.Certner, Olivier 15 December 2010 (has links) (PDF)
L'accroissement régulier de la fréquence des micro-processeurs et des importants gains de puissance qui en avaient résulté ont pris fin en 2005. Les autres techniques matérielles d'amélioration de performance se sont largement essouflées. Les fabricants de micro-processeurs ont donc choisi d'exploiter le nombre croissant de transistors disponibles en plaçant plusieurs cœurs de processeurs sur une même puce. Dans cette thèse, nous préparons l'arrivée de processeurs multi-cœur à grand nombre de cœurs par des recherches dans trois directions. Premièrement, nous améliorons l'environnement de parallélisation CAPSULE (parallélisation conditionnelle) en lui adjoignant des primitives de synchronization de tâches robustes. Nous montrons les gains obtenus par rapport aux approches usuelles en terme de rapidité et de stabilité du temps d'exécution. Deuxièmement, nous adaptons CAPSULE à des machines à mémoire distribuée en présentant un modèle de données qui permet au système de déplacer automatiquement les données en fonction des accès effectués par les programmes. De nouveaux algorithmes répartis et locaux permettent de décider de la création effective des tâches et de leur répartition. Troisièmement, nous développons un nouveau simulateur d'évènements discrets, SiMany, qui peut prendre en charge des centaines à des milliers de cœurs. Il est plus de 100 fois plus rapide que les meilleurs simulateurs flexibles actuels. Après validation, nous montrons que SiMany permet l'exploration d'un plus large champ d'architectures ainsi que l'étude des grandes lignes du comportement des logiciels sur celles-ci.
|
Page generated in 0.0604 seconds