• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 54
  • 24
  • 5
  • Tagged with
  • 83
  • 40
  • 17
  • 16
  • 13
  • 12
  • 10
  • 10
  • 10
  • 9
  • 8
  • 8
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Effet à long terme et transférabilité d'un programme de prévention primaire du diabète de type 2 dans les quartiers vulnérables à la Réunion / Long-term effectiveness and transferability of a type 2 diabetes primary prevention program in disadvantaged neighbourhoods of Reunion island

Fianu, Adrian 07 July 2017 (has links)
Le diabète de type 2 (DT2) est une pathologie plus fréquente dans les départements d'outre-mer qu'en France métropolitaine. Ce constat serait d'autant plus vrai dans les quartiers vulnérables ultra-marins présentant une population exposée de surcroît à des déterminants sociaux qui favorisent la survenue de cette maladie, notamment l'accès réduit au système de santé. Ainsi, dans ce cadre de travail, la modification des comportements pour la réduction des facteurs de risque selon une approche de prévention primaire dans un quartier vulnérable, serait une stratégie d'action appropriée pour améliorer la santé de la population locale. Afin de tester cette hypothèse, nous avons évalué l'effet à long terme d'une intervention sur le mode de vie réalisée en 2001-2003 pour réduire le risque de DT2 par la perte de poids, chez 445 sujets non diabétiques à risque, en surpoids ou obèses, âgés de 18-40 ans, vivant dans deux quartiers vulnérables de la Réunion. Neuf ans après l'inclusion dans l'essai d'intervention, le suivi des participants montrait une diminution du niveau d'adiposité dans le groupe intervention comparativement au groupe témoin. Ces résultats suggèrent que l'initiation de modifications comportementales sur l'alimentation et l'activité physique associée aux pratiques communautaires autour de la santé et à l'amélioration de l'accès à la prévention en proximité, dans un contexte et un environnement " obésogènes ", présenteraient un bénéfice en santé à long terme. Suite à cette étude épidémiologique portant sur la validation d'un modèle de prévention primaire destiné à la population réunionnaise défavorisée, nous nous sommes intéressés à la problématique de la transférabilité de ce type d'intervention. Les interventions de santé publique sont des " boîtes noires " difficiles à décrire, à évaluer et à transférer. Elles ne peuvent être reproduites en l'état dans un nouveau contexte d'implémentation au risque de ne plus être efficaces et de ne pas savoir pourquoi. Ainsi, dans ce cadre de travail, il serait utile de dégager les processus théoriques " standardisables par fonction " potentiellement transférables de l'intervention (les fonctions clés) des activités concrètes implémentées sur le terrain dépendantes du contexte, et d'identifier les éléments contextuels signifiants pouvant modifier l'intervention. La construction du modèle fonctions clés / implémentation / contexte (FIC) et l'explicitation du modèle de causalité du programme de prévention, selon une approche rétrospective, collaborative entre porteur de projet, acteur de terrain et chercheurs de différentes disciplines, a permis de mieux décrire l'intervention étudiée, d'analyser sa transférabilité et de discuter son évaluation. Cette intervention sur le mode de vie comprenait treize fonctions clés réparties selon trois stratégies d'action visant la réduction des inégalités sociales de santé (renforcement des individus, renforcement de la communauté, amélioration des conditions de vie) et six objectifs spécifiques sous-jacents. Le modèle de causalité impliquait des déterminants individuels, méso-sociaux et environnementaux de la santé. L'analyse des modalités du transfert du programme vers un autre quartier vulnérable de la Réunion en 2004, a montré que : des fonctions clés, des modalités d'implémentation et des éléments contextuels étaient possiblement engagés dans la transférabilité de cette intervention. Un élargissement des méthodes de recherche concernant la population, les indicateurs de résultats et les analyses de données, serait nécessaire pour mieux évaluer l'impact de ce type d'intervention dans le réseau social du quartier. / Type 2 diabetes (T2D) is more prevalent in the French overseas territories than it is in mainland France. This observation is even more valid with respect to the disadvantaged neighbourhoods of overseas territories. Indeed, the population in these neighbourhoods is exposed to social determinants that favour the onset of T2D, including lower access to health care. In this context, we put forward the hypothesis that improvements in behaviour for risk factor reduction according to a primary prevention approach within a vulnerable neighbourhood constitute an appropriate strategy for ameliorating the health of the local population. In order to test this hypothesis, we evaluated the long-term effectiveness of a lifestyle intervention conducted in 2001-2003 and aimed at reducing the risk of T2D through weight loss in 445 high-risk non-diabetic overweight or obese subjects aged 18-40 years and living in two disadvantaged neighbourhoods of Reunion Island. Nine years after the inclusion in the intervention control trial, the follow-up of participants revealed a reduction in adiposity levels in the intervention group compared with the control group. This suggests that the initiation of changes in diet and physical activity combined with community health practices and improving prevention access within district present long-term health benefits in a context where "obesogenic" environmental and living conditions prevail. Following this epidemiological study focused on the validation of a primary preventive model for the vulnerable populations of Reunion Island, we examined the transferability of this type of intervention. Public health interventions constitute "black boxes" that are difficult to describe, evaluate and transfer. An intervention cannot be transferred as a whole to a new implementation context, as this could lead to a lack of reproducibility that would be impossible to explain. In this perspective, it seems useful to separate the intervention's "standardisable by function" and potentially transferable theoretical processes (the key functions) from the concrete and context-dependent activities implemented in the field, as well as to identify the significant contextual elements that may alter the intervention. The construction of the key functions/implementation/context model (FIC) and the clarification of the causality model of the prevention program - based on a retrospective collaborative approach that involved a project leader, field worker and researchers from several disciplines - enabled us to better describe the studied intervention, to analyse its transferability, and to discuss its evaluation. This lifestyle intervention was composed of thirteen key functions distributed into three action strategies aimed at reducing social inequalities (strengthening individuals, strengthening communities, improving living conditions) and six specific underlying goals. The causality model included individual, meso-social and environmental health determinants. In 2004, the program was transferred to another vulnerable neighbourhood of Reunion Island. The analysis of the program transfer shows that some of the key functions, modalities of implementation and contextual elements were potentially involved in the transferability of this intervention. A wider range of result indicators, data analyses, and population research methods may be needed to improve the evaluation of the intervention's impact in the neighbourhood's social network.
52

Implémentation sur SoC des réseaux Bayésiens pour l'état de santé et la décision dans le cadre de missions de véhicules autonomes / SoC implementation of Bayesian networks for health management and decision making for autonomous vehicles missions

Zermani, Sara 21 November 2017 (has links)
Les véhicules autonomes, tels que les drones, sont utilisés dans différents domaines d'application pour exécuter des missions simples ou complexes. D’un côté, ils opèrent généralement dans des conditions environnementales incertaines, pouvant conduire à des conséquences désastreuses pour l'humain et l'environnement. Il est donc nécessaire de surveiller continuellement l’état de santé du système afin de pouvoir détecter et localiser les défaillances, et prendre la décision en temps réel. Cette décision doit maximiser les capacités à répondre aux objectifs de la mission, tout en maintenant les exigences de sécurité. D’un autre côté, ils sont amenés à exécuter des tâches avec des demandes de calcul important sous contraintes de performance. Il est donc nécessaire de penser aux accélérateurs matériels dédiés pour décharger le processeur et répondre aux exigences de la rapidité de calcul.C’est ce que nous cherchons à démontrer dans cette thèse à double objectif. Le premier objectif consiste à définir un modèle pour l’état de santé et la décision. Pour cela, nous utilisons les réseaux Bayésiens, qui sont des modèles graphiques probabilistes efficaces pour le diagnostic et la décision sous incertitude. Nous avons proposé un modèle générique en nous basant sur une analyse de défaillance de type FMEA (Analyse des Modes de Défaillance et de leurs Effets). Cette analyse prend en compte les différentes observations sur les capteurs moniteurs et contextes d’apparition des erreurs. Le deuxième objectif était la conception et la réalisation d’accélérateurs matériels des réseaux Bayésiens d’une manière générale et plus particulièrement de nos modèles d’état de santé et de décision. N’ayant pas d’outil pour l’implémentation embarqué du calcul par réseaux Bayésiens, nous proposons tout un atelier logiciel, allant d’un réseau Bayésien graphique ou textuel jusqu’à la génération du bitstream prêt pour l’implémentation logicielle ou matérielle sur FPGA. Finalement, nous testons et validons nos implémentations sur la ZedBoard de Xilinx, incorporant un processeur ARM Cortex-A9 et un FPGA. / Autonomous vehicles, such as drones, are used in different application areas to perform simple or complex missions. On one hand, they generally operate in uncertain environmental conditions, which can lead to disastrous consequences for humans and the environment. Therefore, it is necessary to continuously monitor the health of the system in order to detect and locate failures and to be able to make the decision in real time. This decision must maximize the ability to meet the mission objectives while maintaining the security requirements. On the other hand, they are required to perform tasks with large computation demands and performance requirements. Therefore, it is necessary to think of dedicated hardware accelerators to unload the processor and to meet the requirements of a computational speed-up.This is what we tried to demonstrate in this dual objective thesis. The first objective is to define a model for the health management and decision making. To this end, we used Bayesian networks, which are efficient probabilistic graphical models for diagnosis and decision-making under uncertainty. We propose a generic model based on an FMEA (Failure Modes and Effects Analysis). This analysis takes into account the different observations on the monitors and the appearance contexts. The second objective is the design and realization of hardware accelerators for Bayesian networks in general and more particularly for our models of health management and decision-making. Having no tool for the embedded implementation of computation by Bayesian networks, we propose a software workbench covering graphical or textual Bayesian networks up to the generation of the bitstream ready for the software or hardware implementation on FPGA. Finally, we test and validate our implementations on the Xilinx ZedBoard, incorporating an ARM Cortex-A9 processor and an FPGA.
53

Optimisation de dimensionnement et de fonctionnement d’un système photovoltaïque assistant un réseau électrique intermittent pour une application résidentielle / Sizing and operation optimization of a hybrid photovoltaic-battery backup system assisting an intermittent primary energy source for a residential application

Khoury, Jawad 01 June 2016 (has links)
Le travail effectué dans cette thèse propose et évalue une solution au problème de coupure fréquente du courant électrique fourni par le réseau publique défaillant dans plusieurs pays en voie de développement. La solution consiste à installer un système de panneaux Photovoltaïques (PV) avec des batteries de stockage opérant conjointement avec le réseau. L’étude traite particu- lièrement le cas Libanais et considère une application résidentielle à consommation d’énergie élevée. La topologie du système proposé introduit des contraintes supplémentaires au fonction- nement de l’ensemble par rapport aux deux configurations classiques traitées dans la littérature, à savoir accrochage au réseau ou système autonome. L’étude vise principalement à maintenir une alimentation permanente en électricité du foyer ainsi qu’à réduire les frais du système installé tout en respectant les niveaux de confort exigés par les résidents. L’étude traite l’optimisation du système PV-Batteries, en partant du dimensionnement jusqu’au fonctionnement. Tout d’abord, sa configuration est optimisée en se basant sur une étude économique détaillée pour l’estimation des frais considérant une durée de vie de 20 ans. Le dimensionnement est formulé comme un problème d’optimisation visant la réduction du coût global du système. L’optimisation du fonctionnement du système PV-batterie vient en second lieu. Un algorithme de contrôle de charges est élaboré. Cet algorithme sert à éviter la coupure du courant électrique tout en mainte- nant des niveaux élevés de confort des habitants d’une part et en respectant les contraintes de fonctionnement du système d’autre part. La gestion des charges s’effectue à plusieurs niveaux, afin de gérer les charges prévisibles et imprévisibles. La commande développée assure la coordi- nation complète entre tous les composants de l’installation : réseau, panneaux PV, batteries de stockage et charges électriques. L’étude prouve que le contrôle des charges conçu ne se limite pas à l’optimisation du fonctionnement du système, mais contribue de même à la réduction de son coût global. Le logiciel établi est optimisé de sorte à assurer une faible consommation de mémoire et une prise de décision rapide afin de réaliser l’implémentation des codes sur des processeurs de type ARM Cortex-A9. Les résultats de simulation et d’implémentation montrent que le programme développé est générique, flexible, précis, rapide et fiable.Les résultats présentés dans cette thèse attestent que le système PV-batterie proposé est bien approprié pour remplacer le réseau public pendant les périodes de coupure du courant électrique dans une application résidentielle. De plus, ce système présente une bonne fiabilité surtout lorsqu’il est couplé avec le programme de contrôle des charges développé. / This thesis addresses the issue of intermittent primary energy source in several developing countries and considers, in particular, the case study of Lebanon. A PV-battery backup system is proposed and assessed as a replacement of the grid energy during daily power outage periods for a high energy consuming residential house. The proposed system topology introduces more critical conditions and additional constraints on the operation of the system compared to standard on-grid or standalone PV systems. The main concern is to provide permanent electricity supply to the house, reduce the resulting fees, and ensure high performance and reliability of the backup system while respecting the residents’ comfort levels. This thesis aims at thoroughly assessing the suitability of the proposed backup system by focusing on various aspects of the system. First, its configuration is optimized through the development of a detailed economic study estimating the resulting fees over its 20-year lifetime. The sizing process is formulated as an optimization problem having the sole objective of minimizing the overall cost of the system. Furthermore, a detailed comparative study of various water heating techniques is conducted to the end of determining the most suitable configuration to be coupled with the proposed backup solution. Second, the thesis targets the operation optimization of the PV-battery system by implementing a Demand Side Management (DSM) program aiming at preventing the occurrence of loss of power supply to the house while maintaining high comfort levels to the inhabitants and respecting the operation constraints of the system. The control is divided into several layers in order to manage predictable and unpredictable home appliances. The strength of the developed control lies in ensuring the complete coordination between all the components of the installation: the grid, PV panels, battery storage, and the load demand. The benefits of the DSM are proven to go beyond the operation optimization of the system since they highly affect the sizing of the backup, and by extension, the overall resulting cost. The established program is optimized for the hardware implementation process by ensuring a low memory consumption and fast decision making. The developed C codes of the full DSM program are implemented on ARM Cortex-A9 processors. The simulation and implementation results show that the developed management program is highly generic, flexible, accurate, fast, and reliable.The results presented in this thesis validate that the proposed PV-Battery backup system is highly suitable to assist unreliable grids. It outperforms currently installed Diesel Generators and demonstrates a remarkable reliability especially when coupled with the developed DSM program.
54

Résolution du problème du p-médian, application à la restructuration de bases de données semi-structurées / Resolution of the p-median problem : application to restructuring semi-structured data

Gay, Jean-Christophe 19 October 2011 (has links)
Les problèmes que nous considérons dans cette thèse sont de nature combinatoire. Notre principal intérêt est le problème de restructuration de données semi-structurées. Par exemple des données stockées sous la forme d’un fichier XML sont des données semi-structurées. Ce problème peut être ramené à une instance du problème du p-médian. Le principal obstacle ici est la taille des instances qui peut devenir très grande. Certaines instances peuvent avoir jusqu’à 10000 ou 20000 sommets, ce qui implique plusieurs centaines de millions de variables. Pour ces instances, résoudre ne serait-ce que la relaxation linéaire du problème est très difficile. Lors d’expériences préliminaires nous nous sommes rendu compte que CPLEX peut résoudre des instances avec 1000 sommets dans des temps raisonnables. Mais pour des instances de 5000 sommets, il peut prendre jusqu’à 14 jours pour résoudre uniquement la relaxation linéaire. Pour ces raisons nous ne pouvons utiliser de méthodes qui considère la résolution de la relaxation linéaire comme une opération de base, comme par exemple les méthodes de coupes et de branchements. Au lieu d’utiliser CPLEX nous utilisons une implémentation parallèle (utilisant 32 processeurs) de l’algorithme du Volume. L’instance pour laquelle CPLEX demande 14 heures est résolue en 24 minutes par l’implémentation séquentielle et en 10 minutes par l’implémentation parallèle de l’algorithme du Volume. La solution de la relaxation linéaire est utilisée pour construire une solution réalisable, grâce à l’application d’une heuristique de construction gloutonne puis d’une recherche locale. Nous obtenons des résultats comparables aux résultats obtenus par les meilleures heuristiques connues à ce jour, qui utilisent beaucoup plus de mémoire et réalisent beaucoup plus d’opérations. La mémoire est importante dans notre cas, puisque nous travaillons sur des données de très grandes tailles. Nous étudions le dominant du polytope associé au problème du p-médian. Nous discutons de sa relaxation linéaire ainsi que de sa caractérisation polyédrale. Enfin, nous considérons une version plus réaliste du problème de restructuration de données semi-structurées. Grosso modo, nous ajoutons au problème du p-médian original des nouveaux sommets s’ils aident à réduire le coût global des affectations. / The problems we consider in this thesis are of combinatorial nature. Our main interest is the problem of approximating typing of a semistructured data. For example XML is a semistructured data. This problem may be reduced to an instance of the p-median problem. The main obstacle here is the size of the instances that may be very huge, about 10000 and 20000 nodes which imply several hundreds of million variables. For these instances, even solving the linear relaxation is a hard task. In some preliminary results we noticed that Cplex may solve instances of size 1000 in an acceptable time. But for some instances having 5000 nodes, it may needs 14 days for solving only the linear relaxation. Therefore, we cannot use methods that consider the linear relaxation as an elementary operation, as for example branch-and-cut methods. Instead of using Cplex we use the Volume algorithm in a parallel implementation (32 processors).For the instance where the Cplex needs 14 hours, the Volume algorithm in sequential implementation needs 24 minutes and in parallel implementation it needs 10 minutes. The solution of the linear relaxation is used to produce a feasible solution by first applying a greedy and then a local search heuristic. We notice that the results we obtain are relatively the same as those given by the best method known up today, which produces more effort and consumes more memory. Memory is important in our case since the data we consider are huge. We study the dominant of the polytope associated with the p-median problem. We discuss linear relaxation and a polyhedral characterization. Finally, we consider a more realistic version of the p-median problem when applied to the problem of approximating typing of a semistructured data. Roughly speaking, we add new nodes to the underlying graph if this help to reduce the overall cost.
55

Contribution to the implementation of a process control system for continuous powder mixing / Contribution à l'implémentation d'un système de contrôle-commande pour mélange de poudres en continu

Zhao, Xiaojuan 26 November 2013 (has links)
Le mélange de poudres est une opération essentielle dans divers domaines industriels, tels que les produits pharmaceutiques, agro-alimentaires, ciments, etc. Le mélange de poudres en continu, comme alternative intéressante au mélange conventionnel en batch, suscite beaucoup d'intérêt surtout en raison de sa capacité à gérer de grands volumes de production. Ce travail vise à contribuer à l'implémentation des applications de contrôle-commande. Avant de développer des stratégies de contrôle-commande, de nouveaux développements ont été présentés pour mieux comprendre le mélange continu de deux composants. La masse retenue et la répartition relative de la masse retenue de chaque composant dans le mélangeur ont été étudiées et prédites sous les différentes conditions opératoires. L'amélioration d'un modèle basé sur les chaînes de Markov a été finalement présentée pour prédire la concentration moyenne des mélanges obtenus à la sortie du mélangeur. L'implémentation d'un contrôleur PID a été expérimentalement réalisée comme une première tentative pour contrôler en temps réel l'homogénéité du mélange produit. La vitesse de rotation du mobile d'agitation, identifiée comme un facteur important influençant l'efficacité du mixer, a été considérée comme la variable manipulée. La commande en boucle fermée est basée, soit sur la concentration moyenne, soit sur le coefficient de variation. Les performances des boucles fermées proposées ont été évaluées pour le mélange continu subi à des changements d'échelon dans les débits d'alimentation du mélangeur. Quatre études de cas ont été définies et présentées. Le défi principal dans le système de contrôle-commande est le réglage des paramètres PID. La performance de commande en boucle fermée soit de la concentration moyenne, soit du coefficient de variation a été comparée à l'opération en boucle ouverte. / Powder mixing is an essential operation in various industrial fields, such as pharmaceuticals, agro-food, cements, etc. Continuous powder mixing, as an alternative to conventional batch mixing, has attracted a lot of interest mainly due to its capacity in handling high volume manufacturing. This work aims at the contribution to the implementation of process control applications for powder mixing in a pilot-scale continuous mixer. Prior to developing process control strategies, new developments have been presented for better understanding continuous mixing of two components. Hold-up weight and relative hold-up weight distribution of each component in the whole mixer have been experimentally investigated under different operating conditions. An improved Markov chain model has been finally presented to predict the mean concentration of the mixtures obtained at the mixer's outlet. The implementation of a proportional-integral-derivative (PID) controller has been experimentally performed as an initial attempt to real-time control the homogeneity of the mixture produced. The rotational speed of the stirrer, identified as an important deciding factor towards the mixer's efficiency, has been considered as the manipulated variable. The closed-loop control is based on either the mean concentration or the relative standard deviation. The performances of the proposed closed-loops have been evaluated for continuous mixing subjected to step changes in feed rates of the mixer. Four case studies have been defined and presented. The main challenge in the process control system is the tuning of PID parameters. The performance of closed-loop control of either the mean concentration or the relative standard deviation has been compared to open-loop operation.
56

Implémentation optimale de filtres linéaires en arithmétique virgule fixe / Optimal implementation of linear filters in fixed-point arithmetic

Lopez, Benoit 27 November 2014 (has links)
De nombreux systèmes embarqués implémentent des applications de traitement du signal, notamment lors de communications. Certains de ces traitements sont effectués par des filtres linéaires, qu'il est donc nécessaire de mettre en oeuvre numériquement sur ces cibles. Les systèmes embarqués sont sujets à diverses contraintes qu'il faut optimiser tout en conservant des systèmes fiables en terme de performance et de précision. L'arithmétique virgule fixe est généralement préférée à l'arithmétique flottante pour des systèmes embarqués de traitement du signal, entre autres car elle est moins coûteuse, disponibles dans tous les systèmes, permet d'utiliser des largeurs arbitraires sur des cibles matérielles et est généralement suffisante en terme de précision pour les applications de traitement du signal. Le calcul en virgule fixe nécessite d'aligner les positions des virgules pour ainsi rendre cohérent des calculs à base de nombres entiers. Cela implique des quantifications et l'enjeu est donc de minimiser la répercussion de ces arrondis sur le résultat final, en proposant une garantie sur l'erreur sur la sortie. Une méthodologie a été proposée durant cette thèse qui, à partir d'un algorithme de filtre linéaire, utilise une méthode analytique pour implémenter cet algorithme en virgule fixe et générer du code. Cette méthodologie considère à la fois les implémentations logicielles, et les implémentations matérielles qui impliquent la résolution d'un problème d'optimisation. Un outil, nommé FiPoGen, a été développé pour mettre en oeuvre les méthodes proposées et fournir automatiquement un code virgule fixe implémentant un filtre donné avec garantie sur l'erreur sur la sortie. / Embedded systems implement signal processing systems, such as linear filters, for example for communication through networks. These devices are subject to various constraints, such as power consumption, time-To-Market, area consumption, and so on, that is necessary to optimize while guaranteeing reliability and accuracy of the implemented systems. Fixed-Point arithmetic is generally used instead of floating-Point arithmetic for signal processing embedded systems because it is less expensive, all devices support fixed-Point numbers (as they are implemented only using integers), allows arbitrary word-Lengths in hardware implementation and is enough accurate for signal processing programs. Fixed-Point computations need the operands of an operation to be aligned together with the same position of the binary point. This leads to quantification errors and the goal is to minimize these round-Off effects onto the final result, by proposing a guarantee on the output error. During this thesis, a methodology has been proposed which implements a given algorithm in fixed-Point using analytical approach, and generates some codes. This methodology consider both software and hardware targets. The hardware approach is realized solving a word-Length optimization problem. A tool, named FiPoGen, has been developed that realizes this methodology and automatically yields fixed-Point code corresponding to a given filter algorithm with a guarantee on the output error.
57

Une étude de l’écosystème TLS / A study of the TLS ecosystem

Levillain, Olivier 23 September 2016 (has links)
SSL/TLS, un protocole de sécurité datant de 1995, est devenu aujourd'hui une brique essentielle pour la sécurité des communications, depuis les sites de commerce en ligne ou les réseaux sociaux jusqu'aux réseaux privés virtuels (VPN), en passant par la protection des protocoles de messagerie électronique, et de nombreux autres protocoles. Ces dernières années, SSL/TLS a été l'objet de toutes les attentions, menant à la découverte de nombreuses failles de sécurité et à des améliorations du protocole. Dans cette thèse, nous commençons par explorer l'écosystème SSL/TLS sur Internet en énumérant les serveurs HTTPS sur l'espace IPv4; nous proposons pour cela des méthodologies de collecte et d'analyse permettant d'obtenir des résultats reproductibles et comparables entre différentes campagnes de mesure. Au-delà de ces observations, nous nous sommes intéressés en détail à deux aspects essentiels de la sécurité TLS: comment parer les attaques sur le Record Protocol, et comment implémenter des parsers sûrs et efficaces. Finalement, en se basant sur les nombreuses failles d'implémentation qui ont affecté presque toutes les piles TLS ces dernières années, nous tirons quelques enseignements concernant les difficultés liées à l'écriture d'une bibliothèque TLS de confiance / SSL/TLS, a 20-year old security protocol, has become a major component securing network communications, from HTTPS e-commerce and social network sites to Virtual Private Networks, from e-mail protocols to virtually every possible protocol. In the recent years, SSL/TLS has received a lot of attentions, leading to the discovery of many security vulnerabilities, and to protocol improvements. In this thesis, we first explore the SSL/TLS ecosystem at large using IPv4 HTTPS scans, while proposing collection and analysis methodologies to obtain reproducible and comparable results across different measurement campaigns. Beyond these observations, we focused on two key aspects of TLS security: how to mitigate Record Protocol attacks, and how to write safe and efficient parsers. Finally, building on the numerous implementation flaws in almost all TLS stacks in the last years, we propose some thoughts about the challenges in writing a secure TLS library
58

Gradient-damage modeling of dynamic brittle fracture : variational principles and numerical simulations / Analyse de la rupture dynamique fragile via les modèles d'endommagement à gradient : principes variationnels et simulations numériques

Li, Tianyi 06 October 2016 (has links)
Une bonne tenue mécanique des structures du génie civil en béton armé sous chargements dynamiques sévères est primordiale pour la sécurité et nécessite une évaluation précise de leur comportement en présence de propagation dynamique de fissures. Dans ce travail, on se focalise sur la modélisation constitutive du béton assimilé à un matériau élastique-fragile endommageable. La localisation des déformations sera régie par un modèle d'endommagement à gradient où un champ scalaire réalise une description régularisée des phénomènes de rupture dynamique. La contribution de cette étude est à la fois théorique et numérique. On propose une formulation variationnelle des modèles d'endommagement à gradient en dynamique. Une définition rigoureuse de plusieurs taux de restitution d'énergie dans le modèle d'endommagement est donnée et on démontre que la propagation dynamique de fissures est régie par un critère de Griffith généralisé. On décrit ensuite une implémentation numérique efficace basée sur une discrétisation par éléments finis standards en espace et la méthode de Newmark en temps dans un cadre de calcul parallèle. Les résultats de simulation de plusieurs problèmes modèles sont discutés d'un point de vue numérique et physique. Les lois constitutives d'endommagement et les formulations d'asymétrie en traction et compression sont comparées par rapport à leur aptitude à modéliser la rupture fragile. Les propriétés spécifiques du modèle d'endommagement à gradient en dynamique sont analysées pour différentes phases de l'évolution de fissures : nucléation, initiation, propagation, arrêt, branchement et bifurcation. Des comparaisons avec les résultats expérimentaux sont aussi réalisées afin de valider le modèle et proposer des axes d'amélioration. / In civil engineering, mechanical integrity of the reinforced concrete structures under severe transient dynamic loading conditions is of paramount importance for safety and calls for an accurate assessment of structural behaviors in presence of dynamic crack propagation. In this work, we focus on the constitutive modeling of concrete regarded as an elastic-damage brittle material. The strain localization evolution is governed by a gradient-damage approach where a scalar field achieves a smeared description of dynamic fracture phenomena. The contribution of the present work is both theoretical and numerical. We propose a variationally consistent formulation of dynamic gradient damage models. A formal definition of several energy release rate concepts in the gradient damage model is given and we show that the dynamic crack tip equation of motion is governed by a generalized Griffith criterion. We then give an efficient numerical implementation of the model based on a standard finite-element spatial discretization and the Newmark time-stepping methods in a parallel computing framework. Simulation results of several problems are discussed both from a computational and physical point of view. Different damage constitutive laws and tension-compression asymmetry formulations are compared with respect to their aptitude to approximate brittle fracture. Specific properties of the dynamic gradient damage model are investigated for different phases of the crack evolution: nucleation, initiation, propagation, arrest, kinking and branching. Comparisons with experimental results are also performed in order to validate the model and indicate its further improvement.
59

Extrapolation vectorielle et applications aux équations aux dérivées partielles

Duminil, Sébastien 06 July 2012 (has links) (PDF)
Nous nous intéressons, dans cette thèse, à l'étude des méthodes d'extrapolation polynômiales et à l'application de ces méthodes dans l'accélération de méthodes de points fixes pour des problèmes donnés. L'avantage de ces méthodes d'extrapolation est qu'elles utilisent uniquement une suite de vecteurs qui n'est pas forcément convergente, ou qui converge très lentement pour créer une nouvelle suite pouvant admettreune convergence quadratique. Le développement de méthodes cycliques permet, deplus, de limiter le coût de calculs et de stockage. Nous appliquons ces méthodes à la résolution des équations de Navier-Stokes stationnaires et incompressibles, à la résolution de la formulation Kohn-Sham de l'équation de Schrödinger et à la résolution d'équations elliptiques utilisant des méthodes multigrilles. Dans tous les cas, l'efficacité des méthodes d'extrapolation a été montrée.Nous montrons que lorsqu'elles sont appliquées à la résolution de systèmes linéaires, les méthodes d'extrapolation sont comparables aux méthodes de sous espaces de Krylov. En particulier, nous montrons l'équivalence entre la méthode MMPE et CMRH. Nous nous intéressons enfin, à la parallélisation de la méthode CMRH sur des processeurs à mémoire distribuée et à la recherche de préconditionneurs efficaces pour cette même méthode.
60

Simulateur matériel à événements discrets de réseaux de neurones à décharges avec application en traitement d’images

Séguin-Godin, Guillaume January 2016 (has links)
L’utilisation de réseaux de neurones artificiels pour divers types de traitements d’information bio-inspirés est une technique de plus en plus répandue dans le domaine de l’intelligence artificielle. Leur fonctionnement diffère avantageusement de celui des ordinateurs conventionnels en permettant une plus grande parallélisation des calculs, ce qui explique pourquoi autant d’efforts sont déployés afin de réaliser une plate-forme matérielle dédiée à leur simulation. Pour ce projet, une architecture matérielle flexible simulant efficacement un réseau de neurones à décharges est présentée. Celle-ci se distingue des architectures existantes notamment parce qu’elle utilise une approche de simulation à événements discrets et parce qu’elle permet une détection efficace des événements simultanés. Ces caractéristiques en font une plate-forme de choix pour la simulation de réseaux de neurones à décharges de plus de 100 000 neurones où un niveau important de synchronie des décharges neuronales est atteint. Afin d’en démontrer les performances, une application en traitement d’images utilisant cette architecture a été réalisée sur FPGA. Cette application a permis de démontrer que la structure proposée pouvait simuler jusqu’à 2[indice supérieur 17] neurones et traiter des dizaines de millions d’événements par secondes lorsque cadencé à 100 MHz.

Page generated in 0.1319 seconds