• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 7
  • Tagged with
  • 28
  • 28
  • 12
  • 9
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Contribution à l'étude de la stabilité des systèmes linéaires

Pouget, Gilles January 1968 (has links)
Étant donné un processus physique linéaire dont nous connaissons les équations d'évolution nous pouvons décrire son évolution par un certain nombre d'équations différentielles linéaires. Cette forme mathématique est souvent inexploitable, c'est pourquoi l'on préfère mettre le système sous forme d'équations d'états ou de fonction de transfert ; si le système est à commande échantillonnée on adopte une formulation matricielle dans l'espace d'état. L'une ou l'autre de ces formulations sont équivalentes et le choix ne dépend que des conclusions qui doivent être tirées sur l'évolution du système soumis à une certaine commande. Tout système, quelles que soient ses performances, est inutilisable s'il est instable ou s'il ne peut pas être stabilisé par adjonction d'un correcteur d'où l'importance primordiale d'une étude de stabilité. 11 existe un très grand nombre de méthodes d'étude de la stabilité des systèmes linéaires ; citons pour mémoire la méthode de Routh-hurwitz, les critères de Bode et de Nyquist ... Ces méthodes conviennent parfaitement pour des systèmes d'ordre peu élevé mais deviennent inexploitables, sans calculateur, pour des systèmes plus complexes. Le but de l'étude qui va suivre est de choisir un critère de stabilité s'adaptant au calcul numérique à partir duquel nous élaborerons divers programmes permettant de conclure sur la stabilité des systèmes (jusqu'à l'ordre 14) quelle que soit leur formulation ; rappelons qu'un système peut se mettre sous forme d'équations d'état, de fonction de transfert, d'équations différentielles.
2

Distributed sensor fault detection and isolation over wireless sensor network

Jingjing, Hao 07 July 2017 (has links)
Wireless sensor networks (WSNs) can provide new methods for information gathering for a variety of applications. In order to ensure the network quality of service, the quality of the measurements has to be guaranteed. Distributed fault detection and isolation schemes are preferred to centralized solutions to diagnose faulty sensors in WSNs. Indeed the first approach avoids the need for a central node that collects information from every sensor node, and hence it limits complexity and energy cost while improving reliability.In the case of state estimation over distributed architectures, the sensor faults can be propagated in the network during the information exchanging process. To build a reliable state estimate one has to make sure that the measurements issued by the different sensors are fault free. That is one of the motivations to build a distributed fault detection and isolation (FDI) system that generates an alarm as soon as a measurement is subject to a fault (has drift, cdots ). In order to diagnose faults with small magnitude in wireless sensor networks, a systematic methodology to design and implement a distributed FDI system is proposed. It resorts to distinguishability measures to indicate the performance of the FDI system and to select the most suitable node(s) for information exchange in the network with a view to FDI. It allows one to determine the minimum amount of data to be exchanged between the different nodes for a given FDI performance. In this way, the specifications for FDI can be achieved while the communication and computation cost are kept as small as possible. The distributed FDI systems are designed both in deterministic and stochastic frameworks. They are based on the parity space approach that exploits spacial redundancy as well as temporal redundancy in the context of distributed schemes. The decision systems with the deterministic method and the stochastic method are designed not only to detect a fault but also to distinguish which fault is occurring in the network. A case study with a WSN is conducted to verify the proposed method. The network is used to monitor the temperature and humidity in a computer room. The distributed FDI system is validated both with simulated data and recorded data. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
3

Mécanisme de contrôle du flot d'information dans un programme : approche par typage trivalué

Kanyabwero, Erwanne Paméla January 2013 (has links)
Ce mémoire présente un mécanisme d’application de politiques de sécurité grâce à une analyse de types trivaluée sur un langage impératif. Notre analyse a pour but de réduire les faux positifs générés par l’analyse statique, tout en préparant les programmes analysés à être instrumentés. Les faux positifs se produisent dans l’analyse de systèmes informatiques à temps réel quand il manque de l’information au moment de la compilation, par exemple un nom de fichier, et par conséquent, son niveau de sécurité. Notre approche visant à répondre à la question « Y a-t’il violation de la propriété de non-interférence dans le programme ? », l’idée clé est de distinguer les réponses négatives des réponses incertaines. Au lieu de rejeter le programme systématiquement en cas d’incertitude, nous typons les instructions avec un type additionnel, unknown, indiquant l’incertitude. Notre travail est fait en préparation à un mécanisme d’application hybride, combinant l’analyse statique par l’analyse de types et l’analyse dynamique par l’instrumentation de code. Durant l’étape d’analyse statique, les réponses positives et négatives sont traitées de manière standard, tandis que les réponses incertaines sont clairement annotées du type incertain, préparant ainsi pour un éventuel passage à la deuxième étape : l’instrumentation. Une preuve que notre système de types est cohérent est donnée, ceci en montrant qu’il satisfait la non-interférence. Les programmes interagissent à travers les canaux de communication. Notre contribution réside dans la manipulation de trois types de sécurité, mais aussi dans le traitement des variables et canaux de communication de manière particulière. Les niveaux de sécurité sont associés aux canaux plutôt qu’aux variables dont les niveaux de sécurité varient selon l’information qu’elles contiennent.
4

Combinaison d'approche statique et dynamique pour l'application de politiques de sécurité

Godonou, Théophane Gloria 20 April 2018 (has links)
Ce mémoire présente une approche d'application de politiques de sécurité qui utilise une analyse de types basée sur un système de types multi-valeurs. Cette analyse est suivie d'une instrumentation lorsque nécessaire. Le langage cible est un langage impératif. Notre approche vise à réduire les faux-positifs générés par une analyse statique, et à réduire la surcharge d'exécution en n'instrumentant que lorsque nécessaire. Les faux-positifs surviennent dans l'analyse de systèmes informatiques lorsqu'une information est manquante durant la compilation, par exemple le nom d'un fichier, et par conséquent, son niveau de sécurité. L'idée principale de notre approche est de distinguer les réponses négatives des réponses incertaines. Au lieu de rejeter les commandes potentiellement non sécuritaires, elles sont identifiées et étiquetées pour la seconde phase de l'analyse. Les réponses négatives et positives sont traitées comme cela se fait d'habitude. Ce travail est une approche hybride d'application de politique de sécurité : les points potentiellement sécuritaires du programme détectés par notre analyse par typage sont instrumentés par la suite avec des tests dynamiques. Le système de typage sur lequel se base le nôtre a été présenté par Desharnais et al. [12]. Notre approche a été acceptée pour publication [7]. Dans ce travail nous présentons les modifications apportées au précédent travail et la phase d'instrumentation qui la complète. La nouveauté de notre approche est de rajouter un niveau de sécurité aux trois du travail précédent. Nous traitons les canaux et les variables de façon spéciale. Les programmes interagissent par le biais de canaux de communication. Des niveaux de confidentialité sont associés aux canaux plutôt qu'aux variables dont le niveau de sécurité est fonction de l'information qu'elles stockent. Notre analyse est sensible au flot. / In this Master thesis, we present an approach to enforce information flow policies using a multi-valued type-based analysis followed by an instrumentation when needed. The target is a core imperative language. Our approach aims at reducing false positives generated by static analysis, and at reducing execution overhead by instrumenting only when needed. False positives arise in the analysis of real computing systems when some information is missing at compile time, for example the name of a file, and consequently, its security level. The key idea of our approach is to distinguish between negative and may responses. Instead of rejecting the possibly faulty commands, they are identified and annotated for the second step of the analysis; the positive and negative responses are treated as is usually done. This work is a hybrid security enforcement mechanism: the maybe-secure points of the program detected by our type based analysis are instrumented with dynamic tests. The basic type based analysis has been reported by Desharnais et al. [12], this work deals with the modification of the type system and the instrumentation step. It has been accepted for publication [7]. The novelty of our approach is the handling of four security types, but we also treat variables and channels in a special way. Programs interact via communication channels. Secrecy levels are associated to channels rather than to variables whose security levels change according to the information they store. Thus the analysis is flow-sensitive.
5

Application de l'analyse modale à la dynamique des systèmes pour améliorer la performance des firmes

Diallo, Amadou 24 March 2024 (has links)
« Thèse présentée à l'École des gradués de l'Université Laval pour l'obtention du grade de philosophiæ doctor (Ph. D.) » / « Ayant mis en évidence les faiblesses analytiques de la dynamique des systèmes, notre recherche se préoccupera d'abord de modifier le modèle de dynamique des système pour pouvoir exploiter les outils puissants du Contrôle Automatique. Comme nous le verrons, cette modification consistera à procéder à une approximation linéaire du modèle initial de dynamique des systèmes qui est non linéaire. Dans cet effort, nous éviterons la méthode de transformation utilisée par les tenants du Contrôle Automatique (Appiah et Coyle 1983, Mohpatra et Sharma 1983) ; elle nous éloigne de ce qui est le langage par excellence de la dynamique des systèmes: DYNAMO; et surtout, elle est impuissante devant les modèles de grande taille. Nous partirons des principes de linéarisation, pour y procéder directement avec DYNAMO (on y arriverait avec n'importe quelle version de DYNAMO) sans recourir comme N. B. Forrester à un logiciel supplémentaire, DYNASTAT ou autre. Après avoir mis au point un instrument de linéarisation, la thèse montrera comment les gestionnaires peuvent recourir à l'analyse modale pour comprendre la nature et l'ampleur des forces dynamiques présentes au sein de leur entreprise. Pour cela, elle s'appuyera sur la correspondance existant entre la stabilité intrinsèque d'un système et les valeurs propres de son modèle linéaire. En troisième lieu, la thèse fournira une procédure de modification des forces dynamiques pour stabiliser et ajuster les divers secteurs de l'entreprise. La stabilisation consiste à identifier et changer les politiques qui causent l'instabilité. L'ajustement n'intervient qu'après la stabilisation; il consiste à identifier et à renforcer les politiques qui augmentent la stabilité. Basée sur les valeurs propres et l'analyse de leur sensibilité, cette procédure se révélera être un excellent moyen de mettre en évidence les effets réels des politiques suivies dans l'entreprise et d'évaluer l'opportunité de renforcer, atténuer ou éliminer ces politiques par des mesures appropriées. Enfin, elle donne une méthode d'implantation, dans le réel, des suggestions issues de l'analyse modale. L'application sera faite sur le modèle bien connu de Lyneis. Cela permettra d'identifier les sous-systèmes constitutifs du modèle global: leur nature, leur taille et leur mode d'interaction. Le degré d'intégration des différents secteurs de l'entreprise telle que modélisée par Lyneis apparaîtra avec plus de netteté. Nous nous servirons de la procédure développée dans cette thèse pour dégager les mesures et transformations nécessaires à la stabilisation accrue de chaque secteur. Il en résultera une meilleure performance. »--Pages 10-12
6

Advances in secure remote electronic voting

Dossogne, Jérôme 30 October 2015 (has links)
In this document, most readers should be easily introduced to the challengesoffered to a designer, an implementer and a user when using electronic voting.Some of these challenges are receiving an answer in the second part of thedocument where we introduce and describe several distinct scientific resultsobtained during our years as PhD student covering essentially the years 2009 to2011 included. All these results are aimed towards either better understandingthe issues of electronic voting or solving them. Nonetheless, a reader might beinterested in picking one of these contributions to use for his own electronicvoting system while leaving the rest. That is, the different chapters of thesecond part of the document are able to stand on their own most of the timeand could be used without the others which leads us to introduce each of themseparately.After concluding in the third part, we provide a certain amount of appendicesthat were not thoroughly discussed within the second part of the documentbut that might be of interest to the reader. These appendices are made ofvarious researches, collaborations and analyzes that we performed during thosesame years and which are related to electronic voting. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
7

Requirement-driven Design and Optimization of Data-Intensive Flows

Jovanovic, Petar 26 September 2016 (has links)
Data have become number one assets of today's business world. Thus, its exploitation and analysis attracted the attention of people from different fields and having different technical backgrounds. Data-intensive flows are central processes in today’s business intelligence (BI) systems, deploying different technologies to deliver data, from a multitude of data sources, in user-preferred and analysis-ready formats. However, designing and optimizing such data flows, to satisfy both users' information needs and agreed quality standards, have been known as a burdensome task, typically left to the manual efforts of a BI system designer. These tasks have become even more challenging for next generation BI systems, where data flows typically need to combine data from in-house transactional storages, and data coming from external sources, in a variety of formats (e.g. social media, governmental data, news feeds). Moreover, for making an impact to business outcomes, data flows are expected to answer unanticipated analytical needs of a broader set of business users' and deliver valuable information in near real-time (i.e. at the right time). These challenges largely indicate a need for boosting the automation of the design and optimization of data-intensive flows. This PhD thesis aims at providing automatable means for managing the lifecycle of data-intensive flows. The study primarily analyzes the remaining challenges to be solved in the field of data-intensive flows, by performing a survey of current literature, and envisioning an architecture for managing the lifecycle of data-intensive flows. Following the proposed architecture, we further focus on providing automatic techniques for covering different phases of the data-intensive flows' lifecycle. In particular, the thesis first proposes an approach (CoAl) for incremental design of data-intensive flows, by means of multi-flow consolidation. CoAl not only facilitates the maintenance of data flow designs in front of changing information needs, but also supports the multi-flow optimization of data-intensive flows, by maximizing their reuse. Next, in the data warehousing (DW) context, we propose a complementary method (ORE) for incremental design of the target DW schema, along with systematically tracing the evolution metadata, which can further facilitate the design of back-end data-intensive flows (i.e. ETL processes). The thesis then studies the problem of implementing data-intensive flows into deployable formats of different execution engines, and proposes the BabbleFlow system for translating logical data-intensive flows into executable formats, spanning single or multiple execution engines. Lastly, the thesis focuses on managing the execution of data-intensive flows on distributed data processing platforms, and to this end, proposes an algorithm (H-WorD) for supporting the scheduling of data-intensive flows by workload-driven redistribution of data in computing clusters. The overall outcome of this thesis an end-to-end platform for managing the lifecycle of data-intensive flows, called Quarry. The techniques proposed in this thesis, plugged to the Quarry platform, largely facilitate the manual efforts, and assist users of different technical skills in their analytical tasks. Finally, the results of this thesis largely contribute to the field of data-intensive flows in today's BI systems, and advocate for further attention by both academia and industry to the problems of design and optimization of data-intensive flows. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
8

Design d'expérimentation interactif : aide à la compréhension de systèmes complexes

De Rainville, François-Michel January 2010 (has links)
Ce mémoire propose des outils de design d'expérimentations ayant pour but d'aider un analyste dans son investigation d'un système complexe. Les méthodes présentées se divisent en trois groupes, l'exploration, l'optimisation et l'approximation. Les trois ensembles répondent chacun à un besoin particulier lors de l'analyse de système complexe. L'exploration permet de disperser uniformément une collection d'expériences dans l'espace des paramètres du problème. L'optimisation, pour sa part, donne la possibilité de trouver les combinaisons de paramètres optimales du problème. L'approximation, quant à elle, octroie la possibilité d'estimer le résultat de combinaisons de facteurs dont la réponse est inconnue ou difficile à obtenir. Mises ensemble, ces méthodes forment le design d'expérimentation interactif. Elles permettent à un analyste d'obtenir, par le biais de méthodes éprouvées, une information détaillée sur le système étudié.
9

Étude systémique de l'évolution culturelle de l'apprenant et du système éducatif primaire en Côte-d'Ivoire

Guelade, Firmin Kpai 25 April 2018 (has links)
Québec Université Laval, Bibliothèque 2015
10

La structure communautaire comme paradigme d'organisation des réseaux complexes

Hébert-Dufresne, Laurent 18 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2011-2012 / La caractérisation des propriétés universelles des systèmes complexes aide à comprendre comment leurs éléments sont distribués et connectés, pourquoi il en est ainsi et quelles en sont les conséquences. Dans les réseaux complexes, ces propriétés incluent l'organisation indépendente d'échelle, la propriété du small-world, la modularité et Y auto-similarité. Par contre, aucun mécanisme connu n'explique l'émergence de toutes ces propriétés. On développe ici un nouveau modèle d'organisation qui considère les communautés, plutôt que les éléments de base ou les liens qu'ils partagent, comme les blocs fondamentaux des systèmes complexes. On conclut que les propriétés mentionnées précédemment sont unifiées dans une structure communautaire indépendente d'échelle. Comme preuve empirique de notre attachement préférentiel structurel, nous examinons des réseaux sociaux (collaborations entre scientifiques et entre acteurs) et d'information (l'Internet) et sommes capables de reproduire leurs distributions en éléments par communauté et communautés par élément. De plus, notre modèle permet de prédire comment les structures et les éléments sont interconnectés, souvent de manière auto-similaire, en plus d'offrir de bons indices quant à l'évolution temporelle de ces systèmes. Nous utilisons la structure communautaire indépendente d'échelle comme nouveau paradigme d'organisation et étudions ces effets sur les phénomènes propagatoires sur réseaux complexes. Ici, une analyse par champs moyens est utilisée pour coupler de façon cohérente la dynamique des éléments du réseau et la dynamique des motifs récurrents dans leur topologie. Pour un modèle d'épidémie sur réseaux sociaux, cette approche procure un système d'EDOs pour l'évolution temporelle, en plus de solutions analytiques pour le seuil épidémique et la prévalence à l'équilibre. Dans le cadre de cette application, nous évaluons comment notre compréhension de la structure d'un réseau nous aide à contrôler sa dynamique. À la lumière de nos analyses, nous postulons ensuite un nouveau paradigme pour la description de Y organisation des réseaux complexes.

Page generated in 0.3783 seconds