• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 97
  • 33
  • 11
  • 1
  • Tagged with
  • 142
  • 46
  • 42
  • 26
  • 22
  • 22
  • 22
  • 22
  • 21
  • 20
  • 20
  • 16
  • 14
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Implémentation rigoureuse des systèmes temps-réels / Rigorous Implementation of Real-Time Systems

Abdellatif, Tesnim 05 June 2012 (has links)
Les systèmes temps-réels sont des systèmes qui sont soumis à "des contraintes de temps", comme par exemple le délais de réponse d'un système à un événement physique. Souvent les temps de réponse sont de l'ordre du milliseconde et parfois même du microseconde. Construire des systèmes temps-réels nécessite l'utilisation de méthodologies de conception et de mise en œuvre qui garantissent la propriété de respect des contraintes de temps, par exemple un système doit réagir dans les limites définies par l'utilisateur tels que les délais et la périodicité. Un délai non respecté dans systèmes temps-réel critique est catastrophique, comme par exemple dans les systèmes automobiles. Si un airbag se déclanche tard dans un accident de voiture, même quelques millisecondes trop tard peuvent conduire à des répercussions graves. Dans les systèmes temps-réels non critiques, une perte significative de performance et de QoS peuvent se produire, comme par exemple dans les réseaux de systèmes multimédia. Contribution: Nous fournissons une méthode de conception rigoureuse des systèmes temps-réel. L'implèmentation est générée à partir d'une application logicielle temps-réel et une plate-forme cible, en utilisant les deux modèles suivants: * Un modèle abstrait représentant le comportement de l'application logicielle en temps réel sous forme d' un automate temporisé. Celui-ci décrit des contraintes temporelles définies par l'utilisateur qui sont indépendantes de la plateforme. Ses transitions sont intemporelles et correspondent à l'exécution des différentes instructions de l'application. * Un modèle physique représentant le comportement du logiciel en temps réel s'exécutant sur une plate-forme donnée. Il est obtenu par l'attribution des temps d'exécution aux transitions du modèle abstrait. Une condition nécessaire pour garantir l'implémentabilité dy système est la "time-safety", c'est à dire, toute séquence d'exécution du modèle physique est également une séquence d'exécution du modèle abstrait. "Time-safety" signifie que la plate-forme est assez rapide pour répondre aux exigences de synchronisation de l'application. Comme les temps d'exécution des actions ne sont pas connus avec exactitude, "time-safety" est vérifiée pour les temps d'exécution pire cas es actions en faisant l' hypothèse de la robustesse. La robustesse signifie que la "time-safety" est préservée lorsqu'on augmente la vitesse de la plate-forme d'exécution. Pour des logiciels et plate-forme d'exécution correspondant à un modèle robuste, nous définissons un moteur d'exécution qui coordonne l'exécution du logiciel d'application afin de répondre à ses contraintes temporelles. En outre, en cas de non-robustesse, le moteur d'exécution permet de détecter les violations de contraintes temporelles en arrêtant l'exécution. Nous avons mis en place le moteur d'exécution pour les programmes BIP. Nous avons validé la méthode pour la conception et la mise en œuvre du robot Dala. Nous montrons les avantages obtenus en termes d'utilisation du processeur et l'amélioration de la latence de la réaction. / Context: Real-time systems are systems that are subject to "real-time constraints"— e.g. operational deadlines from event to system response. Often real-time response times are understood to be in the order of milliseconds and sometimes microseconds. Building real-time systems requires the use of design and implementation methodologies that ensure the property of meeting timing constraints e.g. a system has to react within user-defined bounds such as deadlines and periodicity. A missed deadline in hard real-time systems is catastrophic, like for example in automotive systems, for example if an airbag is fined too late in a car accident, even one ms too late leads to serious repercussions. In soft real-time systems it can lead to a significant loss of performance and QoS like for example in networked multimedia systems. Contribution: We provide a rigorous design and implementation method for the implementation of real-time systems. The implementation is generated from a given real-time application software and a target platform by using two models: * An abstract model representing the behavior of real-time software as a timed automaton. The latter describes user-defined platform-independent timing constraints. Its transitions are timeless and correspond to the execution of statements of the real-time software. * A physical model representing the behavior of the real-time software running on a given platform. It is obtained by assigning execution times to the transitions of the abstract model. A necessary condition for implementability is time-safety, that is, any (timed) execution sequence of the physical model is also an execution sequence of the abstract model. Time-safety means that the platform is fast enough to meet the timing requirements. As execution times of actions are not known exactly, time-safety is checked for worst-case execution times of actions by making an assumption of time-robustness: time-safety is preserved when speed of the execution platform increases. For given real-time software and execution platform corresponding to a time-robust model, we define an execution Engine that coordinates the execution of the application software so as to meet its timing constraints. Furthermore, in case of non-robustness, the execution Engine can detect violations of time-safety and stop execution. We have implemented the execution Engine for BIP programs with real-time constraints. We have validated the method for the design and implementation of the Dala rover robot. We show the benefits obtained in terms of CPU utilization and amelioration in the latency of reaction.
102

Sélection d'items en classification non supervisée et questionnaires informatisés adaptatifs : applications à des données de qualité de vie liée à la santé / Item selection in clustering and computerized adaptive tests : applications to health-related quality of life data

Michel, Pierre 13 December 2016 (has links)
Un questionnaire adaptatif fournit une mesure valide de la qualité de vie des patients et réduit le nombre d'items à remplir. Cette approche est dépendante des modèles utilisés, basés sur des hypothèses parfois non vérifiables. Nous proposons une approche alternative basée sur les arbres de décision. Cette approche n'est basée sur aucune hypothèse et requiert moins de temps de calcul pour l'administration des items. Nous présentons différentes simulations qui démontrent la pertinence de notre approche. Nous présentons une méthode de classification non supervisée appelée CUBT. CUBT comprend trois étapes pour obtenir une partition optimale d'un jeu de données. La première étape construit un arbre en divisant récursivement le jeu de données. La deuxième étape regroupe les paires de noeuds terminaux de l'arbre. La troisième étape agrège des nœuds terminaux qui ne sont pas issus de la même division. Différentes simulations sont présentés pour comparer CUBT avec d'autres approches. Nous définissons également des heuristiques concernant le choix des paramètres de CUBT. CUBT identifie les variables qui sont actives dans la construction de l'arbre. Cependant, bien que certaines variables peuvent être sans importance, elles peuvent être compétitives pour les variables actives. Il est essentiel de classer les variables en fonction d'un score d'importance pour déterminer leur pertinence dans un modèle donné. Nous présentons une méthode pour mesurer l'importance des variables basée sur CUBT et les divisions binaires compétitives pour définir un score d'importance des variables. Nous analysons l'efficacité et la stabilité de ce nouvel indice, en le comparant à d'autres méthodes. / An adaptive test provides a valid measure of quality of life of patients and reduces the number of items to be filled. This approach is dependent on the models used, sometimes based on unverifiable assumptions. We propose an alternative approach based on decision trees. This approach is not based on any assumptions and requires less calculation time for item administration. We present different simulations that demonstrate the relevance of our approach.We present an unsupervised classification method called CUBT. CUBT includes three steps to obtain an optimal partition of a data set. The first step grows a tree by recursively dividing the data set. The second step groups together the pairs of terminal nodes of the tree. The third step aggregates terminal nodes that do not come from the same split. Different simulations are presented to compare CUBT with other approaches. We also define heuristics for the choice of CUBT parameters.CUBT identifies the variables that are active in the construction of the tree. However, although some variables may be irrelevant, they may be competitive for the active variables. It is essential to rank the variables according to an importance score to determine their relevance in a given model. We present a method to measure the importance of variables based on CUBT and competitive binary splis to define a score of variable importance. We analyze the efficiency and stability of this new index, comparing it with other methods.
103

Métamodèles adaptatifs pour l'optimisation fiable multi-prestations de la masse de véhicules / Adaptive surrogate models for the reliable lightweight design of automotive body structures

Moustapha, Maliki 27 January 2016 (has links)
Cette thèse s’inscrit dans le cadre des travaux menés par PSA Peugeot Citroën pour l’allègement de ses véhicules. Les optimisations masse multi-prestations réalisées sur le périmètre de la structure contribuent directement à cette démarche en recherchant une allocation d’épaisseurs de tôles à masse minimale qui respectent des spécifications physiques relatives à différentes prestations (choc, vibro-acoustique, etc.). Ces spécifications sont généralement évaluées à travers des modèles numériques à très haute-fidélité qui présentent des temps de restitution particulièrement élevés. Le recours à des fonctions de substitution, connues sous le nom de métamodèles, reste alors la seule alternative pour mener une étude d’optimisation tout en respectant les délais projet. Cependant la prestation qui nous intéresse, à savoir le choc frontal, présente quelques particularités (grande dimensionnalité, fortes non-linéarités, dispersions physique et numérique) qui rendent sa métamodélisation difficile.L’objectif de la thèse est alors de proposer une approche d’optimisation basée sur des métamodèles adaptatifs afin de dégager de nouveaux gains de masse. Cela passe par la prise en compte du choc frontal dont le caractère chaotique est exacerbé par la présence d’incertitudes. Nous proposons ainsi une méthode d’optimisation fiabiliste avec l’introduction de quantiles comme mesure de conservatisme. L’approche est basée sur des modèles de krigeage avec enrichissement adaptatif afin de réduire au mieux le nombre d’appels aux modèles éléments finis. Une application sur un véhicule complet permet de valider la méthode. / One of the most challenging tasks in modern engineering is that of keeping the cost of manufactured goods small. With the advent of computational design, prototyping for instance, a major source of expenses, is reduced to its bare essentials. In fact, through the use of high-fidelity models, engineers can predict the behaviors of the systems they design quite faithfully. To be fully realistic, such models must embed uncertainties that may affect the physical properties or operating conditions of the system. This PhD thesis deals with the constrained optimization of structures under uncertainties in the context of automotive design. The constraints are assessed through expensive finite element models. For practical purposes, such models are conveniently substituted by so-called surrogate models which stand as cheap and easy-to-evaluate proxies. In this PhD thesis, Gaussian process modeling and support vector machines are considered. Upon reviewing state-of-the-art techniques for optimization under uncertainties, we propose a novel formulation for reliability-based design optimization which relies on quantiles. The formal equivalence of this formulation with the traditional ones is proved. This approach is then coupled to surrogate modeling. Kriging is considered thanks to its built-in error estimate which makes it convenient to adaptive sampling strategies. Such an approach allows us to reduce the computational budget by running the true model only in regions that are of interest to optimization. We therefore propose a two-stage enrichment scheme. The first stage is aimed at globally reducing the Kriging epistemic uncertainty in the vicinity of the limit-state surface. The second one is performed within iterations of optimization so as to locally improve the quantile accuracy. The efficiency of this approach is demonstrated through comparison with benchmark results. An industrial application featuring a car under frontal impact is considered. The crash behavior of a car is indeed particularly affected by uncertainties. The proposed approach therefore allows us to find a reliable solution within a reduced number of calls to the true finite element model. For the extreme case where uncertainties trigger various crash scenarios of the car, it is proposed to rely on support vector machines for classification so as to predict the possible scenarios before metamodeling each of them separately.
104

Tests non paramétriques minimax pour de grandes matrices de covariance / Non parametric minimax tests for high dimensional covariance matrices

Zgheib, Rania 23 May 2016 (has links)
Ces travaux contribuent à la théorie des tests non paramétriques minimax dans le modèle de grandes matrices de covariance. Plus précisément, nous observons $n$ vecteurs indépendants, de dimension $p$, $X_1,ldots, X_n$, ayant la même loi gaussienne $mathcal {N}_p(0, Sigma)$, où $Sigma$ est la matrice de covariance inconnue. Nous testons l'hypothèse nulle $H_0:Sigma = I$, où $I$ est la matrice identité. L'hypothèse alternative est constituée d'un ellipsoïde avec une boule de rayon $varphi$ autour de $I$ enlevée. Asymptotiquement, $n$ et $p$ tendent vers l'infini. La théorie minimax des tests, les autres approches considérées pour le modèle de matrice de covariance, ainsi que le résumé de nos résultats font l'objet de l'introduction.Le deuxième chapitre est consacré aux matrices de covariance $Sigma$ de Toeplitz. Le lien avec le modèle de densité spectrale est discuté. Nous considérons deux types d'ellipsoïdes, décrits par des pondérations polynomiales (dits de type Sobolev) et exponentielles, respectivement.Dans les deux cas, nous trouvons les vitesses de séparation minimax. Nous établissons également des équivalents asymptotiques exacts de l'erreur minimax de deuxième espèce et de l'erreur minimax totale. La procédure de test asymptotiquement minimax exacte est basée sur une U-statistique d'ordre 2 pondérée de façon optimale.Le troisième chapitre considère une hypothèse alternative de matrices de covariance pas nécessairement de Toeplitz, appartenant à un ellipsoïde de type Sobolev de paramètre $alpha$. Nous donnons des équivalents asymptotiques exacts des erreurs minimax de 2ème espèce et totale. Nous proposons une procédure de test adaptative, c-à-d libre de $alpha$, quand $alpha$ appartient à un compact de $(1/2, + infty)$.L'implémentation numérique des procédures introduites dans les deux premiers chapitres montrent qu'elles se comportent très bien pour de grandes valeurs de $p$, en particulier elles gagnent beaucoup sur les méthodes existantes quand $p$ est grand et $n$ petit.Le quatrième chapitre se consacre aux tests adaptatifs dans un modèle de covariance où les observations sont incomplètes. En effet, chaque coordonnée du vecteur est manquante de manière indépendante avec probabilité $1-a$, $ ain (0,1)$, où $a$ peut tendre vers 0. Nous traitons ce problème comme un problème inverse. Nous établissons ici les vitesses minimax de séparation et introduisons de nouvelles procédures adaptatives de test. Les statistiques de test définies ici ont des poids constants. Nous considérons les deux cas: matrices de Toeplitz ou pas, appartenant aux ellipsoïdes de type Sobolev / Our work contributes to the theory of non-parametric minimax tests for high dimensional covariance matrices. More precisely, we observe $n$ independent, identically distributed vectors of dimension $p$, $X_1,ldots, X_n$ having Gaussian distribution $mathcal{N}_p(0,Sigma)$, where $Sigma$ is the unknown covariance matrix. We test the null hypothesis $H_0 : Sigma =I$, where $I$ is the identity matrix. The alternative hypothesis is given by an ellipsoid from which a ball of radius $varphi$ centered in $I$ is removed. Asymptotically, $n$ and $p$ tend to infinity. The minimax test theory, other approaches considered for testing covariance matrices and a summary of our results are given in the introduction.The second chapter is devoted to the case of Toeplitz covariance matrices $Sigma$. The connection with the spectral density model is discussed. We consider two types of ellipsoids, describe by polynomial weights and exponential weights, respectively. We find the minimax separation rate in both cases. We establish the sharp asymptotic equivalents of the minimax type II error probability and the minimax total error probability. The asymptotically minimax test procedure is a U-statistic of order 2 weighted by an optimal way.The third chapter considers alternative hypothesis containing covariance matrices not necessarily Toeplitz, that belong to an ellipsoid of parameter $alpha$. We obtain the minimax separation rate and give sharp asymptotic equivalents of the minimax type II error probability and the minimax total error probability. We propose an adaptive test procedure free of $alpha$, for $alpha$ belonging to a compact of $(1/2, + infty)$.We implement the tests procedures given in the previous two chapters. The results show their good behavior for large values of $p$ and that, in particular, they gain significantly over existing methods for large $p$ and small $n$.The fourth chapter is dedicated to adaptive tests in the model of covariance matrices where the observations are incomplete. That is, each value of the observed vector is missing with probability $1-a$, $a in (0,1)$ and $a$ may tend to 0. We treat this problem as an inverse problem. We establish the minimax separation rates and introduce new adaptive test procedures. Here, the tests statistics are weighted by constant weights. We consider ellipsoids of Sobolev type, for both cases : Toeplitz and non Toeplitz matrices
105

Entraînement d'un modèle supervisé pour la détection du plaisir en contexte de jeu vidéo à partir de signaux physiologiques et d'indices comportementaux

Beaudoin-Gagnon, Nicolas 10 February 2024 (has links)
La modélisation de l’expérience de jeu présente un intérêt considérable pour la conception de jeux vidéo adaptatifs. Les jeux vidéo adaptatifs utilisent l’information émotionnelle contenue dans les signaux physiologiques et les indices comportementaux pour personnaliser l’expérience de jeu vidéo, et ce dans le but de générer une expérience optimale de jeu. Afin de modéliser l’expérience de jeu, le présent projet de recherche s’est penché sur la détection du plaisir d’un joueur à partir de signaux physiologiques (électrocardiogramme, activité électrodermale, activité respiratoire et électromyogramme) et d’indices comportementaux (expressions faciales, mouvements de la tête et entrées d’un contrôleur Xbox). Dans ce travail, des modèles supervisés(SVM, Forêt d’arbres décisionnels et kNN) ont été entrainés sur un jeu de données construit à partir de la base de données FUNii, qui contient les données physio-comportementales de 219 joueurs réparties sur 362 séances de jeu de la franchise Assassin’s Creed. Une méthode pour la création de classes de plaisir à partir du facteur-fun, un outil d’annotation continue du plaisir, à également été proposée. Le meilleur modèle entrainé a permis de distinguer trois classes de plaisir avec un taux de classement de 53, 5% sur un jeu de test, une amélioration de 12,5% par rapport au meilleur résultat obtenu dans des travaux antérieurs. / Modeling the gaming experience is of considerable interest for designing adaptive video games. Adaptive video games use the emotional information contained in physiological signals and behavioral cues to personalize the video game experience,in order to generate an optimal gaming experience. With the purpose of modeling the gaming experience, this research project has focused on the detection of a player’s fun using physiological signals (electrocardiogram, electrodermal activity, respiratory activity and electromyogram) and behavioral cues (facial expressions,head movements and facial expressions and inputs from an Xbox controller). In this work, supervised machine learning models (SVM, Random Forest and kNN) were trained on a dataset built from the FUNii database, which contains the physiobehavioral data of 219 players spread over 362 game sessions of the Assassin’s Creed franchise. A method for creating fun classes from the fun factor, a tool for continuous annotation of fun, has also been proposed. The best model trained allowed to distinguish three classes of pleasure with an accuracy of 53, 5% on a test dataset, an improvement of 12, 5% compared to the best result obtained in previous works.
106

Chaînes de Markov triplets et filtrage optimal dans les systemes à sauts / Triplet Markov chains and optimal filtering in the jump systems

Abbassi, Noufel 26 April 2012 (has links)
Cette thèse est consacrée à la restauration et l'estimation des paramètres par filtrage dans les modèles de chaîne de Markov cachée classique, couple et triplet à sauts Markoviens. Nous proposons deux nouvelles méthodes d'approximation dans le cas des systèmes linéaires gaussiens à sauts Markoviens. La première est fondée sur l'utilisation des chaînes de Markov cachées par du bruit à mémoire longue, on obtient alors une méthode " partiellement non supervisée" dans la quelle certains paramètres, peuvent être estimés en utilisant une version adaptative de l'algorithme EM ou ICE, les résultats obtenus sont encourageant et comparables avec les méthodes classiquement utilisées du type (Kalman/Particulaire). La deuxième exploite l'idée de ne garder à chaque instant que les trajectoires les plus probables; là aussi, on obtient une méthode très rapide donnant des résultats très intéressants. Nous proposons par la suite deux familles de modèles à sauts qui sont originaux. la première est très générale où le processus couple composé du processus d'intérêt et celui des observations conditionnellement aux sauts, est une chaîne de Markov cachée, et nous proposons une extension du filtrage particulaire à cette famille. La deuxième, est une sous famille de la première où le couple composé de la chaîne des sauts et le processus d'observations est Markovien dans ce dernier cas le filtrage optimal exact est possible avec une complexité linéaire dans le temps. L'utilisation de la deuxième famille en tant qu'approximation de la première est alors étudiée et les résultats exposés dans ce mémoire semblent très encourageants / This thesis is devoted to the restoration problem and the parameter estimation by filtering in the traditional hidden Markov chain model, couple and triplet with Markovian jumps. We propose two new approximate methods in the case of Gaussian linear systems with Markovian jumps. first is founded to use the hidden Markov chains by noise with long memory, we obtains a method " partially not supervised" some parameters, can be estimated by using an adaptive version of EM or ICE algorithm, the results obtained are encouraging and comparable with the methods used classically (Kalman/Particle). The second one exploits idea to keep at every moment only the most probable trajectories; we obtains a very fast method giving very interesting results. Then we propose two families of models to jumps which are original. The first one is very general where the process couples made up of the hidden and the observations process conditionally to the jumps, are a hidden Markov chain, and we propose an extension of particulate filtering to this family. The second is under family of the first, where the couple made up of the jumps and the observations process is Markovian, in this last case exact optimal filtering is possible with a linear complexity in time. Using of the second family to approach the first one is studied and the results exposed in this memory seem very encouraging
107

Synchronisation des systèmes chaotiques par observateurs et applications à la transmission d'informations / Observers-based synchronisation of chaotic systems and applications to the transmission of information

Dimassi, Habib 09 November 2012 (has links)
Dans ce travail de thèse, nous développons des méthodes de synchronisation des systèmes chaotiques pour les applications de transmission d'informations. La première méthode de synchronisation que nous proposons est basée sur les observateurs adaptatifs à entrées inconnues pour une classe des systèmes chaotiques présentant des incertitudes paramétriques et des perturbations dans leurs dynamiques et du bruit dans les signaux de sortie (bruit dans le canal de communication). La méthode développée repose sur les techniques adaptatives pour la compensation des non-linéarités et des incertitudes paramétriques et pour la restauration des messages transmis. Elle se base également sur les méthodes de synthèse d'observateurs à entrées inconnues pour supprimer l'influence des perturbations et du bruit. Ensuite, nous développons une deuxième méthode de synchronisation utilisant un observateur adaptatif à ``modes glissants" pour une classe des systèmes chaotiques présentant des entrées inconnues et dont les signaux de sortie sont bruités. La synthèse de l'observateur s'appuie sur la théorie des modes glissants, les techniques de synthèse d'observateurs singuliers et les techniques adaptatives dans le but d'estimer conjointement l'état et les entrées inconnues malgré la présence du bruit dans les équations de sortie. Cette approche de synchronisation est ensuite employée dans un nouveau schéma de communication chaotique sécurisée dont l'objectif est d'augmenter le nombre et l'amplitude des messages transmis, améliorer le niveau de sécurité ainsi que la robustesse aux bruits présents dans le canal de communication. En outre, le scénario de présence des retards de transmission est étudié en élaborant une troisième approche de synchronisation à base d'observateurs adaptatifs pour une classe des systèmes chaotiques de Lur'e avec des non-linéarités à pente restreinte et des signaux de sortie retardés. En se basant sur la théorie de Lyapunov-Krasovskii et en utilisant une hypothèse d'excitation persistante, l'observateur adaptatif proposé garantit la synchronisation maitre-esclave et la restauration des informations transmises malgré l'existence des retards de transmission. Les résultats théoriques obtenus dans ce travail de thèse sont vérifiés à travers des applications de transmission d'informations utilisant différents modèles des systèmes chaotiques tout en étudiant les différents scénarios et cas de figure pouvant se présenter en pratique et en analysant les aspects de sécurité de ces systèmes. / In this thesis, we develop synchronization methods of chaotic systems for information transmission applications. The first proposed method is based on adaptive unknown input observers for a class of chaotic systems subject to parametric uncertainties and perturbations in their dynamics and noise in outputs signals (Channel communication noise). The developed method is based on adaptive techniques to compensate nonlinearities to compensate nonlinearities and parametric uncertainties and to reconstruct the transmitted messages. Furthermore, this approach is based on unknown input observers design to reject the influence of perturbations and noise. Then, we develop a second synchronization method using an adaptive ``sliding mode” observer for a class of chaotic systems subject to unknown inputs and such that the output equations are subject to noise. The observer design is based on sliding modes theory, descriptor observers design and adaptive control in order to join state and unknown input estimation despite the presence of noise in output equations. The latter synchronization approach is then exploited in a new secured communication scheme where the objective is to increase the number and amplitude of the transmitted messages, improve the level of security and the robustness to noise present in the communication channel. Moreover, the case of presence of transmission time-delays was investigated and a synchronization approach based on adaptive observers for a class of Lur’e systems with slope restricted nonlinearities and delayed outputs. Based on the Lyapunov-Krasovskii theory and using a persistency of excitation property, the proposed adaptive observer ensures master-slave synchronization and the reconstruction of the transmitted messages despite the existence of transmission time-delays. The obtained theoretical results in this thesis are verified through transmission information applications using different models of chaotic systems in different scenarios and case-studies which may occur in practice. Cryptanalysis and security aspects of the proposed communication systems are also investigated.
108

Evolution expérimentale et spécialisation dans le paysage adaptatif d'un gradient environnemental / Experimental evolution and specialization in the adaptive landscape of an environmental gradient

Harmand, Noémie 21 June 2017 (has links)
De nos jours plus que jamais, il est nécessaire d’anticiper et de comprendre les réponses évolutives des organismes vivants, face à des habitats instables et hétérogènes. Mais à quel point cela est-il possible ? Reproduire l’ensemble du déroulé d’une trajectoire évolutive nécessite de pouvoir décrire, d’une part, le « matériel » disponible pour s’adapter (c’est-à-dire les effets phénotypiques associés à la variabilité génétique produite), d’autre part, comment agissent les forces évolutives, associées à un contexte écologique, pour aboutir à un certain « assemblage » de ce matériel. Dans sa version la plus simple, ce processus évolutif peut-être décrit par plusieurs cycles d’évènements de mutations-sélection conduisant à l’adaptation d’une population à son environnement. Cette dynamique correspond assez bien à celle qui est décrite par les populations bactériennes dans les expériences d’évolution contrôlées en laboratoire. Parallèlement, les modèles de paysages adaptatifs (phénotypiques), et en particulier le modèle géométrique de Fisher, sont des outils très puissants pour formuler des prédictions générales et quantitativement testables sur ces trajectoires évolutives. Cependant, ils restent très théoriques et ont été largement pensés dans un contexte écologique simplifié. Au cours de cette thèse, nous avons identifié les déterminants (mutationnels et sélectifs) des trajectoires évolutives à long terme de populations bactériennes s’adaptant dans différents contextes environnementaux. Une première partie des résultats est mise en lumière par la validation expérimentale et la reconstruction de la topographie du paysage adaptatif généré par différentes doses d’un antibiotique, le long d’un gradient. Une deuxième partie expérimentale vise à intégrer une composante biotique (une autre bactérie) à ce même contexte environnemental. Les processus évolutifs intervenant au cours d’une coévolution à long terme maintenue par sélection fréquence-dépendante, y sont étudiés. / Today more than ever, it is crucial to anticipate and understand the evolutionary responses of living organisms faced with heterogeneous and unstable habitats. But to what extent is this possible? To reproduce an entire evolutionary trajectory, we must first describe the “material” available for adaptation (e.g. the phenotypic effects associated with the existing and novel genetic variability), and second describe the way evolutionary forces, shaped by the ecological context, result in specific “assemblies” of this material. At its simplest, this evolutionary process can be described by several cycles of mutation-selection events, leading to the adaptation of a population to an environment. This process is reflected in the evolutionary trajectories of bacterial lineages undergoing controlled experimental evolution in the lab. Concurrently, adaptive (phenotypic) landscape models, and especially Fisher’s geometrical model of adaptation, are powerful tools to formulate general predictions, which can then be tested on such evolutionary trajectories. However, they remain highly theoretical, and are widely conceived in a simple ecological context. In this thesis, we identified the (mutational and selective) determinants of the evolutionary trajectories of bacterial lines adapting to various environmental contexts. A first set of results regards evolution along a gradient of antibiotic doses, and their relevance is highlighted by experimental validation and by the reconstruction of the underlying adaptive landscape. A second experimental part integrates a biotic component (another bacteria) to the same environmental context. The evolutionary processes acting throughout the resulting long-term coevolution – maintained by frequency-dependent selection – are studied.
109

Formalisation et évaluation de stratégies d’élasticité multi-couches dans le Cloud / Formalization and evaluation of cross-layer elasticity strategies in the Cloud

Khebbeb, Khaled 29 June 2019 (has links)
L'élasticité est une propriété qui permet aux systèmes Cloud de s'auto-adapter à leur charge de travail en provisionnant et en libérant des ressources informatiques, de manière autonomique, lorsque la demande augmente et diminue. En raison de la nature imprévisible de la charge de travail et des nombreux facteurs déterminant l'élasticité, fournir des plans d'action précis pour gérer l'élasticité d'un système cloud, tout en respectant des politiques de haut niveau (performances, cout, etc.) est une tâche particulièrement difficile.Les travaux de cette thèse visent à proposer, en utilisant le formalisme des bigraphes comme modèle formel, une spécification et une implémentation des systèmes Cloud Computing élastiques sur deux aspects : structurel et comportemental.Du point de vue structurel, le but est de définir et de modéliser une structure correcte des systèmes Cloud du côté " backend ". Cette partie est supportée par les capacités de spécification fournies par le formalisme des Bigraphes, à savoir : le principe de "sorting" et de règles de construction permettant de définir les desiderata du concepteur. Concernant l'aspect comportemental, il s'agit de modéliser, valider et implémenter des stratégies génériques de mise à l'échelle automatique en vue de décrire les différents mécanismes d'auto-adaptation élastiques des systèmes cloud (mise à l'échelle horizontale, verticale, migration, etc.), en multi-couches (i.e., aux niveaux service et infrastructure). Ces tâches sont prises en charge par les aspects dynamiques propres aux Systèmes Réactifs Bigraphiques (BRS) notamment par le biais des règles de réaction.Les stratégies d'élasticité introduites visent à guider le déclenchement conditionnel des différentes règles de réaction définies, afin de décrire les comportements d'auto-adaptation des systèmes Cloud au niveau service et infrastructure. L'encodage de ces spécifications et leurs implémentations sont définis en logique de réécriture via le langage Maude. Leur bon fonctionnement est vérifié formellement à travers une technique de model-checking supportée par la logique temporelle linéaire LTL.Afin de valider ces contributions d'un point de vue quantitatif, nous proposons une approche à base de file d'attente pour analyser, évaluer et discuter les stratégies d'élasticité d'un système Cloud à travers différents scénarios simulés. Dans nos travaux, nous explorons la définition d'une "bonne" stratégie en prenant en compte une étude de cas qui repose sur la nature changeante de la charge de travail. Nous proposons une manière originale de composer plusieurs stratégies d'élasticité à plusieurs niveaux afin de garantir différentes politiques de haut-niveau. / Elasticity property allows Cloud systems to adapt to their incoming workload by provisioning and de-provisioning computing resources in an autonomic manner, as the demand rises and drops. Due to the unpredictable nature of the workload and the numerous factors that impact elasticity, providing accurate action plans to insure a Cloud system's elasticity while preserving high level policies (performance, costs, etc.) is a particularly challenging task. This thesis aims at providing a thorough specification and implementation of Cloud systems, by relying on bigraphs as a formal model, over two aspects: structural and behavioral.Structurally, the goal is to define a correct modeling of Cloud systems' "back-end" structure. This part is supported by the specification capabilities of Bigraph formalism. Specifically, via "sorting" mechanisms and construction rules that allow defining the designer's desiderata. As for the behavioral part, it consists of model, implement and validate generic elasticity strategies in order to describe Cloud systems' auto-adaptive behaviors (i.e., horizontal and vertical scaling, migration, etc.) in a cross-layer manner (i.e., at service and infrastructure levels). These tasks are supported by the dynamic aspects of Bigraphical Reactive Systems (BRS) formalism (through reaction rules).The introduced elasticity strategies aim at guiding the conditional triggering of the defined reaction rules, to describe Cloud systems' auto-scaling behaviors in a cross-layered manner. The encoding of these specifications and their implementation are defined in Rewrite Logic via Maude language. Their correctness is formally verified through a model-checking technique supported by the linear temporal logic LTL.In order to quantitatively validate these contributions, we propose a queuing-based approach in order to evaluate, analyze and discuss elasticity strategies in Cloud systems through different simulated execution scenarios. In this work, we explore the definition of a “good” strategy through a case study which considers the changing nature of the input workload. We propose an original way de compose different cross-layer elasticity strategies to guarantee different high-level policies.
110

Étude et conception de systèmes miniaturisés « intelligents » pour l’amortissement non-linéaire de vibration / Study and design of "smart" miniaturized systems for non-linear vibration damping

Viant, Jean-Nicolas 06 July 2011 (has links)
L’amortissement de vibrations mécaniques trouve de nombreuses applications dans le domaine du contrôle acoustique ou de la réduction de contraintes dans l’industrie (machine outil), le génie civil (structure autoportée), ou encore l’aéronautique (réduction de contrainte lors des manoeuvres). Les recherches actuelles tendent principalement vers des méthodes utilisant des matériaux piézoélectriques collés à la surface des structures à traiter. Une technique prometteuse, développée au LGEF à l’INSA de Lyon, est l’amortissement de vibration d’une structure mécanique par méthode SSDI (pour Synchronized Switch Damping on an Inductor). Cette technique d’amortissement semi-active exploite un procédé non-linéaire de traitement de la tension aux bornes d’un élément piézoélectrique, capteur et actionneur à la fois. L’objectif de ce travail est de réaliser l’intégration de l’électronique de traitement de la tension aux bornes des éléments piézoélectriques en technologie microélectronique, afin de pouvoir l’embarquer sur le patch piézoélectrique à terme. Une analyse des techniques d’amortissement publiées permet d’y situer ce travail et de définir les points clés de la technique SSDI. Au deuxième chapitre, un certain nombre de modèles sont développés pour comparer et guider les choix de conception, et pour aboutir à des arbitrages architecturaux. Le troisième chapitre développe la conception d’un ASIC dans une technologie avec option haute tension, comprenant une fonction haute-tension de traitement du signal piézoélectrique et une chaine basse-tension d’analyse, de décision et de commande. La première réalise l’inversion de la tension piézoélectrique à l’aide d’un circuit RLC passif de conversion de l’énergie. La seconde s’attache à la détection des extremums de manière à optimiser l’amortissement. Un diviseur de tension auto-adaptatif avec protection contre les surtensions ainsi qu’un détecteur de pic de tension permettent de réaliser cette opération. Ces fonctions sont caractérisées en simulations et mesures. Le fonctionnement de l’ASIC est ensuite testé sur une structure mécanique, et les performances sont décrites et interprétées au chapitre 4. Le comportement multi-mode et la grande dynamique des signaux mécaniques traités sont des avancées par rapport à la bibliographie. / Mechanical vibration damping has many applications in industry (machine tools), civil engineering (bridge construction), or aeronautics (stress during maneuvers). Current research tends mainly to use piezoelectric materials based methods. A promising technique from the LGEF of INSA Lyon is the vibration damping of mechanical structure by so-called SSDI method (for Synchronized Switch Damping on an Inductor). This semi-active damping technique uses a non-linear process to invert the voltage across a piezoelectric element. The element is used as sensor and actuator at a time. The aim of this work is to achieve an integration of the electronic process with the SSDI voltage inversion in a microelectronic technology. It has ultimately to embed the electronic controller on the piezoelectric patch. The analysis of published damping techniques can situate this work and identify key points of the SSDI technique. In the second chapter, several models are developed to compare and decide of the best architectural design choice. The third chapter presents an ASIC design in a technology with high voltage option. The ASIC consists of a high-voltage piezoelectric signal processing part and a low-voltage control part. The first function performs piezoelectric voltage reversing by mean of a passive RLC energy conversion circuit. The second function focuses on the extremum voltage detection circuit in order to optimize damping efficiency. A self-tuning voltage divider with over-voltage protection and a peak voltage detector can perform this operation. These functions are characterized by simulations and measurements. The ASIC operation is then tested with mechanical structures, and damping performances are described and interpreted in Chapter 4. The multimodal behavior and the mechanical signals high-dynamic are new contribution as regard in the bibliography.

Page generated in 0.0706 seconds