• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
561

User equipment based-computation offloading for real-time applications in the context of Cloud and edge networks / Délestage de calcul pour des applications temps-réel dans le contexte du Cloud et du edge

Messaoudi, Farouk 16 April 2018 (has links)
Le délestage de calcul ou de code est une technique qui permet à un appareil mobile avec une contrainte de ressources d'exécuter à distance, entièrement ou partiellement, une application intensive en calcul dans un environnement Cloud avec des ressources suffisantes. Le délestage de code est effectué principalement pour économiser de l'énergie, améliorer les performances, ou en raison de l'incapacité des appareils mobiles à traiter des calculs intensifs. Plusieurs approches et systèmes ont été proposés pour délester du code dans le Cloud tels que CloneCloud, MAUI et Cyber Foraging. La plupart de ces systèmes offrent une solution complète qui traite différents objectifs. Bien que ces systèmes présentent en général de bonnes performances, un problème commun entre eux est qu'ils ne sont pas adaptés aux applications temps réel telles que les jeux vidéo, la réalité augmentée et la réalité virtuelle, qui nécessitent un traitement particulier. Le délestage de code a connu un récent engouement avec l'avènement du MEC et son évolution vers le edge à multiple accès qui élargit son applicabilité à des réseaux hétérogènes comprenant le WiFi et les technologies d'accès fixe. Combiné avec l'accès mobile 5G, une pléthore de nouveaux services mobiles apparaîtront, notamment des service type URLLC et eV2X. De tels types de services nécessitent une faible latence pour accéder aux données et des capacités de ressources suffisantes pour les exécuter. Pour mieux trouver sa position dans une architecture 5G et entre les services 5G proposés, le délestage de code doit surmonter plusieurs défis; la latence réseau élevée, hétérogénéité des ressources, interopérabilité des applications et leur portabilité, la consommation d'énergie, la sécurité, et la mobilité, pour citer quelques uns. Dans cette thèse, nous étudions le paradigme du délestage de code pour des applications a temps réel, par exemple; les jeux vidéo sur équipements mobiles et le traitement d'images. L'accent sera mis sur la latence réseau, la consommation de ressources, et les performances accomplies. Les contributions de la thèse sont organisées sous les axes suivants : Étudier le comportement des moteurs de jeu sur différentes plateformes en termes de consommation de ressources (CPU / GPU) par image et par module de jeu ; Étudier la possibilité de distribuer les modules du moteur de jeu en fonction de la consommation de ressources, de la latence réseau, et de la dépendance du code ; Proposer une stratégie de déploiement pour les fournisseurs de jeux dans le Cloud, afin de mieux exploiter les ressources, en fonction de la demande variable en ressource par des moteurs de jeu et de la QoE du joueur ; Proposer une solution de délestage statique de code pour les moteurs de jeu en divisant la scène 3D en différents objets du jeu. Certains de ces objets sont distribués en fonction de la consommation de ressources, de la latence réseau et de la dépendance du code ; Proposer une solution de délestage dynamique de code pour les moteurs de jeu basée sur une heuristique qui calcule pour chaque objet du jeu, le gain du délestage. En fonction de ce gain, un objet peut être distribué ou non ; Proposer une nouvelle approche pour le délestage de code vers le MEC en déployant une application sur la bordure du réseau (edge) responsable de la décision de délestage au niveau du terminal et proposer deux algorithmes pour prendre la meilleure décision concernant les tâches à distribuer entre le terminal et le serveur hébergé dans le MEC. / Computation offloading is a technique that allows resource-constrained mobile devices to fully or partially offload a computation-intensive application to a resourceful Cloud environment. Computation offloading is performed mostly to save energy, improve performance, or due to the inability of mobile devices to process a computation heavy task. There have been a numerous approaches and systems on offloading tasks in the classical Mobile Cloud Computing (MCC) environments such as, CloneCloud, MAUI, and Cyber Foraging. Most of these systems are offering a complete solution that deal with different objectives. Although these systems present in general good performance, one common issue between them is that they are not adapted to real-time applications such as mobile gaming, augmented reality, and virtual reality, which need a particular treatment. Computation offloading is widely promoted especially with the advent of Mobile Edge Computing (MEC) and its evolution toward Multi-access Edge Computing which broaden its applicability to heterogeneous networks including WiFi and fixed access technologies. Combined with 5G mobile access, a plethora of novel mobile services will appear that include Ultra-Reliable Low-latency Communications (URLLC) and enhanced Vehicle-toeverything (eV2X). Such type of services requires low latency to access data and high resource capabilities to compute their behaviour. To better find its position inside a 5G architecture and between the offered 5G services, computation offloading needs to overcome several challenges; the high network latency, resources heterogeneity, applications interoperability and portability, offloading frameworks overhead, power consumption, security, and mobility, to name a few. In this thesis, we study the computation offloading paradigm for real-time applications including mobile gaming and image processing. The focus will be on the network latency, resource consumption, and accomplished performance. The contributions of the thesis are organized on the following axes : Study game engines behaviour on different platforms regarding resource consumption (CPU/GPU) per frame and per game module; study the possibility to offload game engine modules based on resource consumption, network latency, and code dependency ; propose a deployment strategy for Cloud gaming providers to better exploit their resources based on the variability of the resource demand of game engines and the QoE ; propose a static computation offloading-based solution for game engines by splitting 3D world scene into different game objects. Some of these objects are offloaded based on resource consumption, network latency, and code dependency ; propose a dynamic offloading solution for game engines based on an heuristic that compute for each game object, the offloading gain. Based on that gain, an object may be offloaded or not ; propose a novel approach to offload computation to MEC by deploying a mobile edge application that is responsible for driving the UE decision for offloading, as well as propose two algorithms to make best decision regarding offloading tasks on UE to a server hosted on the MEC.
562

Estimation de processus de sauts / Estimation of the jump processes

Nguyen, Thi Thu Huong 06 December 2018 (has links)
Dans cette thèse, on considère une équation différentielle stochastique gouvernée par un processus de Lévy de saut pur dont l’indice d’activité des sauts α ∈ (0, 2) et on observe des données haute fréquence de ce processus sur un intervalle de temps fixé. Cette thèse est consacrée tout d’abord à l’étude du comportement de la densité du processus en temps petit. Ces résultats permettent ensuite de montrer la propriété LAMN (Local Asymptotic Mixed Normality) pour les paramètres de dérive et d’échelle. Enfin, on étudie des estimateurs de l’indice α du processus.La première partie traite du comportement asymptotique de la densité en temps petit du processus. Le processus est supposé dépendre d’un paramètre β = (θ,σ) et on étudie, dans cette partie, la sensibilité de la densité par rapport à ce paramètre. Cela étend les résultats de [17] qui étaient restreints à l’indice α ∈ (1,2) et ne considéraient que la sensibilité par rapport au paramètre de dérive. En utilisant le calcul de Malliavin, on obtient la représentation de la densité, de sa dérivée et de sa dérivée logarithmique comme une espérance et une espérance conditionnelle. Ces formules de représentation font apparaître des poids de Malliavin dont les expressions sont données explicitement, ce qui permet d’analyser le comportement asymptotique de la densité en temps petit, en utilisant la propriété d’autosimilarité du processus stable.La deuxième partie de cette thèse concerne la propriété LAMN (Local Asymptotic Mixed Normality) pour les paramètres. Le coefficient de dérive et le coefficient d’échelle dépendent tous les deux de paramètres inconnus et on étend les résultats de [17]. On identifie l’information de Fisher asymptotique ainsi que les vitesses optimales de convergence. Ces quantités dépendent de l’indice αLa troisième partie propose des estimateurs pour l’indice d’activité des sauts α ∈ (0,2) basés sur des méthodes de moments qui généralisent les résultats de Masuda [53]. On montre la consistence et la normalité asymptotique des estimateurs et on illustre les résultats par des simulations numériques / In this thesis, we consider a stochastic differential equation driven by a truncated pure jump Lévy process with index α ∈(0,2) and observe high frequency data of the process on a fixed observation time. We first study the behavior of the density of the process in small time. Next, we prove the Local Asymptotic Mixed Normality (LAMN) property for the drift and scaling parameters from high frequency observations. Finally, we propose some estimators of the index parameter of the process.The first part deals with the asymptotic behavior of the density in small time of the process. The process is assumed to depend on a parameter β = (θ,σ) and we study, in this part, the sensitivity of the density with respect to this parameter. This extends the results of [17] which were restricted to the index α ∈ (1,2) and considered only the sensitivity with respect to the drift coefficient. By using Malliavin calculus, we obtain the representation of the density, its derivative and its logarithm derivative as an expectation and a conditional expectation. These representation formulas involve some Malliavin weights whose expressions are given explicitly and this permits to analyze the asymptotic behavior in small time of the density, using the self-similarity property of the stable process.The second part of this thesis concerns the Local Asymptotic Mixed Normality property for the parameters. Both the drift coefficient and scale coefficient depend on the unknown parameters. Extending the results of [17], we compute the asymptotic Fisher information and find that the rate in the Local Asymptotic Mixed Normality property depends on the index α.The third part proposes some estimators of the jump activity index α ∈ (0,2) based on the method of moments as in Masuda [53]. We prove the consistency and asymptotic normality of the estimators and give some simulations to illustrate the finite-sample behaviors of the estimators
563

Problèmes de transport optimal avec pénalisation en gradient / Optimal transport problems with gradient penalization

Louet, Jean 02 July 2014 (has links)
Le problème du transport optimal, originellement introduit par Monge au 18ème siècle, consiste à minimiser l'énergie nécessaire au déplacement d'une masse dont la répartition est donnée vers une autre masse dont la répartition est elle aussi donnée; mathématiquement, cela se traduit par : trouver le minimiseur de l'intégrale de c(x,T(x)) (où c est le coût de transport de x vers T(x)) parmi toutes les applications T à mesure image prescrite.Cette thèse est consacrée à l'étude de problèmes variationnels similaires où l'on fait intervenir la matrice jacobienne de la fonction de transport, c'est-à-dire que le coût dépend de trois variables c(x,T(x),DT(x)) ; il s'agit typiquement de rajouter l'intégale de |DT(x)|^2 à la fonctionnelle afin d'obtenir une pénalisation Sobolev. Ce type de problème trouve ses motivations en mécanique des milieux continus, élasticité incompressible ou en analyse de forme et appelle d'un point de vue mathématique une approche totalement différente de celle du problème de transport usuel.Les questions suivantes sont envisagées :- bonne définition du problème, notamment de l'énergie de Dirichlet, via les espaces de Sobolev par rapport à une mesure, et résultats d'existence de minimiseurs ;- caractérisation de ces minimiseurs : optimalité du transport croissant sur la droite réelle, et approche du type équation d'Euler-Lagrange en dimension quelconque ;- sélection d'un minimiseur via une procédure de pénalisation du type Gamma-convergence (l'énergie de Dirichlet est mutipliée par un petit paramètre) lorsque le coût de transport est le coût de Monge donné par la distance, pour lequel l'application de transport optimale n'est pas unique ;- autres approches du problème et perspectives : formulation dynamique du type Benamou-Brenier, et formulation duale similaire à celle de Kantorovitch dans le cas du problème du transport optimal usuel. / The optimal transportation problem was originally introduced by Monge in the 18th century; it consists in minimizing the total energy of the displacement of a given repartition of mass onto another given repartition of mass. This is mathematically expressed by: find the minimizer of the integral of c(x,T(x)) (where c(x,T(x)) is the cost to send x onto T(x)) among the maps T with prescribed image measure.This thesis is devoted to similar variational problems, which involve the Jacobian matrix of the transport map, meaning that the cost depends on three variables c(x,T(x),DT(x)); we typically add the Dirichlet energy to the transport functional in view to obtain a Sobolev-type penalization. This kind of constraints finds its motivations in continuum mechanics, incompressible elasticity or shape analysis, and a quite different mathematical approach than in the usual theory of optimal transportation is needed.We consider the following questions:- proper definition of the problem, in particular of the Dirichlet energy, thanks to the theory of Sobolev spaces with respect to a measure, and existence results;- characterizations of these minimizers: optimality of the monotone transport map on the real line, and Euler-Lagrange-like approach in any dimension;- selection of a minimizer via a Gamma-convergence-like penalization procedure (we multiply the Dirihlet energy with a vanishing positive parameter) where the transport cost is the Monge cost given by the distance (for which the optimal transport map is not unique);- other related problems and perspectives: dynamic Benamou-Brenier-like formulation, and dual Kantorovich-like formulation.
564

Opérateur de Laplace–Beltrami discret sur les surfaces digitales / Discrete Laplace--Beltrami Operator on Digital Surfaces

Caissard, Thomas 13 December 2018 (has links)
La problématique centrale de cette thèse est l'élaboration d'un opérateur de Laplace--Beltrami discret sur les surfaces digitales. Ces surfaces proviennent de la théorie de la géométrie discrète, c’est-à-dire la géométrie qui s'intéresse à des sous-ensembles des entiers relatifs. Nous nous plaçons ici dans un cadre théorique où les surfaces digitales sont le résultat d'une approximation, ou processus de discrétisation, d'une surface continue sous-jacente. Cette méthode permet à la fois de prouver des théorèmes de convergence des quantités discrètes vers les quantités continues, mais aussi, par des analyses numériques, de confirmer expérimentalement ces résultats. Pour la discrétisation de l’opérateur, nous faisons face à deux problèmes : d'un côté, notre surface n'est qu'une approximation de la surface continue sous-jacente, et de l'autre côté, l'estimation triviale de quantités géométriques sur la surface digitale ne nous apporte pas en général une bonne estimation de cette quantité. Nous possédons déjà des réponses au second problème : ces dernières années, de nombreux articles se sont attachés à développer des méthodes pour approximer certaines quantités géométriques sur les surfaces digitales (comme par exemple les normales ou bien la courbure), méthodes que nous décrirons dans cette thèse. Ces nouvelles techniques d'approximation nous permettent d'injecter des informations de mesure sur les éléments de notre surface. Nous utilisons donc l'estimation de normales pour répondre au premier problème, qui nous permet en fait d'approximer de façon précise le plan tangent en un point de la surface et, via une méthode d'intégration, palier à des problèmes topologiques liées à la surface discrète. Nous présentons un résultat théorique de convergence du nouvel opérateur discrétisé, puis nous illustrons ensuite ses propriétés à l’aide d’une analyse numérique de l’opérateur. Nous effectuons une comparaison détaillée du nouvel opérateur par rapport à ceux de la littérature adaptés sur les surfaces digitales, ce qui nous permet, au moins pour la convergence, de montrer que seul notre opérateur possède cette propriété. Nous illustrons également l’opérateur via quelques unes de ces applications comme sa décomposition spectrale ou bien encore le flot de courbure moyenne / The central issue of this thesis is the development of a discrete Laplace--Beltrami operator on digital surfaces. These surfaces come from the theory of discrete geometry, i.e. geometry that focuses on subsets of relative integers. We place ourselves here in a theoretical framework where digital surfaces are the result of an approximation, or discretization process, of an underlying smooth surface. This method makes it possible both to prove theorems of convergence of discrete quantities towards continuous quantities, but also, through numerical analyses, to experimentally confirm these results. For the discretization of the operator, we face two problems: on the one hand, our surface is only an approximation of the underlying continuous surface, and on the other hand, the trivial estimation of geometric quantities on the digital surface does not generally give us a good estimate of this quantity. We already have answers to the second problem: in recent years, many articles have focused on developing methods to approximate certain geometric quantities on digital surfaces (such as normals or curvature), methods that we will describe in this thesis. These new approximation techniques allow us to inject measurement information into the elements of our surface. We therefore use the estimation of normals to answer the first problem, which in fact allows us to accurately approximate the tangent plane at a point on the surface and, through an integration method, to overcome topological problems related to the discrete surface. We present a theoretical convergence result of the discretized new operator, then we illustrate its properties using a numerical analysis of it. We carry out a detailed comparison of the new operator with those in the literature adapted on digital surfaces, which allows, at least for convergence, to show that only our operator has this property. We also illustrate the operator via some of these applications such as its spectral decomposition or the mean curvature flow
565

Connaître par les Nombres : cultures et écritures comptables au prieuré cathédral de Norwich (1256-1344) / Knowing through Numbers : monastic accounts and administration at Norwich cathedral priory (1256-1344)

Dewez, Harmony 28 April 2014 (has links)
Le développement des comptabilités monastiques au XIIIe et au début du XIVe siècle s’inscrit dans le phénomène d’essor de l’écrit qui accompagne les transformations sociales du Moyen Âge central. Les comptes du prieuré cathédral de Norwich se décomposent en plusieurs séries de comptes manoriaux – les comptes des domaines – et de comptes d’obédienciers – les comptes « domestiques » - qui permettent, à travers une analyse fine de l’organisation et de l’évolution des comptes, d’étudier la façon dont le recours au nouveau medium de l’écrit a catalysé une formalisation et une désambiguïsation des termes de la comptabilité et, à travers cela, a contribué à la naissance d’une pensée comptable. Le rôle de la hiérarchie ecclésiastique dans la diffusion et l’imposition de normes comptables a été réévalué, ainsi que la spécificité des pratiques monastiques, influencées par le développement concomitant de la fiscalité royale et pontificale sur les revenus monastiques. Enfin, tout au long du XIIIe et de la première moitié du XIVe siècle, les moines élaborent différents types de calculs agricoles permettant de contrôler les pratiques des officiers manoriaux à travers une meilleure connaissance des valeurs de l’agriculture. Le développement de ces valeurs reflète une logique économique médiévale, qui repose sur la comparaison entre des valeurs réelles et des valeurs de référence. La notion de valeur est centrale, à la fois pour la comptabilité seigneuriale et pour le calcul des assiettes fiscales, d’où des transferts notionnels entre les pratiques administratives seigneuriales et la mise en place d’une fiscalité institutionnelle. / The spread of monastic accounting in the 13th and early 14th centuries is one aspect of the development of pragmatic literacy and of the social transformations of the High Middle Ages. The accounts of Norwich Cathedral Priory are series of manorial and obedientiary accounts. The detailed study of their evolution and organisation reflects how the transfer of oral accounts to the written record has stimulated the specification of the field of accounting. The role of the ecclesiastical hierarchy in spreading norms of accounting has been reassessed, as well as the specificity of monastic accounting practices, which were influenced by the simultaneous development of the royal and papal taxation on ecclesiastical income. In the course of the 13th and early 14h centuries, monks have also developed calculations on agriculture which were meant to control manorial officers through a more accurate knowledge of the value of agricultural produce. The development of these calculations and values illustrates a medieval approach to the economy, founded on the comparison of real and ideal values for the produce of agriculture. The notion of value is central to seigniorial administration, but also to taxation and there have been transfers of logics between these fields.
566

Prévision du Dynamic Line Rating et impact sur la gestion du système électrique / Forecasting of Dynamic Line Rating and assessment of the impacts on power system management

Dupin, Romain 03 July 2018 (has links)
Le Dynamic Line Rating est la modification dynamique des contraintes de courant sur une ligne électrique aérienne, en accord avec la météorologie. De telles modifications permettent alors d’avoir des réductions des phénomènes de congestion près de 99% du temps.De manière similaire aux énergies renouvelables, il est possible de générer des prévisions de ces contraintes modifiées, en accord avec des observations historiques, des prévisions météorologiques et des méthodes d’intelligence artificielle.Dans cette thèse, nous proposons le développement de modèles de prévision probabilistes à court terme du DLR. Nous nous concentrons plus particulièrement sur des méthodes fournissant des prévisions ayant de très faibles probabilités d’être surestimées. Cela passe par le développement et la comparaison de plusieurs méthodes de prévision, ainsi que des améliorations comme des modifications de prévisions à très bas quantile à l’aide de remodélisations des queues de distribution.Par la suite, une réflexion est faite sur l’utilisation en pratique de ces prévisions, d’abord par des cas d’étude simplifié, puis à l’aide de simulations de réseaux électrique. Ces approches nous permettent de développer de nouvelles stratégies d’utilisation des prévisions DLR, optimisant le bien-être social tout en maintenant les risques associés aux erreurs de prévision à un niveau faible.Finalement, nous évaluons les modèles de prévisions développés en fonction de leurs performances économiques à l’aide des modèles de réseaux électriques, et nous démontrons la valeur des améliorations des modèles de prévision que nous proposons. / Dynamic Line Rating is the modification of the maximal current capacity of an overhead electrical line, depending on weather characteristics. Such modifications allow important decreases of congestion phenomena, around 99% of the time.Similarly to renewable generation, it is possible to forecast the modified constraints, accordingly to some historic observations, weather predictions and artificial intelligence methods.In this document, the development of short-term probabilistic DLR forecast models. A focus is especially made on methods providing forecasts having a very low probability of being overestimated. This is made through the development and the comparison of several forecast methods, and some improvements such as the remodelling of very low quantile forecasts with tail density modelling.Following that, a reflection is proposed on the use of such forecasts in practice, first with some simplified test cases, then with electrical grid simulations. These approaches allow us developing new strategies for the use of the DLR forecasts, maximizing the social welfare while keeping risks associated with forecasts errors at low levels.Finally, an evaluation of the forecast models function of their economic value is made with the electrical grids models, and the value of the proposed modifications of the forecast models is then demonstrated.
567

Linéarité : un outil analytique pour l'étude de la complexité et de la sémantique des langages de programmation / Linearity : an analytic tool in the study of complexity and semantics of programming languages

Gaboardi, Marco 12 December 2007 (has links)
Dans la première partie, on propose un système de type pour le lambda-calcul, dans le style du calcul des séquents, nomme « Soft Type Assignment » (STA) qui est inspiré par la logique linéaire « soft ». STA a la propriété de réduction du sujet et est correct et complète pour les calculs en temps polynomial. Par la suite on propose un déduction naturelle, STA_N. Ce système est simple mais il a le désavantage que les variables dans le sujet peuvent être explicitement renommées. Pour résoudre ce problème, on propose le système STA_M, où les contextes sont des multi-ensembles, donc les règles pour renommer les variables peuvent être interdit. L’inférence de type pour STA_M ne semble pas décidable. On propose un algorithme qui pour chaque lambda-terme rend l’ensemble de contraintes que doivent être satisfait pour que le terme soit type. Pi est correct et complet. Ensuite on étend le lambda-calcul par des constantes booléennes et on propose le système STA_B. La particularité de STA_B est que la règle du conditionnel utilise les contextes de façon additive. Chaque programme de STA_B peut être exécuté, par une machine abstraite, en espace polynomial. De plus le système est aussi complet pour PSPACE. Dans la deuxième partie, on propose une restriction de PCF, nommée SlPCF. Ce langage est équipé avec une sémantique opérationnelle qui mélange l’appelle par nom et l’appelle par valeur et peut être interprèté en mode standard dans les espaces cohérents linéaires. SlPCF est complet pour les fonctions récursives, mais il n’est pas complet et donc il n’est pas fully abstract pour les espaces cohérents linéaires / In the first part, we propose, inspired by Soft Linear Logic, a type assignment system for lambda-calculus in sequent calculus style, named Soft Type Assignment (STA). STA enjoys the subject reduction property. and is correct and complete for polynomial time computations. Then, we propose a natural deduction named STA_N. While simple, STA_N has the disadvantage of allowing the explicit renaming of variables in the subject. To overcome to this problem, we propose another natural deduction system, named STA_M, where contexts are multisets, hence rules renaming variables can be avoided. The type inference for STA_M seems in general undecidable. We propose an algorithm Pi returning, for every lambda-term, a set of constraints that need to be satisfied in order to type the term. Pi is correct and complete. We extend the lambda-calculus by basic boolean constants and we propose the system STA_B. The peculiarity of STA_B is that the conditional rule treats the contexts in an additive way. Every STA_B program can be executed, through an abstract machine, in polynomial space. Moreover, STA_B is also complete for PSPACE. In the second part we propose a restriction of PCF, named SlPCF. The language is naturally equipped with an operational semantics mixing call-by-name and call-by-value parameter passing and it can be interpreted in linear coherence space in a standard way. SlPCF is recursive complete, but it is not complete, and thus not fully abstract, with respect to linear coherence spaces
568

Un calcul de réécriture de graphes : applications à la biologie et aux systèmes autonomes / A rewriting calculus for graphs : applications to biology and autonomous systems

Andrei, Oana-Maria 05 November 2008 (has links)
L'objectif de cette thèse est d'explorer des descriptions formelles pour la structure et le fonctionnement des systèmes biologiques, ainsi que des outils formels pour raisonner au sujet de leur comportement. Cette thèse s'inscrit dans les travaux étudiant les modèles informatiques sûrs où les calculs sont exprimés par l'intermédiaire de la réécriture, et où nous pouvons compter sur la vérification formelle pour exprimer et valider les propriétés des modèles. Dans cette thèse nous développons un calcul de réécriture d'ordre supérieur pour décrire des molécules, des règles de réaction, et la génération des réseaux biochimiques. Le calcul est basé sur la métaphore chimique en décrivant les calculs en termes de solutions chimiques dans lesquelles les molécules représentant des données agissent l'une sur l'autre librement selon des règles de réaction. Ainsi nous avons obtenu un Calcul Biochimique Abstrait étendant le modèle chimique d'ordre supérieur en considérant des molécules structurées. Le calcul est équipé d'une spécification naturelle de la concurrence et des mécanismes de contrôle grâce à l'expression des stratégies de réécriture sous forme de molécules. La description des complexes moléculaires ou des réactifs chimiques appartient à une classe spécifique de graphes. Nous définissons la structure des graphes avec ports et nous montrons que les principes du calcul biochimique instanciés pour les graphes avec ports sont assez expressifs pour modéliser des systèmes autonomes et des réseaux biochimiques. En plus, les techniques de la réécriture stratégique ouvrent la voie au raisonnement basé sur les calculs et à la vérification des propriétés des systèmes modélisés / The objective of this thesis is to explore formal descriptions for the structure and functioning of biological systems, as well as formal tools for reasoning about their behavior. This work takes place in the overall prospective to study safe computational models where computations are expressed via rewriting, and where we can rely on formal verification to express and validate suitable properties. In this thesis we develop a higher-order calculus rewriting for describing molecules, reaction patterns, and biochemical network generation. The calculus is based on the chemical metaphor by describing the computations in terms of chemical solutions in which molecules representing data freely interact according to reaction rules. This way we obtained an Abstract Biochemical Calculus as an extension of the higher-order chemical model by considering structured molecules. The calculus is provided with a natural specification of concurrency and of controlling mechanisms by expressing rewrite strategies as molecules. The description of molecular complexes or chemical reactants belong to specific classes of graphs. We define the structure of port graphs and we show how the principles of the biochemical calculus instantiated for port graphs are expressive enough for modeling autonomous systems and biochemical networks. In addition, strategic rewriting techniques open the way to reason about the computations and to verify properties of the modeled systems
569

Visualisations interactives haute-performance de données volumiques massives : une approche out-of-core multi-résolution basée GPUs / High performance interactive visualization of large volume data : a GPUs-based multi-resolution out-of-core approach

Sarton, Jonathan 28 November 2018 (has links)
Les travaux de cette thèse s'inscrivent dans le cadre du projet PIA2 3DNeuroSecure. Ce dernier vise à proposer un système collaboratif de navigation multi-échelle interactive dans des données visuelles massives (Visual Big Data) ayant pour cadre applicatif l'imagerie biomédicale 3D ultra-haute résolution (ordre du micron) possiblement multi-modale. En outre, ce système devra être capable d'intégrer divers traitements et/ou annotations (tags) au travers de ressources HPC distantes. Toutes ces opérations doivent être envisagées sans possibilité de stockage complet en mémoire (techniques out-of-core : structures pyramidales, tuilées, … avec ou sans compression …). La volumétrie des données images envisagées (Visual Big Data) induit par ailleurs le découplage des lieux de capture/imagerie/génération (histologie, confocal, imageurs médicaux variés, simulation …), de ceux de stockage et calcul haute performance (data center) mais aussi de ceux de manipulation des données acquises (divers périphériques connectés, mobiles ou non, tablette, PC, mur d’images, salle de RV …). La visualisation restituée en streaming à l’usager sera adaptée à son périphérique, tant en termes de résolution (Full HD à GigaPixel) que de rendu 3D (« à plat » classique, en relief stéréoscopique à lunettes, en relief autostéréoscopique sans lunettes). L'ensemble de ces développements pris en charge par le CReSTIC avec l'appui de la MaSCA (Maison de la Simulation de Champagne-Ardenne) se résument donc par : - la définition et la mise en oeuvre des structures de données adaptées à la visualisation out-of-core des visual big data (VBD) ciblées - l’adaptation des traitements spécifiques des partenaires comme des rendus 3D interactifs à ces nouvelles structures de données - les choix techniques d’architecture pour le HPC et la virtualisation de l’application de navigation pour profiter au mieux des ressources du datacanter local ROMEO. Le rendu relief avec ou sans lunettes, avec ou sans compression du flux vidéo relief associé seront opérés au niveau du logiciel MINT de l’URCA qui servira de support de développement. / These thesis studies are part of the PIA2 project 3DNeuroSecure. This one aims to provide a collaborative system of interactive multi-scale navigation within visual big data (VDB) with ultra-high definition (tera-voxels), potentially multimodal, 3D biomedical imaging as application framework. In addition, this system will be able to integrate a variety of processing and/or annotations (tags) through remote HPC resources. All of these treatments must be possible in an out-of-core context. Because of the visual big data, we have to decoupled the location of acquisition from ones of storage and high performance computation and from ones for the manipulation of the data (various connected devices, mobile or not, smartphone, PC, large display wall, virtual reality room ...). The streaming visualization will be adapted to the user device in terms of both resolution (Full HD to GigaPixel) and 3D rendering (classic rendering on 2D screens, stereoscopic with glasses or autostereoscopic without glasses). All these developments supported by the CReSTIC with the support of MaSCA (Maison de la Simulation de Champagne-Ardenne) can therefore be summarized as: - the definition and implementation of the data structures adapted to the out-of-core visualization of the targeted visual big data. - the adaptation of the specific treatments partners, like interactive 3D rendering, to these new data structures. - the technical architecture choices for the HPC and the virtualization of the navigation software application, to take advantage of "ROMEO", the local datacenter. The auto-/stereoscopic rendering with or without glasses will be operated within the MINT software of the "université de Reims Champagne-Ardenne".
570

Phylodynamique des pathogènes viraux par calcul bayésien approché / Phylodynamics of viral pathogens by approximate Bayesian computation

Saulnier, Emma 28 November 2017 (has links)
Inférer des paramètres épidémiologiques à partir de phylogénies ou de données d'incidence est toujours un enjeu.D'une part, les approches basées sur les données d'incidence donnent souvent des estimations erronées du fait du biais d'échantillonnage important sur ce type de données.D'autre part, les approches utilisant les phylogénies reposent généralement sur des fonctions de vraisemblance exprimées à partir de modèles démographiques relativement simples et peu pertinents au regard des dynamiques épidémiologiques.A notre connaissance, il n'existe aucune méthode d'inférence utilisant les deux types de données, qui se base sur des modèles épidémiologiques.Ce travail de thèse a donc conduit au développement de méthodes de calcul bayésien approché qui ne nécessitent aucune fonction de vraisemblance.Ces approches sont basées sur des simulations à partir de modèles épidémiologiques, des techniques de régression et un grand nombre de statistiques de résumé qui permettent de capturer l'information épidémiologique des phylogénies et des données d'incidence.Nous avons comparé ces nouvelles méthodes de calcul bayésien approché à diverses approches existantes permettant d'inferer des paramètres épidémiologiques à partir de phylogénies ou de données d'incidence et obtenu des résultats tout au moins similaires.Ces approches nous ont ensuite permis d'étudier la dynamique de l'épidémie de virus Ebola de 2013-2016 en Sierra Leone et celle de l'épidémie de VIH-O au Cameroun.Ce travail est un premier pas vers l'application de méthodes sans-vraisemblance à des modèles complexes, de façon à aider les organismes de santé publique à établir des mesures de contrôle plus efficaces. / Inferring epidemiological parameters from phylogenies or incidence data is still challenging.In one hand, approaches based on incidence data give regularly erroneous estimates, because sampling bias is usually important on that type of data.In the other hand, approaches based on phylogenies generally rely on likelihood functions that are expressed from relatively simple demographic models.These demographic models are usually not appropriate to properly describe the epidemiological dynamics.To our knowledge, there is no inference method that uses both types of data and that is based on epidemiological models.This thesis work thus led to the development of approximate Bayesian computation methods, which do not require a likelihood function.These approaches rely on simulations from epidemiological models, regression techniques and a large number of summary statistics, which capture the epidemiological information from phylogenies and incidence data.We compared these new methods of approximate Bayesian computation to diverse existing approaches that infer epidemiological parameters from phylogenies or incidence data, and we obtained at least similar accuracies.These approaches enabled us to study the dynamics of the 2013-2016 Ebola epidemic in Sierra Leone and the dynamics of the HIV-O epidemic in Cameroon.This works is a first step towards the application of likelihood-free approaches to complex epidemiological models in order to help public health organisms to establish more efficient control measures.

Page generated in 0.0456 seconds