• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 86
  • 13
  • 2
  • Tagged with
  • 236
  • 90
  • 55
  • 52
  • 41
  • 37
  • 32
  • 31
  • 28
  • 25
  • 24
  • 24
  • 20
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

A combinatorial approach to Rauzy-type dynamics / Une approche combinatoire aux dynamiques de type Rauzy

De mourgues, Quentin 05 December 2017 (has links)
Non communiqué / Rauzy-type dynamics are group (or monoid) actions on a collection of combinatorial objects. The first and best known example concerns an action on permutations, associated to interval exchange transformations (IET) for the Poincaré map on compact orientable translation surfaces. The equivalence classes on the objects inducedby the group action are related to components of the moduli spaces of Abelian differentials with prescribed singularities, and, in two variants of the problem, have been classified by Kontsevich and Zorich, and by Boissy, through methods involving both combinatorics, algebraic geometry, topology and dynamical systems. In the first half of this thesis, we provide a purely combinatorial proof of both classification theorems. Our proof can be interpreted geometrically and the over archingidea is close to that of Kontsevich and Zorich, although the techniques arerather different. Not all Rauzy-type dynamics have a geometrical correspondence however, and some parts of this first proof do not seem to generalize well.In the second half of the thesis we develop a new method, that we call the labelling method. This second method is not completely disjoint from the first one, but it the new crucial ingredient of considering a sort of ‘monodromy’ for the dynamics, in away that we now sketch. Many statements in this thesis are proven by induction. It is conceivable to prove, by induction, a classification theorem for unlabelled objects. However, as the labelling method will show, it is easier to prove two statements in parallel within the same induction, the one on the unlabelled objects, and an apparently much harder one, on the monodromy of the labelled objects. Although the final result is stronger than the initial aim, by virtue of the stronger inductive hypothesis, the method may work more easily.This second approach extends to several other Rauzy-type dynamics. Our firststep is to apply the labelling method to derive a second proof of the classificationtheorem for the Rauzy dynamics. Then we apply it to the study of two other Rauzy-type dynamics (one of which is strictly related to the Rauzy dynamics on non-orientable surfaces), and finally we inventory a surprisingly high number of Rauzy-type dynamics for which the labelling.
2

Information flow analysis for embedded systems : from practical to theoretical aspects / Analyse de flot d'information pour les systèmes embarqués : aspects pratiques et théoriques

Ghindici, Dorina 04 December 2008 (has links)
Nos travaux ont pour but de fournir une solution aux problèmes de confidentialité dans les systèmes multi-applicatifs: assurer la sécurité des applications dédiées aux systèmes portables et autonomes en vérifiant des propriétés de sécurité en termes de flot d'information au moment du chargement des applications, contrairement aux travaux existants qui ne sont ni modulaires ni dynamiques. Afin de fournir un solution complète, nous avons traité les aspects à la fois pratiques et théoriques du problème. Dans un premier temps, nous proposons un modèle et un outil adaptés aux contraintes inhérentes aux systèmes embarqués. Notre approche est modulaire et supporte l'héritage et Ia surcharge. La vérification est donc incrémentale et s'effectue sur le système cible, le seul endroit ou la sécurité peut être garantie. Il s'agit à notre connaissance, du premier vérifieur embarqué pour l'analyse de flot d'information. Afin de prouver l'utilité pratique de notre modèle nous avons mené des expérimentations et nous avons testé l'outil dans des contextes différents. Dans un deuxième temps, nous traitons les aspects théoriques: nous proposons un modèle formel basé sur des graphes de l'abstraction de la mémoire. Un graphe de l'abstraction de la mémoire est un graphe « points-to» prolongé par des noeuds de type primitif et par des liens issus de flots implicites. Notre construction est prouvée correcte par un théorème de non-interférence. De plus, les politiques de sécurité ne nécessitent pas d'être connues pendant l'analyse: le flot d'information est vérifié a posteriori en étiquetant le graphe de l'abstraction de la mémoire avec des niveaux de sécurité. / This work aims at providing a solution to confidentiality issues in multiapplicative systems: ensuring security for an applications running on small and autonomous systems by verifying information flow properties at deployment time. Existing work on information flow does not scale to small open systems due to resources limitations and due to lack of modularity, which is essential in a dynamically evolving environment. ln order to provide a complete solution, we address both practical and theoretical aspects. We first propose a model and a tool dedicated to small open systems running Java bytecode, with support for inheritance and override. Our approach is modular, hence the verification is incremental and is performed on the target device, the only place where the security can be guaranteed. To our knowledge, it is the first information flow verifier for embedded systems. To prove its usability, we ran different experiments and we tested the tool in several contexts. Secondly, we tackle the information flow issue from a theoretical point of view. We propose a formal model, based on abstract memory graphs; an abstract memory graph is a points-to graph extended with nodes abstracting input values of primitive type and flows arising trom implicit flow. Our construction is proved correct with respect to non-interference. Contrary to most type-based approached, our abstract memory graph is build independently on any security level knowledge. Information flow is checked by labeling graphs a posteriori.
3

Investigation neuro-vasculaire de la rétine en conditions d'hyperoxie et d'hypercapnie systémique chez l'humain

Faucher, Caroline January 1997 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
4

Mesure du flot sanguin dans le tissu adipeux implantation et mise au point de la méthode à Sherbrooke

Martin, Élizabeth January 2009 (has links)
Le flot sanguin est un facteur déterminant de l'activité métabolique du tissu adipeux. En effet, tout échange métabolique ou hormonal dépend obligatoirement du produit du flot sanguin et de la différence artérioveineuse du métabolite étudié.Le stockage et la libération énergétique de même que la sécrétion d'hormones et d'adipocytokines nécessitent une régulation précise du flot sanguin dans le tissu adipeux (FSTA). Ce mémoire comportera essentiellement trois parties. Dans la première, nous ferons la recension des écrits qui concernent la régulation du FSTA. Nous avons écrit une revue sur le sujet. Nous décrirons le rôle de l'insuline, des hormones gastro-intestinales, du système nerveux sympathique et parasympathique, de l'endothéline et de diverses cytokines. Nous montrerons aussi que l'absence d'élévation du FSTA en condition postprandiale est une caractéristique de l'insulino-résistance et de l'obésité. Cette caractéristique justifie l'exploration de la physiologie vasculaire du tissu adipeux pour une meilleure compréhension des mécanismes patho-physiologiques qui sous-tendent ces deux pathologies. Dans la deuxième partie, nous discuterons des diverses techniques de mesure du FSTA chez l'humain, la mesure de clairance du 133 Xe, la microdialyse ou d'autres méthodes plus dispendieuses ou non validées. Nous décrirons ensuite une nouvelle méthode, la microinfusion, qui permet de mesurer le FSTA avec la technique de clairance du 133 Xe et de le faire varier simultanément en infusant dans le site radioactif, de façon continue, des agents vasoactifs. Un détecteur placé au-dessus de la source permet l'enregistrement de la clairance du 133 Xe du tissu adipeux vers la circulation sanguine en relation avec les changements environnementaux induits.Le tissu adipeux sous-cutané abdominal a été choisi comme site anatomique d'investigation. Cette méthode permet la comparaison directe entre des composés vasoactifs, agents pharmacologiques ou hormones, et un contrôle controlatéral situé à la même hauteur sur l'abdomen. La description précise de cette méthode fait l'objet d'un deuxième article. Nous y montrons aussi que la microinfusion améliore la précision et la faisabilité des études physiologiques et pharmacologiques in vivo chez l'humain et qu'elle a déjà permis l'évaluation de plusieurs acteurs potentiels impliqués dans la régulation du FSTA chez des sujets sains. Enfin, dans la troisième partie nous ferons le point de notre expérience de maîtrise, des difficultés et des déboires que nous avons eus dans la mise au point de la technique à Sherbrooke. Nous conclurons en montrant que la microinfusion va permettre d'améliorer notre compréhension des mécanismes sous-jacents au syndrome d'insulino-résistance, au développement du diabète de type 2 et des maladies cardiovasculaires. Son implantation et sa mise au point à Sherbrooke sont donc amplement justifiées.
5

Contrôle adaptatif, techniques de régularisation et applications en analyse d'images / Adaptive control, regularization techniques and their applications in image

Amur, Khua Bux 19 September 2011 (has links)
Dans cette thèse nous nous intéressons à l'étude de problèmes d'analyse mathématique d'images issus du domaine de la vision par ordinateur. Nous considérons des modèles variationnels d'estimation du flot optique et des problèmes de correspondance en stéréo-vision. La résolution de ces modèles variationnels est basée sur la minimisation de fonctionnelles énergies qui comportent deux termes : un terme de données et un terme de régularisation. Ce dernier est du au caractère mal posé de ces problèmes. L'objet du travail de thèse est d'étudier et mettre en œuvre un contrôle adaptatif du paramètre de régularisation qui permette de la choisir au mieux en chaque point du domaine de calcul. Ce contrôle est rendu possible par les estimations a posteriori qui fournissent un critère de sélection « optimal » du paramètre. Cette technique a été introduite par Z. Belhachmi et F, Hecht et appliquée avec succès au problème d'optique flot dans le cas de la régularisation de Tikhonov. Nous la considérons ici pour l'estimation de l'optique flot et la problème de correspondance en stéréo-vision dans le cas de la régularisation par variation totale. L'efficacité de la méthode est manifeste pour faire ressortir les arêtes (discontinuités de champs optiques. En effet, à ces endroits le paramètre de régularisation diminue et aux endroits plus homogènes le paramètre augmente. Ce comportement nous a encouragé à l'expérimenter pour d'autres problèmes d'analyse d'images comme de débruitage, nous avons rajouté un chapitre préliminaire sur le modèle de Perona-Malik / An adaptive control and regularization techniques are studied for some linear and nonlinear ill-posed problems in image processing and computer vision. These methods are based on variational approach which constitutes the minimization of a suitable energy functional made up of two parts data term obtained from constancy of grey value assumption and regularization term which cope with ill-posed problem by its filling in effect property. We have provided a novel adaptive approach for optic flow and stero vision problems. Which is based on adaptive finite element method using unstructutred grid as the domain of computation, which allow the automatic choice of local optimal regularization parameters. Various linear and nonlinear variational models have been considered in this thesis for scientific computations of optic flow and stereo vision problems and an efficient adaptive control is obtained. This novel regularization strategy is controlled by the regularization parameter [alpha] which depends on space and a posteriori error estimator called residual error indicator. This local adptive behavior has encouraged us to experiment with other problems in image analysis such as denoising, we add a preliminary chapter on hte model of Perona-Malik. This work falls in to the category novel and advanced numerical strategies for scientific computations specifically for image motion problems
6

Champs de vecteurs, flots et géodésiques sur les supervariétés / Vector fields, flows and geodesics on supermanifolds

Garnier, Stéphane 07 March 2012 (has links)
Le résultat principal de cette thèse est de donner une définition de géodésique sur les supervariétés riemanniennes $(\ca,g)$ paires (et aussi impaires) et de la justifier par un théorème reliant les courbes géodésiques avec le flot géodésique sur $\text{T}^*\ca$. Pour ce faire, nous construisons la 2-forme symplectique canonique sur $\text{T}^*\ca$ et l'analogue $H$ de la fonctionnelle énergie dans le contexte des supervariétés. Nous prenons ainsi le flot du champ de vecteurs hamiltonien associé à $H$ que nous nommons "flot géodésique''. Alors, nous relions les supergéodésiques, que nous définissons à l'aide de la dérivée covariante comme des courbes à vitesse auto-parallèle, avec le flot géodésique via des conditions initiales adaptées aux supervariétés. Une autre définition de géodésique a été proposée en 2006 par O. Goertsches mais ces courbes ne sont pas en bijection avec les courbes intégrales du flot géodésique que nous construisons. Notre définition de géodésique semble donc présenter plus d'avantages. Par ailleurs, nous pouvons, à l'aide du flot, construire l'application exponentielle. Nous en profitons pour démontrer le résultat, bien connu au cas de cadre des variétés classiques (non-graduées), de linéarisation des isométries en utilisant l'exponentielle. Dans la dernière partie, nous redémontrons un résultat de J. Monterde et O.M. Sánchez-Valenzuela concernant l'intégration des champs de vecteur pairs, impairs et aussi non homogènes dans le but d'éviter d'utiliser un modèle de Batchelor. Ceci permet par exemple, de généraliser leurs résultats aux supervariétés holomorphes. / We give a natural definition of geodesics on a Riemannian supermanifold $(\ca, g)$ and extend the usual geodesic flow on $T^*M$ associated to the underlying Riemannian manifold $(M,g)$ to a geodesic "superflow" on $T^*\ca$. Integral curves of this flow turn out to be in natural bijection with geodesics on $\ca$. We also construct the corresponding exponential map and generalize the well-known faithful linearization of isometries to Riemannian supermanifolds. We give also a new proof of the Monderde et al. result about flows of non-homogeneous supervector fields. We give a treatment which allows extensions for instance to the holomorphic category. The original proof given by Monderde et al. is only applicable to split supermanifolds, since their proofs relied on Batchelor's Theorem. Finally, we reproves a characterization of vector fields whose flows are local $\sbb$-actions of an appropriate Lie supergroups structure
7

Détection de comportements à risque dans les applications en utilisant l'analyse statique / Detection of risky behavior in smartphone applications using static analysis

Martinez, Denis 02 February 2016 (has links)
Le monde des appareils mobiles permet aux utilisateurs d’installer des applications sur des terminaux personnels, mais pose des lacunes en termes de sécurité, car les utilisateurs n’ont ps les moyens de juger la dangerosité d’une application, et le risque de nuisibilité ne peut pas être limité après l’installation. Nous étudions l’analyse statique en tant qu’outil de détection de risques et de malware. Notre méthode se caractérise par un pilotage par règles, opérant sur des programmes partiels : l’un des objectifs est de proposer un langage spécifique au domaine pouvant exprimer un domaine abstrait et associer des comportements aux fonctions des librairies du système. L’expressivité est un atout important qui est obtenu au travers de l’abstraction. La technologie mobile évolue rapidement et de nouvelles manières de développer les appli- cations apparaissent fréquemment. Une analyse statique des applications doit absolument réagir rapidement à l’arrivée des nouvelles technologies, de sorte à ne pas se retrouver obsolète. Nous montrons de quelle manière il est possible de réaliser des analyses statiques que l’on peut réutiliser entre plusieurs plateformes de smartphones / The mobile device world allows users to install applications on theirpersonal devices, but typically falls short in terms of security, because theusers lack any ability to judge if an application will be dangerous, and thereis no way to limit the harmfulness of a program after it is installed.We explore static analysis as a tool for risk assessment and detection of malware behavior. Our method characterizes as a rule-driven, partial program approach: one of our goals is to provide a convenient, expressive domain-specific language to express an abstract domain and associate behavior to the library functions of the system.Expressivity is an important asset to have and it is obtained by the means of abstraction. The mobile technologies evolve fast and new ways to develop programs frequently appear.A real-world static analysis solution absolutely needs to react fast to the arrival of new technologies, in order not to fall into obsolescence. Weshow how it is possible to develop static analyses, and then to reuse them across mutiple smartphone platforms.
8

Equations de Monge-Ampère complexes paraboliques / Parabolic complex Monge Ampère equations

Do, Hoang Son 29 September 2015 (has links)
Le but de cette thèse est de contribuer à la compréhension des équations de Monge-Ampère complexes paraboliques sur des domaines de Cn. Cette équation a un lien étroit avec le flot de Kähler-Ricci. Notre étude se concentre sur les cas où la condition initiale n'est pas régulière. Nous voulons démontrer l'existence de solutions satisfaisant la continuité jusqu'à la frontière et jusqu'au temps initial. / The aim of this thesis is to make a contribution to understanding parabolic complex Monge-Ampère equations on domains of Cn. Our study is centered around cases where the initial condition is irregular. We want to prove the existence of solutions which satisfies continuity up to the boundary and continuity up to the initial time.
9

Ordonnancement hybride des applications flots de données sur des systèmes embarqués multi-coeurs / Hybrid scheduling of streaming applications to account for interprocessor communication in embedded manycores

Dkhil, Amira 14 April 2015 (has links)
Les systèmes embarqués sont de plus en plus présents dans l'industrie comme dans la vie quotidienne. Une grande partie de ces systèmes comprend des applications effectuant du traitement intensif des données: elles utilisent de nombreux filtres numériques, où les opérations sur les données sont répétitives et ont un contrôle limité. Les graphes "flots de données", grâce à leur déterminisme fonctionnel inhérent, sont très répandus pour modéliser les systèmes embarqués connus sous le nom de "data-driven". L'ordonnancement statique et périodique des graphes flot de données a été largement étudié, surtout pour deux modèles particuliers: SDF et CSDF. Dans cette thèse, on s'intéresse plus particulièrement à l'ordonnancement périodique des graphes CSDF. Le problème consiste à identifier des séquences périodiques infinies d'actionnement des acteurs qui aboutissent à des exécutions complètes à buffers bornés. L'objectif est de pouvoir aborder ce problème sous des angles différents : maximisation de débit, minimisation de la latence et minimisation de la capacité des buffers. La plupart des travaux existants proposent des solutions pour l'optimisation du débit et négligent le problème d'optimisation de la latence et propose même dans certains cas des ordonnancements qui ont un impact négatif sur elle afin de conserver les propriétés de périodicité. On propose dans cette thèse un ordonnancement hybride, nommé Self-Timed Périodique (STP), qui peut conserver les propriétés d'un ordonnancement périodique et à la fois améliorer considérablement sa performance en terme de latence. / One of the most important aspects of parallel computing is its close relation to the underlying hardware and programming models. In this PhD thesis, we take dataflow as the basic model of computation, as it fits the streaming application domain. Cyclo-Static Dataflow (CSDF) is particularly interesting because this variant is one of the most expressive dataflow models while still being analyzable at design time. Describing the system at higher levels of abstraction is not sufficient, e.g. dataflow have no direct means to optimize communication channels generally based on shared buffers. Therefore, we need to link the dataflow MoCs used for performance analysis of the programs, the real time task models used for timing analysis and the low-level model used to derive communication times. This thesis proposes a design flow that meets these challenges, while enabling features such as temporal isolation and taking into account other challenges such as predictability and ease of validation. To this end, we propose a new scheduling policy noted Self-Timed Periodic (STP), which is an execution model combining Self-Timed Scheduling (STS) with periodic scheduling. In STP scheduling, actors are no longer strictly periodic but self-timed assigned to periodic levels: the period of each actor under periodic scheduling is replaced by its worst-case execution time. Then, STP retains some of the performance and flexibility of self-timed schedule, in which execution times of actors need only be estimates, and at the same time makes use of the fact that with a periodic schedule we can derive a tight estimation of the required performance metrics.
10

Utilisation des déformations spatiales en assimilation de données / Use of spatial deformation in data assimilation

Legrand, Raphaël 10 December 2015 (has links)
L'assimilation de données permet de construire un état initial du modèle (l'analyse) à partir de deux sources d'information : les observations disponibles et une prévision récente (l'ébauche). L'importance relative de chacune des sources dépend du modèle d'erreurs qui leur est attribué. Le modèle le plus commun en prévision numérique du temps (PNT) consiste à formuler l'erreur d'ébauche comme un incrément additif en amplitude et, avec une approche probabiliste, de spécifier sa fonction de densité de probabilité (PDF) par une Gaussienne spécifiée avec une moyenne nulle et une matrice de covariance B. Le premier problème abordé durant cette thèse est le manque de dépendance au flux des modélisations de B. Le deuxième est l'écartement à l'hypothèse Gaussienne notamment en présence d'erreurs de déplacement. La démarche suivie est d'utiliser des déformations spatiales dans un cadre ensembliste pour raffiner la modélisation des corrélations d'erreurs d'ébauche, et de corriger les erreurs de déplacement pour tenter de se rapprocher de l'hypothèse Gaussienne. La première partie du travail de thèse consiste à améliorer la modélisation de B, en prenant en compte objectivement l'anisotropie des corrélations d'erreurs d'ébauche à l'aide de déformations spatiales estimées statistiquement à partir d'un ensemble de prévisions générées avec un ensemble d'assimilation (EDA). Cette méthode statistique (ST) est appliquée à une simulation réelle du modèle global de Météo-France ARPEGE, et son efficacité est comparée à celle de la transformée géostrophique (GT) à l'aide de diagnostics d'anisotropie. Les résultats montrent que la ST est plus efficace que la GT avec une prise en compte plus systématique de l'anisotropie des corrélations spatiales. Dans une deuxième partie, une documentation de la non-Gaussianité (NG) des erreurs d'ébauche d'AROME, le modèle à échelle convective de Météo-France, est proposée. La NG des distributions d'erreurs d'ébauche, diagnostiquées à partir d'un EDA, est quantifiée par un indice uniquement basé sur leur asymétrie et leur aplatissement. La NG diagnostiquée a une forte dépendance spatiale et temporelle, avec des structures spatiales qui suivent les structures météorologiques. Le lien avec certains processus non-linéaires , liés par exemple à la présence de nuages, est notamment observé. Les diagnostics montrent également que le processus d'analyse réduit fortement la NG observée dans l'ébauche, et que la vorticité et la divergence sont les variables de contrôle de l'assimilation les moins Gaussiennes. Une des causes possibles de la NG étant la présence d'erreurs de déplacement, la troisième partie de ce travail de thèse s'attache à documenter les apports de ce modèle d'erreurs alternatif. Un algorithme d'estimation des erreurs de déplacements a tout d'abord été mis en place. Cet algorithme, qui s'inspire des méthodes d'estimation du flot optique, se base sur une approche variationnelle quasi-linéaire, quasi Gaussienne et multi-échelles. Le comportement de la méthode a été testé sur des cas idéalisés, puis sur des cas réels basés sur des prévisions AROME. Ceci permet d'envisager à l'avenir l'estimation statistique des principaux paramètres caractérisants ce type d' erreurs, ainsi que leur exploitation dans des algorithmes visant à corriger ces erreurs en amont de la correction d'amplitude. / Data assimilation provides initial conditions (the analysis) for the model from two sources of information: the available observations and a short term forecast (the background). The relative weights of both sources depend on the chosen error model. Usually, background errors are modeled as additive amplitude errors and, following a probabilistic approach, their probability density function (PDF) are modeled as Gaussians, specified with a zero mean and a covariance matrix B. For this PhD, the tackled issue are the lack of flow dependency of B and the non-Gaussianity (NG) frequently arising in numerical weather prediction (NWP), especially in case of displacement error. Using spatial deformation methods and ensemble of forecasts generated from an ensemble of data (EDA), the aim of this work is to refine the model of background error correlations, and to correct displacement errors as a possible way to get closer to the Gaussian hypothesis. A first part of this work is to improve the B modeling, by accounting objectively for the anisotropy of the background error correlations thanks to spatial deformation, which is statistically estimated from an EDA. This statistical method (ST) is applied to a real dataset of ARPEGE, the global model at Météo-France. The ST is compared to an other spatial warping method, the geostrophic transform (GT), and their efficiency are quantified by an anisotropy index. Results show a better efficiency of the ST than the GT, with a more systematic accounting of the anisotropy of the spatial background correlations. The second part of this work is a documentation of the NG for the background errors of AROME, the convective scale model at Météo-France. Distributions are diagnosed from an EDA, and their Gaussianity is quantified with a statistical index only based on two shape parameters, skewness and kurtosis. The diagnosed NG is spatially and temporally dependent, with large similarities between meteorological and NG structures. Links with nonlinear processes, linked for example to cloud covering, are observed. Diagnostics also show that the analysis step is largely decreasing the observed NG of the background, and that the most non-Gaussian variables in control space are vorticity and divergence. Since, a possible reason of the NG is the displacement errors, the third part of this PhD work aims at getting insight in the documentation of this alternative error model. First, a quasi-linear, quasi-Gaussian and multi-scale method, inspired from optical flow estimation methods, is derived. It has been tested on ideal case and on real cases based on AROME forecast fields. Future works may be, first, a statistical estimation of the main parameters characterizing this kind of error, and second, the use of this algorithm to correct displacement error upstream of the additive error correction.

Page generated in 0.0527 seconds