• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 17
  • 3
  • 1
  • 1
  • Tagged with
  • 62
  • 26
  • 11
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Rattachement de petites monnaies à l'euro

Matei, Iuliana 08 December 2006 (has links) (PDF)
Cette thèse se place dans la perspective de l'intégration des huit PECO (pays d'Europe Centrale et Orientale) dans la monnaie unique européenne. Plutôt que d'analyser les critères de convergence qui sont officiellement appliqués par les institutions européennes pour statuer sur la possibilité de cette intégration, elle réalise une analyse économique et économétrique des mécanismes macroéconomiques actuels de ces économies. Le chapitre 1 étudie les comouvements des variables monétaires et réelles, puis la convergence des mouvements de ces deux catégories de variables entre les anciens membres et les nouveaux membres de l'UE. Les chapitres 2 et 3 concernent les canaux de transmission de la politique monétaire. Nous montrons que les changements de régime de change peuvent modifier fondamentalement l'impact des chocs monétaires sur les variables monétaires et réelles. Le chapitre 4 propose une étude empirique de l'impact de l'effet de contagion sur la crédibilité des monnaies des PECO pendant les crises monétaires qui se sont succédées entre 1996-2001. L'effet de contagion apparaît un facteur essentiel dans la détermination du taux de change. Finalement, le chapitre 5 est une application empirique liée à la nature des anticipations du taux de change dans le cas de la Pologne. Il met en évidence la nature adaptative des anticipations du taux de change seulement pour la parité zloty/euro et évoque au final quelques pistes de recherche possibles.
42

Passage à l'échelle d'applications java distribuées auto-adaptatives

Olejnik, Richard 26 June 2011 (has links) (PDF)
L'évolution rapide des réseaux, des stations de travail, des gros calculateurs sans oublier les ordinateurs personnels, donne naissance à de nouvelles alternatives architecturales pour les traitements parallèles et distribués. Les Grappes, les grilles de calcul et plus récemment le calcul en nuages (Cloud Computing) répondent aux besoins en calcul sans cesse croissants, grâce à des nouveaux paradigmes et concepts logiciels et systèmes basés sur la programmation distribuée. Les principales caractéristiques des applications développées dans ce cadre sont d'être hétérogènes, irrégulières et imprévisibles. Pour permettre une exécution efficace des applications réparties en Java, nous proposons un environnement de programmation et un environnement d'exécution (ADAJ : Adaptative Distributed Applications in Java) qui optimise le placement dynamique des objets de l'application sur les grappes et les grilles d'ordinateurs. Cette répartition s'appuie sur de nouveaux mécanismes d'observation de l'activité des objets et des relations entre eux. Le gain de cette distribution flexible et adaptative des objets se traduit par une meilleure efficacité de l'exécution et la possibilité d'utiliser au mieux la puissance des différents calculateurs, tout en minimisant les coûts de communication et les surcoûts liés au contrôle de l'application. Munie de ces mécanismes, la plate-forme logicielle ADAJ assure une répartition adaptative et automatique des éléments de l'application sur la plateforme d'exécution, répondant de cette façon, aux évolutions du calcul et aux modifications de la disponibilité des ressources. Ce fonctionnement est basé sur un procédé de vol de cycle et permet de contrôler la granularité du traitement. Le programmeur n'a plus en principe, à s'en préoccuper. Les mécanismes ont été implémentés pour diverses plateformes et technologies. Dans un premier temps, ils ont été conçus pour fonctionner sur des grappes de stations de travail. Nous avons ensuite fait évoluer les solutions adoptées pour fonctionner sur des réseaux plus vastes (passage à l'échelle). En particulier, nous avons introduit un framework basé sur des composants logiciels, qui aide le concepteur à bâtir des applications pour grilles d'ordinateurs. Puis, ces travaux ont été étendus, de sorte que la plateforme ADAJ est aujourd'hui, un intergiciel à part entière. Elle est basée sur des web services et son système d'information, sur des systèmes à agents. Les mécanismes d'ADAJ peuvent maintenant gérer des plateformes d'exécution de type grille composées, à priori de milliers de machines. Nous avons finalement testé cette approche pour des problèmes de fouille de données à l'aide d'algorithmes distribués, spécifiquement développés. De cette façon nous avons répondu à la problématique actuelle concernant la mise en oeuvre et l'exploitation d'architecture de grille par des systèmes de type SOKU (Service Oriented Knowledge Utilities). Pour conclure, nous montrons comment nos travaux pourraient être utilisés dans l'environnement des systèmes-sur-puce de nouvelle génération.
43

Algèbre linéaire exacte, parallèle, adaptative et générique / Adaptive and generic parallel exact linear algebra

Sultan, Ziad 17 June 2016 (has links)
Les décompositions en matrices triangulaires sont une brique de base fondamentale en calcul algébrique. Ils sont utilisés pour résoudre des systèmes linéaires et calculer le rang, le déterminant, l'espace nul ou les profiles de rang en ligne et en colonne d'une matrix. Le projet de cette thèse est de développer des implantations hautes performances parallèles de l'élimination de Gauss exact sur des machines à mémoire partagée.Dans le but d'abstraire le code de l'environnement de calcul parallèle utilisé, un langage dédié PALADIn (Parallel Algebraic Linear Algebra Dedicated Interface) a été implanté et est basé essentiellement sur des macros C/C++. Ce langage permet à l'utilisateur d'écrire un code C++ et tirer partie d’exécutions séquentielles et parallèles sur des architectures à mémoires partagées en utilisant le standard OpenMP et les environnements parallel KAAPI et TBB, ce qui lui permet de bénéficier d'un parallélisme de données et de taches.Plusieurs aspects de l'algèbre linéaire exacte parallèle ont été étudiés. Nous avons construit de façon incrémentale des noyaux parallèles efficaces pour les multiplication de matrice, la résolution de systèmes triangulaires au dessus duquel plusieurs variantes de l'algorithme de décomposition PLUQ sont construites. Nous étudions la parallélisation de ces noyaux en utilisant plusieurs variantes algorithmiques itératives ou récursives et en utilisant des stratégies de découpes variées.Nous proposons un nouvel algorithme récursive de l'élimination de Gauss qui peut calculer simultanément les profiles de rang en ligne et en colonne d'une matrice et de toutes ses sous-matrices principales, tout en étant un algorithme état de l'art de l'élimination de Gauss. Nous étudions aussi les conditions pour qu'un algorithme de l'élimination de Gauss révèle cette information en définissant un nouvel invariant matriciel, la matrice de profil de rang. / Triangular matrix decompositions are fundamental building blocks in computational linear algebra. They are used to solve linear systems, compute the rank, the determinant, the null-space or the row and column rank profiles of a matrix. The project of my PhD thesis is to develop high performance shared memory parallel implementations of exact Gaussian elimination.In order to abstract the computational code from the parallel programming environment, we developed a domain specific language, PALADIn: Parallel Algebraic Linear Algebra Dedicated Interface, that is based on C/C + + macros. This domain specific language allows the user to write C + + code and benefit from sequential and parallel executions on shared memory architectures using the standard OpenMP, TBB and Kaapi parallel runtime systems and thus providing data and task parallelism.Several aspects of parallel exact linear algebra were studied. We incrementally build efficient parallel kernels, for matrix multiplication, triangular system solving, on top of which several variants of PLUQ decomposition algorithm are built. We study the parallelization of these kernels using several algorithmic variants: either iterative or recursive and using different splitting strategies.We propose a recursive Gaussian elimination that can compute simultaneously therow and column rank profiles of a matrix as well as those of all of its leading submatrices, in the same time as state of the art Gaussian elimination algorithms. We also study the conditions making a Gaussian elimination algorithm reveal this information by defining a new matrix invariant, the rank profile matrix.
44

Architectures adaptatives basse consommation pour les communications sans-fil / Low-power adaptive architectures for wireless communications

Lenoir, Vincent 28 September 2015 (has links)
Ces travaux de thèse s'inscrivent dans la thématique des objets connectés, désormais connue sous le nom de Internet of Things (IoT). Elle trouve son origine dans la démocratisation d'Internet depuis le début des années 2000 et la migration vers des appareils hautement mobiles, rendue possible grâce à la miniaturisation des systèmes embarqués. Dans ce contexte, l'efficacité énergétique est primordiale puisque les projections actuelles parlent de dizaines de milliards de composants connectés à l'horizon 2020. Or pour une question de facilité de déploiement et d'usage, une grande partie des échanges de données dans ces réseaux s'effectue via une liaison sans-fil dont l'implémentation représente une part importante de la consommation. Effectivement, la question de l'efficacité énergétique est en général considérée comme un problème de perfectionnement des architectures matérielles, souvent associé à une évolution favorable de la technologie. Toutefois, ce paradigme atteint rapidement ses limites puisqu'il implique nécessairement un dimensionnement fortement contraint pour être compatible avec les pires conditions d'utilisation, même si elles ne sont pas effectives la plupart du temps. C'est typiquement le cas avec les communications sans-fil puisque le canal radio est un milieu caractérisé par une forte variabilité en raison des phénomènes de propagation et de la présence d'interférences. Notre étude a donc porté sur la conception d'une chaîne de transmission dont le budget de liaison peut être dynamiquement modifié en fonction de l'atténuation réelle du signal, afin de réduire la consommation du système. La thèse a notamment contribué à la mise au point d'un récepteur auto-adaptatif spécifique à la norme IEEE 802.15.4, en proposant à la fois une architecture de modem numérique reconfigurable et à la fois une méthode de contrôle automatique du point de fonctionnement. Plus précisément, le travail s'est appuyé sur deux approches, l'échantillonnage compressif et l'échantillonnage partiel, pour réduire la taille des données à traiter, diminuant ainsi l'activité interne des opérateurs arithmétiques. En contrepartie, le processus de démodulation nécessite un SNR supérieur, dégradant la sensibilité du récepteur et donc le budget de liaison. Cette solution, portée sur une technologie STMicroelectronics CMOS 65 nm LP, offre une faible empreinte matérielle vis-à-vis d'une architecture classique avec seulement 23,4 kcellules. Grâce au modèle physique du circuit qui a été développé, la consommation pour la démodulation d'un paquet est estimée à 278 uW lorsque le modem est intégralement utilisé. Elle peut toutefois être abaissée progressivement jusqu'à 119 uW, correspondant à une baisse de la sensibilité de 10 dB. Ainsi, le modem implémenté et sa boucle de contrôle permettent d'économiser en moyenne 30 % d'énergie dans un cas d'utilisation typique. / This thesis work takes part in the connected objects theme, also known as the Internet of Things (IoT). It emerges from the Internet democratization since the early 2000's and the shift to highly mobile devices, made possible by the miniaturization of embedded systems. In this context, the energy efficiency is mandatory since today's projections are around tens of billions of connected devices in 2020. However for ease of deployment and usage, a large part of the data transfers in these networks is wireless, which implementation represents a significant part of the power consumption. Indeed, the energy efficiency question is addressed in general as a fine tuning of hardware architectures, which is often associated with a favorable technology evolution. Nevertheless, this design paradigm quickly reached its limits since it necessary implies a highly constrained sizing to be compatible with the worst operating conditions, even if they are not effective most of the time. It's typically the case with wireless communications since the radio channel is a medium characterized by a strong variability due to propagations effects and interferences. Thus, our study focused on the design of a communication chain whose link budget can be dynamically tuned depending on the actual signal attenuation, in order to reduce the system power consumption. The thesis has contributed to the design of a self-adaptive receiver dedicated to IEEE 802.15.4 standard, by proposing both a reconfigurable digital baseband architecture and an automatic control method of the operating mode. More precisely, the work relied on two approaches, the compressive sampling and the partial sampling, to reduce the data's size to process, decreasing the internal activity of arithmetics operators. In return, the demodulation processing needs a higher SNR, degrading in the same time the receiver sensitivity and thus the link budget. This solution, implemented in an STMicroelectronics CMOS 65 nm LP process, offers a low hardware overhead compared to conventional architecture with only 23,4 kgates. Thanks to the circuit physical model that has been developed, the power consumption for a packet demodulation is estimated to 278 uW when the baseband is fully activated. It can however be gradually decreased down to 119 uW, corresponding to a sensitivity reduction of 10 dB. Thus, the proposed digital baseband and its control loop save 30 % of energy in average in a typical use case.
45

Adaptive algorithms for computational chemistry and interactive modeling / Algorithmes adaptatifs pour la chimie numérique et la modélisation interactive

Bosson, Maël 19 October 2012 (has links)
A l'échelle atomique, les outils de modélisation interactive sont de plus en plus nécessaires. Cependant, résoudre les équations de la physique sous-jacente en temps interactif est un défi numérique difficile. Dans cette dissertation, nous proposons des nouveaux algorithmes qui permettent la modélisation interactive de structures chimiques. Tout d'abord, nous présentons un outil de modélisation pour construire des modèles structuraux de systèmes hydrocarbonés. Les retours physiques sont basés sur le potentiel de Brenner. Pour obtenir des taux interactifs lors de l'édition de systèmes contenant un grand nombre d'atomes, nous introduisons un nouvel algorithme adaptatif. Ensuite, nous introduisons ce que nous pensons être le premier algorithme de chimie quantique interactif au niveau de théorie “Atom Superposition and Electron Delocalization Molecular Orbital”. Cette méthode est basée sur une approche diviser-pour-régner qui, comme nous le montrons, est précise et efficace pour cette théorie semi-empirique non auto-cohérente. Nous proposons ensuite une nouvelle approche pour la chimie quantique interactive : “Block-Adaptive Quantum Mechanics” (BAQM). BAQM contraint la position des noyaux et les degrés de liberté électronique à la volée pour simplifier la simulation. Finalement, nous présentons plusieurs applications : une étude de la formation du graphane, la simulation interactive à des fins pédagogiques, et le prototypage virtuel à l'échelle atomique, à la fois sur des ordinateurs de bureau et dans des environnements de réalité virtuelle. / At the atomic scale, interactive physically-based modeling tools are more and more in demand. Unfortunately, solving the underlying physics equations at interactive rates is computationally challenging. In this dissertation, we propose new algorithms that allow for interactive modeling of chemical structures. We first present a modeling tool to construct structural models of hydrocarbon systems. The physically-based feedbacks are based on the Brenner potential. In order to be able to interactively edit systems containing numerous atoms, we introduce a new adaptive simulation algorithm. Then, we introduce what we believe to be the first interactive quantum chemistry simulation algorithm at the Atom Superposition and Electron Delocalization Molecular Orbital (ASED-MO) level of theory. This method is based on the divide-and-conquer (D&C) approach, which we show is accurate and efficient for this non-self-consistent semi-empirical theory. We then propose a novel Block-Adaptive Quantum Mechanics (BAQM) approach to interactive quantum chemistry. BAQM constrains some nuclei positions and some electronic degrees of freedom on the fly to simplify the simulation. 
 Finally, we demonstrate several applications, including one study of graphane formation, interactive simulation for education purposes, and virtual prototyping at the atomic scale, both on desktop computers and in virtual reality environments.
46

Agir en sécurité : le réglé et le géré dans la propulsion nucléaire / Acting in safety : normative and adaptive safety in nuclear propulsion

Masson, Cécile 12 June 2013 (has links)
La mise en place de barrières de sécurité notamment par la standardisation de l’activité des opérateurs a permis au fil des ans d’améliorer significativement la sécurité des systèmes, tels que les installations nucléaires, qui peuvent aujourd’hui être qualifiés de systèmes « ultrasûrs ». La thèse défendue est que la sécurité de ces systèmes s’appuie à la fois sur ces barrières de sécurité mais aussi sur la compétence des opérateurs. Ainsi la sécurité aujourd’hui doit se penser comme l’articulation cohérente d’un ensemble de ressources normatives pour « maîtriser » les risques (la sécurité réglée) et d’un ensemble de ressources adaptatives pour permettre aux opérateurs de faire face à de potentielles situations imprévues (la sécurité gérée). Une étude empirique a été construite pour éclairer cette problématique. Elle met en œuvre des équipes supervisant des systèmes nucléaires similaires mais dans lesquels la place prescrite à l’opérateur dans la gestion de la sécurité n’est pas la même : sur l’un la sécurité normative prévaut ce qui implique la vision d’un opérateur conforme (sans quoi il est « défaillant »), sur l’autre la sécurité adaptative est développée considérant ainsi l’opérateur comme un acteur de la sécurité à part entière. Les résultats obtenus permettent d’identifier une gestion sûre des situations sur les deux systèmes, mais sur la base de comportements d’équipe très différents. Les comportements adaptatifs apparaissent dans les équipes « adaptatives » en cohérence avec l’organisation émergente du travail et avec les modalités formatives. Ces comportements adaptatifs se manifestent aussi dans les équipes « normatives » mais ne sont en revanche soutenus ni par l’organisation du travail ni par les modalités formatives, non constructives. Ces résultats sont discutés en termes de sécurité globale, de « l’agir en sécurité ». / The implementation of safety barriers – particularly through approaches based on the standardization of operator activity – has led, over the years, to significant improvements in the safety of systems such as nuclear power plants. Such systems can be considered today as ultra-safe systems. The thesis defended here posits that system safety lies both in these safety barriers and in the skills of the human operators involved. Safety should, therefore, be viewed as a combination of a consistent set of normative resources in order to control risks (regulated safety), and a set of adaptive resources enabling operators to cope with unexpected situations (adaptive safety). An empirical study was conducted to investigate this question. It focuses on teams supervising two nuclear systems that are similar, but where the role ascribed to the human operator regarding safety management varied. In the first system, normative safety predominates, leading to a vision of operators who must be compliant in order not to be viewed as “defective”. In the second system, adaptive safety is emphasized, and operators are viewed as full-fledged actors of system safety. The results show safe management of situations on both systems. However, this management is based on very different team behaviors. Adaptive behaviors appear in adaptive teams, supported both by the emergent team organization and by a specific training approach. Adaptive behaviors are also visible in normative teams. However, such behavior is at odds with team organization and with the training approach, which can be said to be non-constructive. The results are discussed in terms of global safety and of “safe action”.
47

Solveur parallèle pour l’équation de Poisson sur mailles superposées et hiérarchiques, dans le cadre du langage Python / Parallel solver for the Poisson equation on a hierarchy of superimposed meshes, under a Python framework

Tesser, Federico 11 September 2018 (has links)
Les discrétisations adaptatives sont importantes dans les problèmes de fluxcompressible/incompressible puisqu'il est souvent nécessaire de résoudre desdétails sur plusieurs niveaux, en permettant de modéliser de grandes régionsd'espace en utilisant un nombre réduit de degrés de liberté (et en réduisant letemps de calcul).Il existe une grande variété de méthodes de discrétisation adaptative, maisles grilles cartésiennes sont les plus efficaces, grâce à leurs stencilsnumériques simples et précis et à leurs performances parallèles supérieures.Et telles performance et simplicité sont généralement obtenues en appliquant unschéma de différences finies pour la résolution des problèmes, mais cetteapproche de discrétisation ne présente pas, au contraire, un chemin faciled'adaptation.Dans un schéma de volumes finis, en revanche, nous pouvons incorporer différentstypes de maillages, plus appropriées aux raffinements adaptatifs, en augmentantla complexité sur les stencils et en obtenant une plus grande flexibilité.L'opérateur de Laplace est un élément essentiel des équations de Navier-Stokes,un modèle qui gouverne les écoulements de fluides, mais il se produit égalementdans des équations différentielles qui décrivent de nombreux autres phénomènesphysiques, tels que les potentiels électriques et gravitationnels. Il s'agitdonc d'un opérateur différentiel très important, et toutes les études qui ontété effectuées sur celui-ci, prouvent sa pertinence.Dans ce travail seront présentés des approches de différences finies et devolumes finis 2D pour résoudre l'opérateur laplacien, en appliquant des patchsde grilles superposées où un niveau plus fin est nécessaire, en laissant desmaillages plus grossiers dans le reste du domaine de calcul.Ces grilles superposées auront des formes quadrilatérales génériques.Plus précisément, les sujets abordés seront les suivants:1) introduction à la méthode des différences finies, méthode des volumes finis,partitionnement des domaines, approximation de la solution;2) récapitulatif des différents types de maillages pour représenter de façondiscrète la géométrie impliquée dans un problème, avec un focussur la structure de données octree, présentant PABLO et PABLitO. Le premier estune bibliothèque externe utilisée pour gérer la création de chaque grille,l'équilibrage de charge et les communications internes, tandis que la secondeest l'API Python de cette bibliothèque, écrite ad hoc pour le projet en cours;3) la présentation de l'algorithme utilisé pour communiquer les données entreles maillages (en ignorant chacune l'existence de l'autre) en utilisant lesintercommunicateurs MPI et la clarification de l'approche monolithique appliquéeà la construction finale de la matrice pour résoudre le système, en tenantcompte des blocs diagonaux, de restriction et de prolongement;4) la présentation de certains résultats; conclusions, références.Il est important de souligner que tout est fait sous Python comme framework deprogrammation, en utilisant Cython pour l'écriture de PABLitO, MPI4Py pour lescommunications entre grilles, PETSc4py pour les parties assemblage et résolutiondu système d'inconnues, NumPy pour les objets à mémoire continue.Le choix de ce langage de programmation a été fait car Python, facile àapprendre et à comprendre, est aujourd'hui un concurrent significatif pourl'informatique numérique et l'écosystème HPC, grâce à son style épuré, sespackages, ses compilateurs et pourquoi pas ses versions optimisées pour desarchitectures spécifiques. / Adaptive discretizations are important in compressible/incompressible flow problems since it is often necessary to resolve details on multiple levels,allowing large regions of space to be modeled using a reduced number of degrees of freedom (reducing the computational time).There are a wide variety of methods for adaptively discretizing space, but Cartesian grids have often outperformed them even at high resolutions due totheir simple and accurate numerical stencils and their superior parallel performances.Such performance and simplicity are in general obtained applying afinite-difference scheme for the resolution of the problems involved, but this discretization approach does not present, by contrast, an easy adapting path.In a finite-volume scheme, instead, we can incorporate different types of grids,more suitable for adaptive refinements, increasing the complexity on thestencils and getting a greater flexibility.The Laplace operator is an essential building block of the Navier-Stokes equations, a model that governs fluid flows, but it occurs also in differential equations that describe many other physical phenomena, such as electric and gravitational potentials, and quantum mechanics. So, it is a very importantdifferential operator, and all the studies carried out on it, prove itsrelevance.In this work will be presented 2D finite-difference and finite-volume approaches to solve the Laplacian operator, applying patches of overlapping grids where amore fined level is needed, leaving coarser meshes in the rest of the computational domain.These overlapping grids will have generic quadrilateral shapes.Specifically, the topics covered will be:1) introduction to the finite difference method, finite volume method, domainpartitioning, solution approximation;2) overview of different types of meshes to represent in a discrete way thegeometry involved in a problem, with a focuson the octree data structure, presenting PABLO and PABLitO. The first one is anexternal library used to manage each single grid’s creation, load balancing and internal communications, while the second one is the Python API ofthat library written ad hoc for the current project;3) presentation of the algorithm used to communicate data between meshes (beingall of them unaware of each other’s existence) using MPI inter-communicators and clarification of the monolithic approach applied building the finalmatrix for the system to solve, taking into account diagonal, restriction and prolongation blocks;4) presentation of some results; conclusions, references.It is important to underline that everything is done under Python as programmingframework, using Cython for the writing of PABLitO, MPI4Py for the communications between grids, PETSc4py for the assembling and resolution partsof the system of unknowns, NumPy for contiguous memory buffer objects.The choice of this programming language has been made because Python, easy to learn and understand, is today a significant contender for the numerical computing and HPC ecosystem, thanks to its clean style, its packages, its compilers and, why not, its specific architecture optimized versions.
48

Méthodes adaptatives pour les applications d'accès à l'information centrées sur l'utilisateur / Adaptive Methods for User-Centric Information Access Applications

Lagrée, Paul 12 October 2017 (has links)
Lorsque les internautes naviguent sur le Web, ils laissent de nombreuses traces que nous nous proposons d’exploiter pour améliorer les applications d'accès à l'information. Nous étudions des techniques centrées sur les utilisateurs qui tirent parti des nombreux types de rétroaction pour perfectionner les services offerts aux utilisateurs. Nous nous concentrons sur des applications telles que la recommandation et le marketing d’influence dans lesquelles les utilisateurs génèrent des signaux (clics, "j'aime", etc.) que nous intégrons dans nos algorithmes afin de fournir des services fortement contextualisés. La première partie de cette thèse est consacrée à une approche interactive de la recherche d'information sur les médias sociaux. Le problème consiste à récupérer un ensemble de k résultats dans un réseau social sous la contrainte que la requête peut être incomplète (par exemple, si le dernier terme est un préfixe). Chaque fois que l'utilisateur met à jour sa requête, le système met à jour l'ensemble des résultats de recherche en conséquence. Nous adoptons une interprétation de la pertinence de l'information qui tient compte du réseau, selon laquelle l'information produite par les utilisateurs proches de l'utilisateur faisant la requête est jugée plus pertinente. Ensuite, nous étudions une version générique de la maximisation de l'influence, dans laquelle nous voulons maximiser l'influence des campagnes d'information ou de marketing en sélectionnant de manière adaptative les utilisateurs initiant la propagation de l'information parmi un petit sous-ensemble de la population. Notre approche ne fait aucune hypothèse sur le modèle de diffusion sous-jacent ni même sur la structure du réseau de diffusion. Notre méthode a d'importantes applications dans le marketing d’influence qui vise à s’appuyer sur les influenceurs de réseaux sociaux pour promouvoir des produits ou des idées. Enfin, nous abordons le problème bien connu du démarrage à froid auquel sont confrontés les systèmes de recommandation par une approche adaptative. Si aucune information n’est disponible concernant l'appréciation d’un article, le système de recommandation doit recueillir des signaux (clics, etc.) afin d'estimer la valeur de l'article. Cependant, afin de minimiser les mauvaises recommandations faites aux utilisateurs, le système ne doit pas recueillir ces signaux de façon négligente. Nous introduisons un algorithme dynamique qui vise à alterner intelligemment les recommandations visant à accumuler de l'information et celles s'appuyant sur les données déjà recueillies. / When users interact on modern Web systems, they let numerous footprints which we propose to exploit in order to develop better applications for information access. We study a family of techniques centered on users, which take advantage of the many types of feedback to adapt and improve services provided to users. We focus on applications like recommendation and influencer marketing in which users generate discrete feedback (e.g. clicks, "likes", reposts, etc.) that we incorporate in our algorithms in order to deliver strongly contextualized services. The first part of this dissertation is dedicated to an approach for as-you-type search on social media. The problem consists in retrieving a set of k search results in a social-aware environment under the constraint that the query may be incomplete (e.g., if the last term is a prefix). Every time the user updates his / her query, the system updates the set of search results accordingly. We adopt a "network-aware" interpretation of information relevance, by which information produced by users who are closer to the user issuing a request is considered more relevant. Then, we study a generic version of influence maximization, in which we want to maximize the influence of marketing or information campaigns by adaptively selecting "spread seeds" from a small subset of the population. Influencer marketing is a straightforward application of this, in which the focus of a campaign is placed on precise key individuals who are typically able to reach millions of consumers. This represents an unprecedented tool for online marketing that we propose to improve using an adaptive approach. Notably, our approach makes no assumptions on the underlying diffusion model and no diffusion network is needed. Finally, we propose to address the well-known cold start problem faced by recommender systems with an adaptive approach. If no information is available regarding the user appreciation of an item, the recommender system needs to gather feedback (e.g., clicks) so as to estimate the value of the item. However, in order to minimize "bad" recommendations, a well-designed system should not collect feedback carelessly. We introduce a dynamic algorithm that aims to intelligently achieve the balance between "bad" and "good" recommendations.
49

Processus de la restauration écosystémique au cours de la dynamique post-culturale au Burundi: mécanismes, caractérisation et séries écologiques

Bangirinama, Frédéric 19 August 2010 (has links)
Doctorat en Sciences / info:eu-repo/semantics/nonPublished
50

Gestion des ressources cognitives et stratégies d'adaptation court terme chez les pilotes d'aéronefs / Dynamic cognitive ressources allocation and pilot short-term adaptation strategies

Bey, Christophe 08 December 2016 (has links)
L’industrie aéronautique poursuit depuis de nombreuses années l’objectif d’un niveau optimal de sécurité dans le cadre du transport aérien. En ce qui concerne l’aviation militaire, plus exactement tactique, cette priorité se double d’une recherche de performance de plus en plus élevée et polymorphe. Ce qui caractérise ce type d’aviation, c’est le rapport entre la performance poursuivie et les risques acceptés. Il dépend essentiellement du contexte et des enjeux des missions à réaliser.L’approche facteur humain constitue un levier d’action majeur pour permettre la réalisation de cet enjeu. Ainsi, dans le cadre contraint de l’aéronautique, la conception et la mise au point d’outils permettant d’assister la cognition des équipages demeure une perspective d’avenir même si la formation des pilotes devient également un enjeu majeur pour les prochaines années. Dans ce contexte, la gestion des ressources cognitives, et plus particulièrement les stratégies spécifiques de gestion mises en place par les pilotes, sont centrales au processus de prise de décision sous contraintes.Dans une démarche de recherche et d’ingénierie en cognitique, nous avons entrepris une étude impliquant des pilotes et permettant la compréhension de ces mécanismes ainsi que la production de recommandations pour la conception d’outil d’aide à la gestion de leurs ressources cognitives. A partir de l’analyse du retour d’expériences, et sur la base des résultats d’une approche expérimentale préliminaire, nous avons construit un protocole pour mettre en évidence les stratégies mises en place par les pilotes, dans le cadre d’une activité réelle, lors de la descente et de l’approche finale sur l’aéroport de Clermont-Ferrand avec une panne critique. Les résultats expérimentaux conciliés à nos hypothèses de compréhension sur la gestion des ressources cognitives et les stratégies de gestion, achèvent notre analyse et nos recommandations pour un outil d’aide à la gestion des ressources des pilotes.14 équipages d’Airbus A400M de l’armée de l’air ont participés à cette évaluation en simulateur. / The aviation industry has for many years pursued the objective of an optimum level of safetyin the air transport sector. With regard to military aviation, more precisely tactical, thispriority is coupled with an increasingly high and polymorphic search for performance. Whatcharacterize this type of aviation is the relationship between the performance pursued and theaccepted risks. It depends essentially on the context and the stakes of the missions to becarried out.The human factor approach is a major leverage for achieving this challenge. Thus, within theconstrained domain of aeronautics, the design and development of tools to assist crewcognition remains a prospect for the future, even if pilot training also becomes a majorchallenge for the coming years. In this context, the management of cognitive resources, and inparticular the specific management strategies put in place by the pilots, are central to thedecision-making process under constraints.In a research and engineering approach in cognition, we undertook a study involving pilotsand allowing the understanding of these mechanisms as well as the production ofrecommendations for the design of tools to help manage their cognitive resources. On thebasis of the analysis of feedback, and results of a preliminary experimental approach, we havebuilt a protocol to highlight the strategies implemented by the pilots in the context of anactivity during the descent and the final approach on the Clermont-Ferrand airport with acritical breakdown. The experimental results reconciled with our understanding hypotheseson the management of cognitive resources and management strategies, complete our analysisand recommendations for a tool to help manage the resources of the pilots.

Page generated in 0.0898 seconds