• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 339
  • 196
  • 43
  • 1
  • Tagged with
  • 567
  • 307
  • 119
  • 69
  • 63
  • 61
  • 57
  • 57
  • 56
  • 54
  • 50
  • 48
  • 45
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Science des données au service des réseaux d'opérateur : proposition de cas d’utilisation, d’outils et de moyens de déploiement / Data science at the service of operator networks

Samba, Alassane 29 October 2018 (has links)
L'évolution des télécommunications amené aujourd'hui à un foisonnement des appareils connectés et une massification des services multimédias. Face à cette demande accrue de service, les opérateurs ont besoin d'adapter le fonctionnement de leurs réseaux, afin de continuer à garantir un certain niveau de qualité d'expérience à leurs utilisateurs. Pour ce faire, les réseaux d'opérateur tendent vers un fonctionnement plus cognitif voire autonomique. Il s'agit de doter les réseaux de moyens d'exploiter toutes les informations ou données à leur disposition, les aidant à prendre eux-mêmes les meilleures décisions sur leurs services et leur fonctionnement, voire s'autogérer. Il s'agit donc d'introduire de l'intelligence artificielle dans les réseaux. Cela nécessite la mise en place de moyens d'exploiter les données, d'effectuer surelles de l'apprentissage automatique de modèles généralisables, apportant l’information qui permet d'optimiser les décisions. L'ensemble de ces moyens constituent aujourd'hui une discipline scientifique appelée science des données. Cette thèse s'insère dans une volonté globale de montrer l'intérêt de l'introduction de la science des données dans différents processus d'exploitation des réseaux. Elle comporte deux contributions algorithmiques correspondant à des cas d'utilisation de la science des données pour les réseaux d'opérateur, et deux contributions logicielles, visant à faciliter, d'une part l'analyse, et d'autre part le déploiement des algorithmes issus de la science des données. Les résultats concluants de ces différents travaux ont démontré l'intérêt et la faisabilité de l'utilisation de la science des données pour l'exploitation des réseaux d'opérateur. Ces résultats ont aussi fait l'objet de plusieurs utilisations par des projets connexes. / The evolution of telecommunications has led today to a proliferation of connected devices and a massification of multimedia services. Faced with this increased demand for service, operators need to adapt the operation of their networks, in order to continue to guarantee a certain level of quality of experience to their users. To do this, operator networks tend towards a more cognitive or autonomic functioning. It is about giving the networks the means to exploit all the information or data at their disposal, helping them to make the best decisions about their services and operations,and even self-manage. It is therefore a questionof introducing artificial intelligence into networks. This requires setting up means to exploit the data, to carry out on them the automatic learning of generalizable models, providing information that can optimize decisions. All these means today constitute a scientific discipline called data science. This thesis fits into a global desire to show the interest of the introduction of data science in different network operating processes. It inlcudes two algorithmic contributions corresponding to use cases of data science for the operator networks, and two software contributions, aiming to facilitate,on the one hand, the analysis, and on the other hand the deployment of the algorithms produced through data science. The conclusive results of these various studies have demonstrated the interest and the feasibility of using data science for the exploitation of operator networks. These results have also been used by related projects.
52

Stochastic modelling of flood phenomena based on the combination of mechanist and systemic approaches

Boutkhamouine, Brahim 14 December 2018 (has links) (PDF)
Flood forecasting describes the rainfall-runoff transformation using simplified representations. These representations are based on either empirical descriptions, or on equations of classical mechanics of the involved physical processes. The performances of the existing flood predictions are affected by several sources of uncertainties coming not only from the approximations involved but also from imperfect knowledge of input data, initial conditions of the river basin, and model parameters. Quantifying these uncertainties enables the decision maker to better interpret the predictions and constitute a valuable decision-making tool for flood risk management. Uncertainty analysis on existing rainfall-runoff models are often performed using Monte Carlo (MC)- simulations. The implementation of this type of techniques requires a large number of simulations and consequently a potentially important calculation time. Therefore, quantifying uncertainties of real-time hydrological models is challenging. In this project, we develop a methodology for flood prediction based on Bayesian networks (BNs). BNs are directed acyclic graphs where the nodes correspond to the variables characterizing the modelled system and the arcs represent the probabilistic dependencies between these variables. The presented methodology suggests to build the RBs from the main hydrological factors controlling the flood generation, using both the available observations of the system response and the deterministic equations describing the processes involved. It is, thus, designed to take into account the time variability of different involved variables. The conditional probability tables (parameters), can be specified using observed data, existing hydrological models or expert opinion. Thanks to their inference algorithms, BN are able to rapidly propagate, through the graph, different sources of uncertainty in order to estimate their effect on the model output (e.g. riverflow). Several case studies are tested. The first case study is the Salat river basin, located in the south-west of France, where a BN is used to simulate the discharge at a given station from the streamflow observations at 3 hydrometric stations located upstream. The model showed good performances estimating the discharge at the outlet. Used in a reverse way, the model showed also satisfactory results when characterising the discharges at an upstream station by propagating back discharge observations of some downstream stations. The second case study is the Sagelva basin, located in Norway, where a BN is used to simulate the accumulation of snow water equivalent (SWE) given available weather data observations. The performances of the model are affected by the learning dataset used to train the BN parameters. In the absence of relevant observation data for learning, a methodology for learning the BN-parameters from deterministic models is proposed and tested. The resulted BN can be used to perform uncertainty analysis without any MC-simulations to be performed in real-time. From these case studies, it appears that BNs are a relevant decisionsupport tool for flood risk management.
53

Pourquoi sauver Willy ? : Épistémologie synthétique de la prédiction en écologie des communautés / Why free Willy? : Synthetical epistemology of prediction in community ecology

Calba, Sarah 15 December 2014 (has links)
Je vous propose à travers la lecture de cette thèse d'entreprendre un voyage épistémologique, un déplacement hors de votre lieu de résidence (et de recherche) habituel, un passage du "comment", donc de la résolution de questions pragmatiques, au "pourquoi", à la définition des finalités de la recherche scientifique. Ce voyage doit être vécu comme une aventure, une tentative difficile et périlleuse au cours de laquelle vous serez amené à défier l'autorité d'un Grand Partage régnant sur les mers épistémologiques, légitimant la connaissance vraie et justifiée au détriment de la croyance et de l'opinion. Ce départage opposera au réalisme une posture constructiviste et relativiste affirmationniste concevant la recherche scientifique non comme un progrès dans la découverte du réel ou vers une vérité universelle mais comme la confrontation de points de vue donnant lieu à des définitions communes, des représentations partagées. S'en suivra une escale sur l'île de l'écologie des communautés, où l'étude des prédictions produites par les écologues illustrera deux types de recherche : l'une, qualifiée d'analytique, vise à fournir des explications du réel par la décomposition et la simplification ; l'autre, qualifiée de synthétique, veut la compréhension par la mise en lien. Alors que la première utilise un langage exclusif, engendrant un double mouvement d'exclusion et d'esquive de certaines questions, la seconde discute par le biais d'un langage coélitaire, créant de la complexité, de l'épaississement pour reconfigurer notre connaissance du monde afin de susciter des questions subjectivement neuves. Ce voyage aboutira à la proposition d'une nouvelle architecture pour la maison écologie alors engagée dans une recherche synthétique. / With this thesis, I propose that you undertake an epistemological travel to move outside your usual place of residence (and of research), a transition from the “how”, so from the resolution of practical issues, to the “why” and the definition of the purposes of scientific research. This travel must be experienced as an adventure, a difficult and dangerous attempt during which you will defy the authority of a Grand Partage prevailing on the epistemological seas, legitimizing a true and justified knowledge to the detriment of belief and opinion. This will oppose a realist position to a constructivist and relativist affirmationist position seeing scientific research not as one step in the discovery of the real or of a universal truth but as the confrontation of points of view leading to common definitions and shared representations. Will follow a stopover on the island of community ecology, where the study of different kinds of predictions produced by ecologists is used to illustrate two types of research: one is called “analytical” and aims to provide explanations of reality by decomposition and simplification; the other one, called “synthetical” intends to understand by setting links. While the first uses an exclusive language, generating a double movement of exclusion and avoidance of some questions, the second discusses through a coélitaire language, creating complexity and thickening to reconfigure our knowledge of the world to generate questions that are subjectively new. This travel will finally lead to the proposal of a new architecture for the home of ecology engaged in a synthetical research.
54

Quelques questions de sélection de variables autour de l'estimateur LASSO

Hebiri, Mohamed 30 June 2009 (has links) (PDF)
Le problème général étudié dans cette thèse est celui de la régression linéaire en grande dimension. On s'intéresse particulièrement aux méthodes d'estimation qui capturent la sparsité du paramètre cible, même dans le cas où la dimension est supérieure au nombre d'observations. Une méthode populaire pour estimer le paramètre inconnu de la régression dans ce contexte est l'estimateur des moindres carrés pénalisés par la norme ℓ1 des coefficients, connu sous le nom de LASSO. Les contributions de la thèse portent sur l'étude de variantes de l'estimateur LASSO pour prendre en compte soit des informations supplémentaires sur les variables d'entrée, soit des modes semi-supervisés d'acquisition des données. Plus précisément, les questions abordées dans ce travail sont : i) l'estimation du paramètre inconnu lorsque l'espace des variables explicatives a une structure bien déterminée (présence de corrélations, structure d'ordre sur les variables ou regroupements entre variables) ; ii) la construction d'estimateurs adaptés au cadre transductif, pour lequel les nouvelles observations non étiquetées sont prises en considération. Ces adaptations sont en partie déduites par une modification de la pénalité dans la définition de l'estimateur LASSO. Les procédures introduites sont essentiellement analysées d'un point de vue non-asymptotique ; nous prouvons notamment que les estimateurs construits vérifient des Inégalités de Sparsité Oracles. Ces inégalités ont pour particularité de dépendre du nombre de composantes non-nulles du paramètre cible. Un contrôle sur la probabilité d'erreur d'estimation du support du paramètre de régression est également établi. Les performances pratiques des méthodes étudiées sont par ailleurs illustrées à travers des résultats de simulation.
55

Géolocalisation et prédiction dans les réseaux Wi-Fi en intérieur

Lassabe, Frédéric 21 April 2009 (has links) (PDF)
La démocratisation des terminaux mobiles et l'accroissement des débits disponibles permettent d'envisager de nouvelles applications, en particulier relatives au contextes. Celles-ci nécessitent d'assurer la continuité des services et la détection de la position du terminal mobile. Nous proposons d'une part la géolocalisation des terminaux et, d'autre part, la prédiction de la mobilité.<br /><br />Les systèmes satellites ne fonctionnant pas à l'intérieur des bâtiments, nous basons nos travaux sur les réseaux Wi-Fi. Deux méthodologies se démarquent pour localiser un terminal Wi-Fi : l'une repose sur une cartographie des puissances, l'autre repose sur le calcul des distances entre le terminal et des points dont les coordonnées sont connues. Chaque modèle ayant ses points faibles, nous les avons combinés pour améliorer la précision finale.<br /><br />Nous proposons un premier modèle qui calcule les distances entre le terminal mobile et des points d'accès en se basant sur la puissance du signal reçu. Il en déduit la position du terminal par calcul. Le second modèle proposé restreint la recherche à une zone homogène grâce à la cartographie des puissances avant d'utiliser le premier modèle.<br /><br />Nous avons expérimenté nos modèles ainsi que les modèles fondamentaux de l'état de l'art en étendant leurs conditions d'application. Les résultats des systèmes basés sur la propagation des ondes sont de l'ordre de 9 à 15 mètres d'erreur. Les modèles basés sur une cartographie permettent quant-à-eux d'atteindre une précision de l'ordre de 3 à 7 mètres selon les conditions.<br /><br />L'historique des positions permet à un système d'apprentissage d'acquérir un modèle des déplacements des terminaux puis de prédire les déplacements futurs par l'étude et la comparaison du modèle obtenu à des déplacements ultérieurs. Nous avons proposé en particulier d'employer les chaînes de Markov et les réseaux bayésiens pour effectuer l'apprentissage et la prédiction de la mobilité. Nous avons enrichi ces modèles d'un seuil qui détermine le choix des politiques à appliquer en fonction des déplacements du terminal. La précision de nos modèles est variable en fonction des paramètres d'ordre et de seuil mais permet d'atteindre des taux de réussite de la prédiction de 75%. Cette précision permet d'envisager l'anticipation des handovers et l'application d'une politique appropriée.
56

Modélisation du mouvement des quadrupèdes à partir de la vidéo

Favreau, Laurent 30 November 2006 (has links) (PDF)
Les animaux sont de plus en plus présents dans les effets spéciaux au cinéma et dans les films d'animation 3D. Les quadrupèdes en particulier, de par la richesse et de l'esthétique de leurs mouvement, sont souvent l'objet de création de personnages virtuels. L'objectif de cette thèse est d'utiliser la vidéo, et surtout des documentaires animaliers, pour créer des animaux virtuels capables de mouvements réalistes. Dans un premier temps, nous proposons de construire des squelettes d'animation de quadrupèdes à partir d'images. Nous montrons tout d'abord comment reconstruire un squelette réel à partir de plusieurs images. Ensuite, nous construisons un modèle déformable de squelette de quadrupède qui permet de de créer un squelette d'animation rapidement à partir d'une image ou d'un modèle 3D de l'animal à animer. Dans un second temps, nous proposons des méthodes permettant d'animer des quadrupèdes à partir de séquences vidéo. Nous présentons tout d'abord une technique d'animation de mouvements cycliques à partir de vidéo, qui permet notamment de choisir automatiquement les images-clés à partir d'une vidéo. Ensuite, nous proposons une nouvelle méthode d'analyse de vidéos qui permet d'identifier les différentes allures utilisées par l'animal, ainsi que les transitions entre allures.
57

Acquisition automatique de sens pour la désambiguïsation et la sélection lexicale en traduction

Apidianaki, Marianna 05 September 2008 (has links) (PDF)
Le travail présenté dans cette thèse explore la question de l'acquisition automatique de sens pour la désambiguïsation lexicale dans un cadre de traduction. Partant de l'hypothèse du besoin de conformité des inventaires sémantiques utilisés pour la désambiguïsation dans le cadre d'applications précises, la problématique du repérage des sens se situe dans un cadre bilingue et le traitement s'oriente vers la traduction. <br />Nous proposons une méthode d'acquisition de sens permettant d'établir des correspondances sémantiques de granularité variable entre les mots de deux langues en relation de traduction. L'induction de sens est effectuée par une combinaison d'informations distributionnelles et traductionnelles extraites d'un corpus bilingue parallèle. La méthode proposée étant à la fois non supervisée et entièrement fondée sur des données, elle est, par conséquent, indépendante de la langue et permet l'élaboration d'inventaires sémantiques relatifs aux domaines représentés dans les corpus traités. <br />Les résultats de cette méthode sont exploités par une méthode de désambiguïsation lexicale, qui attribue un sens à de nouvelles instances de mots ambigus en contexte, et par une méthode de sélection lexicale, qui propose leur traduction la plus adéquate. On propose finalement une évaluation pondérée des résultats de désambiguïsation et de sélection lexicale, en nous fondant sur l'inventaire construit par la méthode d'acquisition de sens.
58

Prédiction de la localisation cellulaire des protéines à l'aide de leurs séquences biologiques.

Richard, Hugues 15 December 2005 (has links) (PDF)
Les compartiments cellulaires, de par les frontières membranaires qui les définissent, permettent l'accomplissement de taches métaboliques diverses au sein de la cellule. Cette spécialisation en domaines intracellulaires induit donc une différentiation dans la fonction des protéines qui les composent. Le grand nombre de gènes orphelins produits ces dernières années par les projets de séquençage motive la mise au point de méthodes efficaces pour la prédiction ab-initio de la localisation cellulaire des protéines.<br /><br />Ainsi la majorité de ce travail de thèse s'intéresse au problème de la prédiction du compartiment cellulaire d'une protéine à partir de sa séquence primaire.<br /><br />Nous nous sommes attachés à proposer des alternatives descriptives aux méthodes existantes de prédiction de la localisation cellulaire en utilisant : (1) de nouveaux descripteurs issus de la séquence nucléique, (2) une approche par chaînes de Markov cachées (CMC) et arbres de décision. L'approche par CMC est justifiée biologiquement a posteriori car elle permet la modélisation de signaux d'adressage conjointement à la prise en compte de la composition globale. En outre, l'étape de classification hiérarchique par arbre améliore nettement les résultats de classification. Les résultats obtenues lors des comparaisons avec les méthodes existantes et utilisant des descripteurs fondés sur la composition globale possèdent des performances similaires.
59

Méthodes de théorie des jeux pour la prédiction de la structure 3D de l'ARN

Lamiable, Alexis 09 December 2011 (has links) (PDF)
L'objectif de cette thèse est la prédiction de la structure tertiaire des molécules d'ARN à partir de leurs séquences. L'approche présentée repose sur l'observation que leur repliement est hiérarchique et modulaire ; elle consiste, dans un premier temps, en l'extraction de ces modules (les hélices et jonctions entre hélices) et en leur classification en familles topologiques puis, dans un second temps, en une étape d'optimisation pour réunir chacun de ces modules autonomes en une molécule repliée sur elle-même et stable. Ce repliement repose sur une approche algorithmique de la théorie des jeux. Nous présentons une modélisation du repliement comme un jeu, une fonction de coût associée, et plusieurs heuristiques de recherche d'équilibre de Nash.
60

Prédiction de comportement d'applications parallèles et placement à l'aide de modèles économiques sur une grille de calcul

Miegemolle, Bernard 11 September 2008 (has links) (PDF)
Une des solutions les plus prometteuses actuellement à la course à la puissance de traitement consiste à créer des grilles. Néanmoins, leur utilisation optimale n'est pas encore atteinte dû notamment à la complexité que ce support d'exécution amène pour les administrateurs et utilisateurs. Cette thèse se concentre sur la gestion des ressources composant une grille de calcul. Nous montrons comment traiter ce problème à l'aide de paradigmes économiques. Nous définissons un modèle économique permettant de gérer les ressources d'une grille. Ce modèle propose d'associer un coût à chacune des machines de la grille. Le placement d'une application est assimilé à un problème d'optimisation non-linéaire sous contraintes et à variables entières, pour lequel le choix des machines à utiliser doit minimiser un compromis entre le temps d'exécution de l'application et son coût. Une implémentation de ce modèle à l'aide d'un algorithme génétique est proposée, de même que son intégration au sein de l'ordonnanceur OAR utilisé sur Grid'5000. Dans une seconde partie de la thèse, des travaux ont été effectués dans le domaine de la prédiction du temps d'exécution d'une application. Nous définissons une méthode hybride de prédiction basée à la fois sur le profil des applications ainsi que sur un historique d'exécutions passées, combinant une analyse de la structure du programme à une méthode d'apprentissage basé sur des instances. Nous montrons notamment que la prise en compte du profil des applications améliore les prédictions réalisées au moyen de méthodes classiques basées seulement sur des historiques d'exécutions passées.

Page generated in 0.0917 seconds