• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 153
  • 78
  • 21
  • Tagged with
  • 254
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

La gestion du trafic P2P dans les réseaux modernes : mesure, identification et contrôle

Valenti, Silvio 21 September 2011 (has links) (PDF)
Suite à la diffusion des applications P2P et en particulier du video P2P, le trafic P2P représente déjà une portion importante de la totalité du trafic sur Internet. Dans ce contexte cette thèse propose des nouveaux outils pour mesurer, identifier et contrôler le trafic P2P. Concernant la classification de trafic, vue l'inefficacité des techniques traditionnelles, nous proposons un nouveau classificateur comportemental, Abacus, spécifique pour les applications P2P-TV. Nos expériences prouvent que Abacus, bien qu'il soit basé sur la simple mesure du numéro des paquets et octets échanges par un hôte, fourni une solution légère et efficace pour l'identification des applications P2P. En suite, nous évaluons l'impact de la réduction des données, due à l'utilisation très commune de Netflow et de l'échantillonnage à niveau paquet, sur la classification de trafic. Nous montrons que Abacus peut être adapté à utiliser ce type des données, et que même si l'échantillonnage de paquets cause une dégradation importante de la qualité des mesurés, cependant la classification reste possible si l'apprentissage du classificateur est fait avec des données eux même échantillonnées. En fin, nous étudions un nouveau type de protocole de transport pour les applications P2P, LEDBAT, proposé et utilisé par la version officielle de BitTorrent. Ce protocole, basé sur le délai, veut implémenter un transport a basse priorité. Nous montrons que LEDBAT atteinte son objectif, mais qu'il souffre d'un problème d'équité entre flux du même type: nous identifions la cause de ce problème et proposons des solutions efficaces, qui rétablissent l'équité.
42

Extension et interrogation de résumés de flux de données

Gabsi, Nesrine 31 May 2011 (has links) (PDF)
Au cours de ces dernières années, un nouvel environnement s'est développé dans lequel les données doivent être collectées et traitées instantanément dès leur arrivée. La gestion de cette volumétrie nécessite la mise en place d'un nouveau modèle et de nouvelles techniques de traitements de l'information. Il s'agit du traitement des flux de données. Ces derniers ont la particularité d'être continus, évolutifs, volumineux et ne peuvent être stockés, dans leur intégralité, en tant que données persistantes. Plusieurs travaux de recherche se sont intéressés à cette problématique ce qui a engendré l'apparition des systèmes de gestion de flux de données (SGFD). Ces systèmes permettent d'exprimer des requêtes continues qui s'évaluent au fur et à mesure sur un flux ou sur des fenêtres (sous ensembles finis du flux). Toutefois, dans certaines applications, de nouveaux besoins peuvent apparaître après le passage des données. Dans ce cas, le système ne peut répondre aux requêtes posées car toutes les données n'appelant aucun traitement sont définitivement perdues. Il est ainsi nécessaire de conserver un résumé du flux de données. De nombreux algorithmes de résumé ont été développés. Le choix d'une méthode de résumé particulière dépend de la nature des données à traiter et de la problématique à résoudre. Dans ce manuscrit, nous nous intéressons en premier lieu à l'élaboration d'un résumé généraliste permettant de créer un compromis entre la vitesse de construction du résumé et la qualité du résumé conservé. Nous présentons une nouvelle approche de résumé qui se veut performance face à des requêtes portant sur des données du passé lointain. Nous nous focalisons par la suite sur l'exploitation et l'accès aux évènements du flux conservés dans ces résumés. Notre objectif consiste à intégrer les structures de résumés généralistes dans l'architecture des SGFD existantes de façon à étendre le champ de requêtes possibles. A cet effet, l'évaluation des requêtes qui font appel aux données du passé lointain d'un flux (i.e. données expirées de la mémoire du SGFD) serait possible au même titre que les requêtes posées sur le passé proche d'un flux de données. Nous présentons deux approches permettant d'atteindre cet objectif. Ces approches se différencient par le rôle que détient le module de résumé lors de l'évaluation d'une requêtes.
43

Agile Bandpass Sampling RF Receivers for low power Applications

Lolis, Luis 11 March 2011 (has links) (PDF)
Les nouveaux besoins en communications sans fil pussent le développement de systèmes de transmission RF en termes the reconfigurabilité, multistandard et à basse consommation. Cette thèse propose d'une nouvelle architecture de réception capable d'adresser ces aspects. Le sous échantillonnage est appliquée et permet d'exploiter et certain nombre d'avantages liées au traitement du signal à Temps Discret, notamment le filtrage et la décimation, permettant de relâcher les contraintes liées aux ADCs en maintenant des caractéristiques multistandard et de reconfigurabilité. Un simulateur large bande développé et une nouvelle méthode ce conception système permettent répondre à des limitations au niveau système comme le repliement spectral, séparer les différentes contributions dans la dégradation du SNDR, séparer les différentes contraintes des blocs pour la définition d'un plan de fréquence et the filtrage optimaux. L'architecture à sous échantillonnage proposée dans la thèse est résultat d'une comparaison quantitative des différentes architectures à sous échantillonnage, tout en appliquant la méthode et l'outil de conception système développés; et représente le meilleur compromis entre la consommation électrique et l'agilité, dans le contexte voulu. Le bloc de filtrage à temps discret est identifié comme étant critique. Des effets come les capacités parasites, l'imparité entre les capacités, le bruit du commutateur, le gain finit de Ampli OP, sont évalués à travers d'une simulation comportementale en VHDL-AMS. On observe la robustesse des circuits orientés temps discret par rapport les contraintes des nouvelles technologies intégrés. Finalement, le système est spécifié en termes de bruit de phase, qui peuvent représenter jusqu'à 30% de la consommation en puissance. Dans ce but, une nouvelle méthode numérique est proposée pour évaluer le rapport signal sur distorsion due au jitter SDjR dans le processus de sous échantillonnage. En plus, une conclusion non intuitive est survenue de cette étude, où on que réduire la fréquence d'échantillonnage n'augmente pas les contraintes en termes de jitter pour le système. L'architecture proposée issue de cette étude est sujet d'un développement circuit pour la validation du concept.
44

Échantillonnage non uniforme appliqué à la numérisation des signaux radio multistandard

Ben romdhane, Manel 07 February 2009 (has links) (PDF)
Cette thèse de Doctorat s'inscrit dans le domaine de la conception de circuits innovants pour la numérisation des signaux radio multistandard. La nouveauté dans ce travail de recherche provient de l'exploration, pour la première fois dans le domaine des systèmes radio, de l'apport de l'utilisation des techniques d'échantillonnage non uniforme (NUS, Non Uniform Sampling). L'innovation de recherche apportée concerne l'établissement de formulations analytiques pour le calcul des métriques d'évaluation des performances de la technique NUS et pour le dimensionnement d'un nouveau récepteur radio multistandard avec un convertisseur analogique numérique (ADC, Analog-to-Digital Converter) contrôlé par une horloge non uniforme. Les résultats de cette étude ont conduit à la synthèse d'un filtre anti-repliement unique pour les standards GSM/UMTS/WiFi et à la diminution la fréquence moyenne d'échantillonnage de l'ADC ce qui a permis de diminuer la consommation de puissance de l'ADC et d'éliminer le circuit du contrôle automatique de gain (AGC). L'étude analytique et la conception niveau système ont été complétées par la proposition d'une architecture numérique originale de génération d'horloge non uniforme permettant de s'affranchir des contraintes et limitations des oscillateurs non uniformes proposés dans la littérature. Ce circuit Pseudorandom Signal Sampler (PSS) a fait l'objet d'une synthèse et d'une validation préliminaire sur FPGA puis la conception d'un circuit VLSI en technologie CMOS numérique 65 nm. Les résultats d'implémentation du PSS ont permis d'obtenir, pour un facteur de quantification temporelle égal à 16, une surface active de 470 (µm)², des fréquences moyennes d'échantillonnage pouvant atteindre 200 MHz basées sur un synthétiseur de fréquence qui offre des fréquences jusqu'à 3.2 GHz et enfin une consommation de puissance de 1.45 à 290.4 µW pour des fréquences d'échantillonnage moyennes allant de 1 MHz à 200 MHz. Une validation expérimentale de l'étage de numérisation proposé a été effectuée grâce à la réalisation d'une plate-forme de test composée du circuit générateur PSS dont la sortie contrôle un ADC auquel est appliqué en entrée un signal sinusoïdal de test et d'un PC pour l'acquisition par FIFO mais aussi pour le traitement des données. Les résultats des tests expérimentaux obtenus ont permis de confirmer les résultats théoriques en termes de diminution de la consommation de l'ADC.
45

Méthodes de Bootstrap en population finie

Chauvet, Guillaume 14 December 2007 (has links) (PDF)
Cette thèse est consacrée aux méthodes de Bootstrap pour unepopulation ?nie. Le premier chapitre introduit quelques rappels sur l'échantillonnage et propose une présentation synthétique des principales méthodes d'estimation de précision. Le chapitre 2 rappelle les méthodes de Bootstrap proposées pour un sondage aléatoire simple et introduit deux nouvelles mé thodes. Le chapitre 3 donne un nouvel algorithme de Bootstrap, consistant pour l'estimation de variance d'un estimateur par substitution dans le cas d'un tirage à forte entropie. Dans le chapitre 4, nous introduisons la notion d'échantillonnage équilibré et proposons un algorithme rapide. Nous montrons que l'algorithme de Bootstrap proposé est également consistant pour l'estimation de variance d'un tirage équilibré à entropie maximale. Le cas d'un échantillonnage complexe et celui d'un redressement est traité au chapitre 5. Une application au Nouveau Recensement de la population est donnée dans le chapitre 6.
46

Étude de l'applicabilité des POCIS (Polar Organic Chemical Integrative Sampler) au dosage des résidus de médicaments dans les effluents hospitaliers

Bailly, Emilie 08 April 2013 (has links) (PDF)
L'évaluation des risques environnementaux et sanitaires liés à la présence de résidus de médicaments dans l'environnement, représente un enjeu majeur en particulier au regard de la gestion du cycle des usages de l'eau. Les effluents des établissements de soins représentent une source non négligeable de pollution et justifient le développement de techniques spécifiques de mesures des émissions de résidus de médicaments dans leurs eaux usées. Dans le cadre de ces développements de méthode, l'échantillonnage représente une des difficultés majeures car la matrice brute des eaux en sortie des hôpitaux est très chargée en matières organiques, les débits sont extrêmement variables, les sites de prélèvement sont difficiles d'accès et il existe une forte variabilité des dispensations des traitements jour/nuit et semaine/week-ends. Les échantillonneurs intégratifs apparus récemment, offrent une alternative intéressante aux stratégies d'échantillonnage existantes, permettant d'effectuer un suivi moyenné sur de longues périodes d'observation associé à une simplicité d'usage et une réduction des coûts. Ce travail porte sur l'étude de l'applicabilité des échantillonneurs intégratifs POCIS (Polar Organic Chemical Integrative Sampler) au dosage des résidus de médicaments dans les effluents hospitaliers. Ce dispositif a principalement été utilisé dans les eaux de surface et les effluents de STEP et son application dans les eaux usées reste rare. 6 molécules déjà identifiées comme représentatives des grandes familles de médicaments utilisés à l'hôpital (Aténolol, Prednisolone, Méthylprednisolone, Sulfaméthoxazole, Ofloxacine, Kétoprofène) ont été retenues.Les cinétiques d'adsorption des molécules sur les POCIS ont été suivies en laboratoire en condition de maitrise des paramètres les plus influents : température, vitesse de l'eau, charge en matière organique, colmatage...Ce calibrage a pour but de déterminer le coefficient d'échantillonnage Rs (L/j) spécifique à chaque molécule et nécessaire au calcul de la concentration dans le milieu d'exposition du POCIS. Nous avons observé une augmentation des Rs quand la vitesse de l'eau augmente ou quand la température augmente. Dans les eaux usées, la valeur de Rs est plus faible et la durée de la phase linéaire est réduite comparée à l'eau du robinet. Pour ce type d'application, la période d'exposition ne devra pas dépasser 4 à 5 jours en raison du colmatage des membranes et d'une teneur élevée en particules organiques dissoutes. Après calibrage dans l'eau du robinet et dans l'eau usée, les POCIS ont été exposés in situ dans un effluent hospitalier pour mesurer les concentrations en 6 molécules ciblées. Cinq ont pu être quantifiées et les concentrations calculées à partir des extraits des POCIS sont concordantes avec celles obtenues par prélèvement direct d'un échantillon moyenné d'eaux usées. Le facteur limitant réside dans les difficultés d'accès au site et la présence de solides dans le collecteur d'eaux usées. Ce travail ouvre des perspectives quant à l'application des POCIS pour les effluents hospitaliers et pourra à terme contribuer à l'acquisition de données pour une meilleure surveillance des rejets.
47

Détourage interactif de photographies d'Intérêt général

Bertier, Marc 01 July 1983 (has links) (PDF)
Dans un premier temps, nous mettrons en valeur le contexte technologique matériel et surtout logiciel qui permet aujourd'hui le développement de systèmes de mise en page pour les métiers de l'édition(§ I.1). Dans cette perspective, apparaîtront d'eux mêmes, la motivation et l'intérêt pratique présentés par l'étude détaillée du détourage, opération fondamentale qui consiste à extraire d'une photographie l'image d'un objet y figurant (§ I.2). Nous aborderons, dans la suite de ce chapitre une présentation plus technique des difficultés soulevées par l'automatisation du détourage. Plus précisément, nous présenterons le problème comme relevant à la fois de la segmentation et de l'interprétation d'image (§ I.3).
48

Procédé structurel de lecture optique multipolice

Tripon, Nicolas 09 October 1981 (has links) (PDF)
Presque aussi ancienne que l'informatique elle-même la lecture optique automatique a maintenant plus de trente ans. Comme l'informatique, elle a connu une évolution constante les systèmes lourds, peu flexibles et entièrement câblés du début laissent peu à peu la place à d'autres beaucoup plus légers, flexibles (orientés multipolice) et plus faciles à mettre en oeuvre (logique programmée). Deux facteurs en sont responsables. - Le premier a trait aux algorithmes employés : les premiers algorithmes, inspirés des méthodes connues de détection des signaux radio, ont laissé la place à des algorithmes basés sur l'analyse des caractères ; la structure de ceux-ci variant peu d'une police à l'autre, les machines deviennent du coup multipolice. - Le second est un facteur proprement technologique : l'avènement du microprocesseur. Il permet d'augmenter l'intelligence des algorithmes en les distribuant sur les différentes parties d'un même système. Les machines construites autour d' un seul processeur sont ainsi remplacées par d'autres, aussi rapides mais plus fiables et plus compactes, ayant une structure multiprocesseur.
49

Estimation de la moyenne et de la variance de l'abondance de populations en écologie à partir d'échantillons de petite taille

Vaudor, Lise 25 January 2011 (has links) (PDF)
En écologie comme dans bien d'autres domaines, les échantillons de données de comptage comprennent souvent de nombreux zéros et quelques abondances fortes. Leur distribution est particulièrement surdispersée et asymétrique. Les méthodes les plus classiques d'inférence sont souvent mal adaptées à ces distributions, à moins de disposer d'échantillons de très grande taille. Il est donc nécessaire de s'interroger sur la validité des méthodes d'inférence, et de quantifier les erreurs d'estimation pour de telles données. Ce travail de thèse a ainsi été motivé par un jeu de données d'abondance de poissons, correspondant à un échantillonnage ponctuel par pêche électrique. Ce jeu de données comprend plus de 2000 échantillons, dont chacun correspond aux abondances ponctuelles (considérées indépendantes et identiquement distribuées) d'une espèce pour une campagne de pêche donnée. Ces échantillons sont de petite taille (en général, 20 _ n _ 50) et comprennent de nombreux zéros (en tout, 80% de zéros). Les ajustements de plusieurs modèles de distribution classiques pour les données de comptage ont été comparés sur ces échantillons, et la distribution binomiale négative a été sélectionnée. Nous nous sommes donc intéressés à l'estimation des deux paramètres de cette distribution : le paramètre de moyenne m, et le paramètre de dispersion, q. Dans un premier temps, nous avons étudié les problèmes d'estimation de la dispersion. L'erreur d'estimation est d'autant plus importante que le nombre d'individus observés est faible, et l'on peut, pour une population donnée, quantifier le gain en précision résultant de l'exclusion d'échantillons comprenant très peu d'individus. Nous avons ensuite comparé plusieurs méthodes de calcul d'intervalles de confiance pour la moyenne. Les intervalles de confiance basés sur la vraisemblance du modèle binomial négatif sont, de loin, préférables à des méthodes plus classiques comme la méthode de Student. Par ailleurs, ces deux études ont révélé que certains problèmes d'estimation étaient prévisibles, à travers l'observation de statistiques simples des échantillons comme le nombre total d'individus, ou le nombre de comptages non-nuls. En conséquence, nous avons comparé la méthode d'échantillonnage à taille fixe, à une méthode séquentielle, où l'on échantillonne jusqu'à observer un nombre minimum d'individus ou un nombre minimum de comptages non-nuls. Nous avons ainsi montré que l'échantillonnage séquentiel améliore l'estimation du paramètre de dispersion mais induit un biais dans l'estimation de la moyenne ; néanmoins, il représente une amélioration des intervalles de confiance estimés pour la moyenne. Ainsi, ce travail quantifie les erreurs d'estimation de la moyenne et de la dispersion dans le cas de données de comptage surdispersées, compare certaines méthodes d'estimations, et aboutit à des recommandations pratiques en termes de méthodes d'échantillonnage et d'estimation.
50

L'échantillonnage de Gibbs pour l'estimation bayésienne dans l'analyse de survie

Khribi, Lotfi January 2007 (has links) (PDF)
Dans ce mémoire, nous étudions l'approche bayésienne dans l'estimation des durées de vie pour des problèmes avec des points de rupture et avec des données censurées. Dans le chapitre 1, nous présentons les deux approches statistiques, l'approche fréquentiste et l'approche bayésienne. Nous montrons les points de ressemblance et de différence entre ces deux approches. Aussi, nous présentons le modèle bayésien hiérarchique avec les méthodes d'estimation Monte-Carlo avec un bref aperçu des méthodes de simulation par chaînes de Markov (MCMC). nous nous intéressons en particulier aux deux algorithmes qui sont utiles pour ces méthodes: il s'agit de l'algorithme Metropolis-Hastings et la méthode d'échantillonnage de Gibbs. Cette dernière a été utilisée par Geman et Geman (84) pour générer des observations à partir d'une distribution de Gibbs (distribution de Boltzmann). Il s'agit d'une forme particulière de méthode de Monte-Carlo par chaîne de Markov qui, du fait de son efficacité, est largement utilisée dans de nombreux domaines d'analyse statistique bayésienne. Nous parlons aussi dans ce chapitre du logiciel BUGS(Bayesian Inference Using Gibbs Sampling). Ce logiciel de programmation a été développé à l'unité MRC de Biostatistique de Cambridge. Il vise à tirer avantage des probabilités de l'échantillonnage de Gibbs dans l'inférence bayésienne sur des systèmes complexes. Dans le chapitre 2, nous abordons quelques concepts nécessaires à l'étude de l'analyse de survie, tels les fonctions de survie et de risque, les différents types de données censurées. Nous parlons aussi des méthodes fréquentistes d'analyse de survie, notamment la méthode de Kaplan-Meier. Nous rappellons aussi comment est déterminée la fonction de vraisemblance d'un modèle bayésien paramétrique de durée avec censure. Le chapitre 3 présente deux méthodes bayésiennes qui seront analysées et implémentées dans le logiciel BUGS. Une méthode qui est semi paramétrique, il s'agit de la méthode de Kalbfteisch. L'autre méthode paramétrique est celle de Carlin, Gelfand et Smith. Nous vérifions, grâce à des simulations, l'efficacité de ces deux méthodes bayésiennes. Deux exemples de simulations seront traités, un avec données censurées et l'autre avec points de rupture. Nous démontrons principalement que les estimations par simulation et l'inférence bayésienne paramétrique donnent de bons résultats par rapport aux méthodes classiques. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Fonction de survie, Méthodes paramétrique et semi paramétrique bayésiennes, Méthodes de Monte Carlo par chaîne de Markov, Échantillonnage de Gibbs.

Page generated in 0.0621 seconds