Spelling suggestions: "subject:"méthode d'estimation"" "subject:"mréthode d'estimation""
1 |
Exploration architecturale et étude des performances des réseaux sur puce 3D partiellement connectés verticalementBahmani, M. 09 December 2013 (has links) (PDF)
L'utilisation de la troisième dimension peut entraîner une réduction significative de la puissance et de la latence moyenne du trafic dans les réseaux sur puce (Network-on-Chip). La technologie des vias à travers le substrat (ou Through-Silicon Via) est la technologie la plus prometteuse pour l'intégration 3D, car elle offre des liens verticaux courts qui remédient au problème des longs fils dans les NoCs-2D. Les TSVs sont cependant énormes et les processus de fabrication sont immatures, ce qui réduit le rendement des systèmes sur puce à base de NoC-3D. Par conséquent, l'idée de réseaux sur puce 3D partiellement connectés verticalement a été introduite pour bénéficier de la technologie 3D tout en conservant un haut rendement. En outre, de tels réseaux sont flexibles, car le nombre, l'emplacement et l'affectation des liens verticaux dans chaque couche peuvent être décidés en fonction des exigences de l'application. Cependant, ce type de réseaux pose un certain nombre de défis : Le routage est le problème majeur, car l'élimination de certains liens verticaux fait que l'on ne peut utiliser les algorithmes classiques qui suivent l'ordre des dimensions. Pour répondre à cette question nous expliquons et évaluons un algorithme de routage déterministe appelé "Elevator First", qui garanti d'une part que si un chemin existe, alors on le trouve, et que d'autre part il n'y aura pas d'interblocages. Fondamentalement, la performance du NoC est affecté par a) la micro architecture des routeurs et b) l'architecture d'interconnexion. L'architecture du routeur a un effet significatif sur la performance du NoC, à cause de la latence qu'il induit. Nous présentons la conception et la mise en œuvre de la micro-architecture d'un routeur à faible latence implantantl'algorithme de routage Elevator First, qui consomme une quantité raisonnable de surface et de puissance. Du point de vue de l'architecture, le nombre et le placement des liens verticaux ont un rôle important dans la performance des réseaux 3D partiellement connectés verticalement, car ils affectent le nombre moyen de sauts et le taux d'utilisation des FIFOs dans le réseau. En outre, l'affectation des liens verticaux vers les routeurs qui n'ont pas de ports vers le haut ou/et le bas est une question importante qui influe fortement sur les performances. Par conséquent, l'exploration architecturale des réseaux sur puce 3D partiellement connectés verticalement est importante. Nous définissons, étudions et évaluons des paramètres qui décrivent le comportement du réseau, de manière à déterminer le placement et l'affectation des liens verticaux dans les couches de manière simple et efficace. Nous proposons une méthode d'estimation quadratique visantà anticiper le seuil de saturation basée sur ces paramètres.
|
2 |
Gestion des données : contrôle de qualité des modèles numériques des bases de données géographiques / Data management : quality Control of the Digital Models of Geographical DatabasesZelasco, José Francisco 13 December 2010 (has links)
Les modèles numériques de terrain, cas particulier de modèles numériques de surfaces, n'ont pas la même erreur quadratique moyenne en planimétrie qu'en altimétrie. Différentes solutions ont été envisagées pour déterminer séparément l'erreur en altimétrie et l'erreur planimétrique, disposant, bien entendu, d'un modèle numérique plus précis comme référence. La démarche envisagée consiste à déterminer les paramètres des ellipsoïdes d'erreur, centrées dans la surface de référence. Dans un premier temps, l'étude a été limitée aux profils de référence avec l'ellipse d'erreur correspondante. Les paramètres de cette ellipse sont déterminés à partir des distances qui séparent les tangentes à l'ellipse du centre de cette même ellipse. Remarquons que cette distance est la moyenne quadratique des distances qui séparent le profil de référence des points du modèle numérique à évaluer, c'est à dire la racine de la variance marginale dans la direction normale à la tangente. Nous généralisons à l'ellipsoïde de révolution. C'est le cas ou l'erreur planimétrique est la même dans toutes les directions du plan horizontal (ce n'est pas le cas des MNT obtenus, par exemple, par interférométrie radar). Dans ce cas nous montrons que le problème de simulation se réduit à l'ellipse génératrice et la pente du profil correspondant à la droite de pente maximale du plan appartenant à la surface de référence. Finalement, pour évaluer les trois paramètres d'un ellipsoïde, cas où les erreurs dans les directions des trois axes sont différentes (MNT obtenus par Interférométrie SAR), la quantité des points nécessaires pour la simulation doit être importante et la surface tr ès accidentée. Le cas échéant, il est difficile d'estimer les erreurs en x et en y. Néanmoins, nous avons remarqué, qu'il s'agisse de l'ellipsoïde de révolution ou non, que dans tous les cas, l'estimation de l'erreur en z (altimétrie) donne des résultats tout à fait satisfaisants. / A Digital Surface Model (DSM) is a numerical surface model which is formed by a set of points, arranged as a grid, to study some physical surface, Digital Elevation Models (DEM), or other possible applications, such as a face, or some anatomical organ, etc. The study of the precision of these models, which is of particular interest for DEMs, has been the object of several studies in the last decades. The measurement of the precision of a DSM model, in relation to another model of the same physical surface, consists in estimating the expectancy of the squares of differences between pairs of points, called homologous points, one in each model which corresponds to the same feature of the physical surface. But these pairs are not easily discernable, the grids may not be coincident, and the differences between the homologous points, corresponding to benchmarks in the physical surface, might be subject to special conditions such as more careful measurements than on ordinary points, which imply a different precision. The generally used procedure to avoid these inconveniences has been to use the squares of vertical distances between the models, which only address the vertical component of the error, thus giving a biased estimate when the surface is not horizontal. The Perpendicular Distance Evaluation Method (PDEM) which avoids this bias, provides estimates for vertical and horizontal components of errors, and is thus a useful tool for detection of discrepancies in Digital Surface Models (DSM) like DEMs. The solution includes a special reference to the simplification which arises when the error does not vary in all horizontal directions. The PDEM is also assessed with DEM's obtained by means of the Interferometry SAR Technique
|
3 |
Validation croisée et pénalisation pour l'estimation de densité / Cross-validation and penalization for density estimationMagalhães, Nelo 26 May 2015 (has links)
Cette thèse s'inscrit dans le cadre de l'estimation d'une densité, considéré du point de vue non-paramétrique et non-asymptotique. Elle traite du problème de la sélection d'une méthode d'estimation à noyau. Celui-ci est une généralisation, entre autre, du problème de la sélection de modèle et de la sélection d'une fenêtre. Nous étudions des procédures classiques, par pénalisation et par rééchantillonnage (en particulier la validation croisée V-fold), qui évaluent la qualité d'une méthode en estimant son risque. Nous proposons, grâce à des inégalités de concentration, une méthode pour calibrer la pénalité de façon optimale pour sélectionner un estimateur linéaire et prouvons des inégalités d'oracle et des propriétés d'adaptation pour ces procédures. De plus, une nouvelle procédure rééchantillonnée, reposant sur la comparaison entre estimateurs par des tests robustes, est proposée comme alternative aux procédures basées sur le principe d'estimation sans biais du risque. Un second objectif est la comparaison de toutes ces procédures du point de vue théorique et l'analyse du rôle du paramètre V pour les pénalités V-fold. Nous validons les résultats théoriques par des études de simulations. / This thesis takes place in the density estimation setting from a nonparametric and nonasymptotic point of view. It concerns the statistical algorithm selection problem which generalizes, among others, the problem of model and bandwidth selection. We study classical procedures, such as penalization or resampling procedures (in particular V-fold cross-validation), which evaluate an algorithm by estimating its risk. We provide, thanks to concentration inequalities, an optimal penalty for selecting a linear estimator and we prove oracle inequalities and adaptative properties for resampling procedures. Moreover, new resampling procedure, based on estimator comparison by the mean of robust tests, is introduced as an alternative to procedures relying on the unbiased risk estimation principle. A second goal of this work is to compare these procedures from a theoretical point of view and to understand the role of V for V-fold penalization. We validate these theoretical results on empirical studies.
|
4 |
Nouvelle approche d'estimation de la vulnérabilité des aquifères combinant le modèle DRASTIC et la sensibilité des sols à l'infiltration. Application à l'aquifère du Dogger dans l'interfluve Clain-Vienne, Poitou-Charentes, France / New approach of estimation of the vulnerability of aquiferes combining the model DRASTIC and the sensibility of grounds in the infiltration. Application in the aquifer of Dogger in the interfluve Clain-Vienne, Poitou-Charentes, FranceShorieh, Amani 16 July 2014 (has links)
Cette étude s'intéresse, par l'utilisation de la cartographie, à l'évaluation de la vulnérabilité des eaux souterraines aux pollutions en particulier à la vulnérabilité intrinsèque des nappes libres. Dans cette optique, une étude bibliographique sur les méthodes d'estimation de la vulnérabilité des nappes a été menée. A partir de cette étude bibliographique on a trouvé que la méthode DRASTIC a été considérée comme la base de la plupart des études de vulnérabilité.<br>L'aquifère du Dogger convient tout-à-fait à une application des différentes méthodologies. En effet, grâce à son importance en tant que source d'eau potable et d'irrigation ainsi qu'à sa principale problématique qui est la vulnérabilité aux concentrations en nitrates (on peut la considérer comme une nappe très vulnérable aux pollutions superficielles, surtout aux surconcentrations en nitrates), une base de données à la fois volumineuse et diversifiée a été acquise sur plusieurs décennies de travaux de prospection, de suivi et d'exploitation. On peut retrouver ces données sous forme de fiches, de tableaux de cartes et de comptes-rendus.<br>Une description générale de la zone d'étude nous a permis de déterminer les paramètres disponibles dans cette aquifère afin de déterminer quelle méthode il convenait d'appliquer à cette nappe. Ainsi, une étude hydrogéochimique à été réalisée à partir d'une campagne de prélèvements et d'analyses chimiques des eaux souterraines. Ces analyses chimiques, en particulier les analyses des teneurs en nitrates, ont été utilisées pour valider les cartes de la vulnérabilité de l'aquifère du Dogger.<br>Donc, dans le but de cartographier la vulnérabilité de la nappe du Dogger dans le département de la Vienne, on a appliqué deux méthodes, et tout d'abord la méthode DRASTIC (Aller et al. 1987). La carte obtenue par cette méthode est mal corrélée avec la concentration en nitrates.<br>En effet cette méthode attribue un poids faible au sol dans le calcul de l'indice final et elle a complètement ignoré les rôles des activités agricoles. C'est pourquoi on a proposé une nouvelle méthode dévirée de la méthode DRASTIC. Cette seconde méthode est plus adaptée à la nappe libre localisée sous la surface d'une activité agricole très importante. En prenant en considération les neuf paramètres qui déterminent la sensibilité des sols à l'infiltration verticale et l'occupation du sol. La nouvelle carte a permis d'obtenir une meilleure corrélation entre les concentrations en nitrates mesurées et les zones vulnérables par rapport à la méthode originale.<br> Le système d'information géographique avec le logiciel Arc Map (10) a représenté un facteur très important pour réaliser ce projet. Ce SIG a permis de construire une base de toutes les données existantes "géologiques, hydrogéologiques, chimiques et les caractéristiques du sol". Cette base, d'une part permet de disposer pour l'aquifère du jurassique moyen dans la zone d'interfluve Clain-Vienne, des couches d'informations complètes qui pourraient être une référence pour plusieurs études hydrogéologiques. D'autre part, le SIG a été très précieux dans le domaine de la protection et de la gestion des nappes. Il a pu faciliter l'application des méthodes d'estimation de la vulnérabilité, grâce à ses outils (coupage, superposition, méthode d'interpolation, calcul mathématique) qui permettent de traiter un grand nombre des données en superposant toutes les cartes de chaque facteur sur un support de même taille, ainsi que d'intégrer et combiner ces cartes. Nous pouvons à l'aide de tous ces outils, calculer les indices finaux et produire une carte finale de la vulnérabilité qui devient elle-même un outil facile de comparaison avec les teneurs en nitrates afin de valider les résultats. / The main objective of this PhD thesis is the optimization of a novel approach to estimate groundwater vulnerability using both the DRASTIC model and soil infiltration sensitivity. The model will be then applied to the Dogger aquifer of Poitiers, Center West France; to delineate areas that are more susceptible to contamination from anthropogenic sources. This is an important element for sensible resource management and land use planning.<br>Poitou-Charentes, located in the Center-West of France, is a region where economy is mainly based on agriculture. It is made up of 4 Departments (Vienne, Charente, Charente Maritime, Deux-Sèvres) and is largely supplied by groundwater, both for consumption and irrigation. This resources thus vital to the region and its preservation is a major issue. The objective of this study is the determination of the roundwater quality in the Dogger aquifer of Poitiers (Vienne Department), which is the main water resource for his area in order to achieve a better understanding of the factors influencing groundwater mineralization. Sixty-six wells, distributed over the study area, were sampled and analyzed for major ions (Ca2+, M2+, Na+, K+, HCO3-, Cl-, SO42-, NO3-). The hydrochemistry of groundwater is determined by both natural processes, and anthropogenic factors. Natural factors are dissolution of carbonate and dolomite minerals, and cation exchanges with clays, while anthropogenic factors are contaminant infiltration of wastewater and agricultural fertilizers. Nitrate is the main contaminant found in the groundwater and makes this resource unsuitable for consumption at some places.<br>This study focuses, by the use of mapping, on the assessment of the vulnerability of groundwater to pollution in particular to the intrinsic vulnerability of unconfined aquifers. The DRASTIC method was considered the most basic vulnerability studies.<br>In this study, we intend initially to implement the DRASTIC model, as it was developed by US-EPA. The results of application of DRASTIC will be discussed and validated against available knowledge on Dogger groundwater quality, and in particular nitrate levels. Secondly, the development of a new approach will be developed based on a combination of DRASTIC model and a concept recently developed by the Chamber of Agriculture of Vienne soil susceptibility to infiltration. The results showed that this new approach results in a vulnerability assessment of the aquifer is entirely consistent with the state of contamination of the well and integrates all the parameters (risk parameters intrinsic parameters) involved in transferring pollutants from the soil surface to the well.<br>
|
Page generated in 0.1069 seconds