• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 10
  • Tagged with
  • 25
  • 25
  • 10
  • 8
  • 8
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Réaménagement des friches industrielles en milieu urbain : approche communicationnelle systémique pour une amélioration de la décision des maîtres d'ouvrage / Brownfields redevelopment in urban area : systemic communicational approach for the improvement of project owner's decision

Valeyre, Thomas 11 December 2014 (has links)
Les friches industrielles en milieu urbain représentent un grand potentiel de redéveloppement urbain mais l’aménagement sur les sites et sols polluées complexifie la prise de décision. Ces décisions sont basées sur des informations fournies par un grand nombre d’acteurs. Une méthode d’étude par la systémique communicationnelle a été retenue. Afin de modéliser ce système pour le réaménagement des friches industrielles, une méthodologie basée sur le retour d’expérience a été mise au point. Une grille a été construite dans le but de recueillir, pour chacune des sept phases des projets de réaménagement, les typologies d’acteurs, les typologies de données qu’ils acquièrent en urbanisme et en environnement et les problèmes que rencontrent ces acteurs. Enfin, un ensemble de règles permettant de modéliser l’évolution des données dans la dimension informationnelle a été défini. Les grilles de recueil ont été appliquées à trois terrains d’études. Une validation croisée des données par la méthode de triangulation en sciences humaines a été réalisée. Ces données a ensuite été utilisées pour modéliser le système communicationnel. Les résultats de la validation croisée ont montré que, les typologies d’acteurs et de données étaient fiables de par leur répétabilité. Cependant, des faiblesses ont été détectées en fin de projet : il a été difficile d’identifier les données utilisées. La structure du modèle a été étudiée et a montré que la structure des échanges était simple. Ensuite, les problèmes rencontrés par les différents acteurs ont été analysés. Ces problèmes sont principalement concentrés sur deux phases du projet : la première et la cinquième. Il a été démontré que les problèmes rencontrés sont liés à l’acquisition des données. Ce manque de données engendre des incertitudes pouvant remettre en cause le projet. En termes de perspectives, il faudrait réaliser des interviews complémentaires pour identifier les typologies manquantes en fin de projet. / Brownfields in urban areas have great potential for redevelopment of cities, but urbanization on contaminated sites complicates decision making. The decisions are based on information provided by a lot of stakeholders. A method based on the systemic of communication was chosen. A methodology based on the feedback was developed to model this system of brownfield redevelopment. A grid was built in order to analyze in each stages of redevelopment projects: the types of involved stakeholders; the types of data they collect in urban planning and environment; and problems faced by these actors. Finally, a set of rules to model the evolution of the data in the informational dimension was defined. The collection grids were applied for three fields of study. Cross-validation of the data by the method of triangulation was achieved. All types of data was used to set up the communicational system. The model was established and its structure has been analyzed. This study showed that the pattern of trade between stakeholders was simple. Then, the problems found by stakeholders were studied. Problems were highlighted mainly into two stages: the first and fifth stages corresponding respectively to the beginning of conception of projects and the beginning of preparation works. The problems encountered are mostly related to the collection of data. This lack of data generate big uncertainty that could affect the project limiting the alternative scenarios. The results of cross-validation shown that the types of stakeholders and data are valid because of their repeatability. However, weaknesses were detected at the end of the project: it was difficult to identify the data which was used. Perspectives would require to make further interviews to identify missing typologies of data at the end of project.
2

Choix des poids de l'estimateur de vraisemblance pondérée par rééchantillonnage

Charlebois, Joanne January 2007 (has links)
No description available.
3

Sélection de modèles non linéaires par "leave-one-out": étude théorique et application des réseaux de neurones au procédé de soudage par points

Monari, Gaétan 03 November 1999 (has links) (PDF)
Le soudage par points est la principale technique d'assemblage des tôles de carrosserie automobile. Cependant, la variabilité de ce procédé, et en particulier de l'état des électrodes de soudage, pose deux problèmes non résolus à ce jour: le contrôle non destructif de la qualité des soudures et la commande des paramètres de soudage. Utilisé fréquemment dans le domaine des réseaux de neurones, et réputé pour donner de bons résultats avec peu d'exemples, le leave-one-out conduit en réalité souvent à la sélection de modèles surajustés. Or, par un développement de Taylor, nous pouvons calculer l'effet du retrait d'un exemple de la base d'apprentissage sur la sortie du modèle. Nous prouvons que l'estimation de l'erreur de généralisation obtenue à partir de ce calcul est plus fiable que celle obtenue classiquement par apprentissage. Par ailleurs, nous montrons le lien existant entre le leave-one-out calculé et les intervalles de confiance sur la sortie du modèle. Enfin, nous proposons une technique originale de sélection de modèles non linéaires qui évite le surajustement en limitant l'influence de chaque exemple sur l'estimation des paramètres du modèle. Nous présentons une méthode permettant d'obtenir un modèle de prévision du diamètre d'une soudure, valable dans des conditions préétablies. Plus particulièrement, nous montrons comment constituer une base de données initiale, sélectionner le modèle adéquat, puis compléter progressivement la base d'apprentissage. Appliquée à deux types de tôles, cette méthode permet d'atteindre une précision proche de l'erreur de mesure. En outre, utilisés au sein d'une loi de commande, ces modèles permettent d'optimiser l'usure des électrodes.
4

Utilisation de la méthode de validation croisée pour le lissage par fonctions Spline à une ou deux variables

Utreras, Florencio 11 May 1979 (has links) (PDF)
Lissage à une variable : les methodes de choix du paramètre d'ajustement, réalisation pratique de la méthode de validation croisée, expériences numériques, optimalité à asymptotique de la méthode de validation croisée, un procédé de lissage pour un grand nombre de nœuds. le lissage à 2 variables : étude des valeurs propres associées aux fonctions splines bidimensionnelles, les fonctions spline bicubiques, expérience numérique à 2 variables
5

MODELISATION DE SERIES CHRONOLOGIQUES NON STATIONNAIRES, NON LINEAIRES Application à la définition des tendances sur la moyenne, la variabilité et les extrêmes de la température de l'air en Europe

Hoang, Thi Thu Huong 28 January 2010 (has links) (PDF)
Dans cette thèse, nous considérons plusieurs problèmes statistiques liés au réchauffement climatique. Le travail est donc centré sur la compréhension et la modélidation de récentes évolutions des caractéristiques de la température come moyenne, variance, extrêmes et des liens entre ces quantités. Par ailleurs nous poursuivions deux objectifs particuliers liés aux risques importants : donner une méthodologie pour calculer les niveaux de retour en situation non stationnaire (risques économiques, sanitaires et industriels) et fabriquer un modèle réaliste de simulation permettant de calculer certains de ces risques de définition compliquée. Le contexte étant celui du changement climatique, en incluant bien entendu des aspects métamathématiques.
6

Modèles à structure cachée : inférence, estimation, sélection de modèles et applications

Durand, Jean-Baptiste 31 January 2003 (has links) (PDF)
L'objet de cette thèse est l'étude d'algorithmes d'inférence et de méthodes de sélection pour les modèles de Markov cachés. L'analyse de propriétés du graphe d'indépendance conditionnelle aboutit à la définition d'une famille de modèles aisément paramétrables et interprétables. Pour ces modèles, nous proposons des algorithmes d'inférence basés sur des récursions de type arrière-avant efficaces, numériquement stables et permettant des calculs analytiques. Puis nous étudions différentes méthodes de sélection du nombre d'états cachés, dont le demi-échantillonnage, les critères BIC, AIC, ICL, et la pénalisation de la vraisemblance marginale. L'implémentation de la validation croisée, problématique dans le cas de dépendances entre variables, fait l'objet de développements particuliers. Ces méthodes sont comparées par des expérimentations sur des données simulées puis réelles (fiabilité de logiciels). Nous illustrons l'intérêt des arbres et chaînes de Markov cachés en traitement du signal.
7

Estimation paramétrique de la fonction de covariance dans le modèle de Krigeage par processus Gaussiens. Application à la quantification des incertitudes en simulation numérique

Bachoc, François 03 October 2013 (has links) (PDF)
L'estimation paramétrique de la fonction de covariance d'un processus Gaussien est étudiée, dans le cadre du modèle de Krigeage. Les estimateurs par Maximum de Vraisemblance et Validation Croisée sont considérés. Le cas correctement spécifié, dans lequel la fonction de covariance du processus Gaussien appartient à l'ensemble paramétrique de fonctions de covariance, est d'abord traité dans un cadre asymptotique par expansion. Le plan d'expériences considéré est une grille régulière multidimensionnelle perturbée aléatoirement. Un résultat de consistance et de normalité asymptotique est montré pour les deux estimateurs. Il est ensuite mis en évidence que des amplitudes de perturbation importantes sont toujours préférables pour l'estimation par Maximum de Vraisemblance. Le cas incorrectement spécifié, dans lequel l'ensemble paramétrique utilisé pour l'estimation ne contient pas la fonction de covariance du processus Gaussien, est ensuite étudié. Il est montré que la Validation Croisée est alors plus robuste que le Maximum de Vraisemblance. Enfin, deux applications du modèle de Krigeage par processus Gaussiens sont effectuées sur des données industrielles. Pour un problème de validation du modèle de frottement pariétal du code de thermohydraulique FLICA 4, en présence de résultats expérimentaux, il est montré que la modélisation par processus Gaussiens de l'erreur de modèle du code FLICA 4 permet d'améliorer considérablement ses prédictions. Enfin, pour un problème de métamodélisation du code de thermomécanique GERMINAL, l'intérêt du modèle de Krigeage par processus Gaussiens, par rapport à des méthodes par réseaux de neurones, est montré
8

Estimation fonctionnelle non paramétrique au voisinage du bord / Functional non-parametric estimation near the edge

Jemai, Asma 16 March 2018 (has links)
L’objectif de cette thèse est de construire des estimateurs non-paramétriques d’une fonction de distribution, d’une densité de probabilité et d’une fonction de régression en utilisant les méthodes d’approximation stochastiques afin de corriger l’effet du bord créé par les estimateurs à noyaux continus classiques. Dans le premier chapitre, on donne quelques propriétés asymptotiques des estimateurs continus à noyaux. Puis, on présente l’algorithme stochastique de Robbins-Monro qui permet d’introduire les estimateurs récursifs. Enfin, on rappelle les méthodes utilisées par Vitale, Leblanc et Kakizawa pour définir des estimateurs d’une fonction de distribution et d’une densité de probabilité en se basant sur les polynômes de Bernstein.Dans le deuxième chapitre, on a introduit un estimateur récursif d’une fonction de distribution en se basant sur l’approche de Vitale. On a étudié les propriétés de cet estimateur : biais, variance, erreur quadratique intégré (MISE) et on a établi sa convergence ponctuelle faible. On a comparé la performance de notre estimateur avec celle de Vitale et on a montré qu’avec le bon choix du pas et de l’ordre qui lui correspond notre estimateur domine en terme de MISE. On a confirmé ces résultatsthéoriques à l’aide des simulations. Pour la recherche pratique de l’ordre optimal, on a utilisé la méthode de validation croisée. Enfin, on a confirmé les meilleures qualités de notre estimateur à l’aide des données réelles. Dans le troisième chapitre, on a estimé une densité de probabilité d’une manière récursive en utilisant toujours les polynômes de Bernstein. On a donné les caractéristiques de cet estimateur et on les a comparées avec celles de l’estimateur de Vitale, de Leblanc et l’estimateur donné par Kakizawa en utilisant la méthode multiplicative de correction du biais. On a appliqué notre estimateur sur des données réelles. Dans le quatrième chapitre, on a introduit un estimateur récursif et non récursif d’une fonction de régression en utilisant les polynômes de Bernstein. On a donné les caractéristiques de cet estimateur et on les a comparées avec celles de l’estimateur à noyau classique. Ensuite, on a utilisé notre estimateur pour interpréter des données réelles. / The aim of this thesis is to construct nonparametric estimators of distribution, density and regression functions using stochastic approximation methods in order to correct the edge effect created by kernels estimators. In the first chapter, we givesome asymptotic properties of kernel estimators. Then, we introduce the Robbins-Monro stochastic algorithm which creates the recursive estimators. Finally, we recall the methods used by Vitale, Leblanc and Kakizawa to define estimators of distribution and density functions based on Bernstein polynomials. In the second chapter, we introduced a recursive estimator of a distribution function based on Vitale’s approach. We studied the properties of this estimator : bias, variance, mean integratedsquared error (MISE) and we established a weak pointwise convergence. We compared the performance of our estimator with that of Vitale and we showed that, with the right choice of the stepsize and its corresponding order, our estimator dominatesin terms of MISE. These theoretical results were confirmed using simulations. We used the cross-validation method to search the optimal order. Finally, we applied our estimator to interpret real dataset. In the third chapter, we introduced a recursive estimator of a density function using Bernstein polynomials. We established the characteristics of this estimator and we compared them with those of the estimators of Vitale, Leblanc and Kakizawa. To highlight our proposed estimator, we used real dataset. In the fourth chapter, we introduced a recursive and non-recursive estimator of a regression function using Bernstein polynomials. We studied the characteristics of this estimator. Then, we compared our proposed estimator with the classical kernel estimator using real dataset.
9

Approche non-paramétrique par noyaux associés discrets des données de dénombrement

Senga Kiessé, Tristan 15 October 2008 (has links) (PDF)
Nous introduisons une nouvelle approche non-paramétrique, par noyaux associés discrets, pour les données de dénombrement. Pour cela, nous définissons la notion de noyaux associés discrets à partir d'une loi de probabilité discrète donnée et nous étudions leurs propriétés. De là, nous construisons l'estimateur à noyau discret lequel est l'analogue de certains estimateurs à noyau continu de cette dernière décennie. Nous examinons ses propriétés fondamentales ; en particulier, nous montrons la convergence ponctuelle en moyenne quadratique de l'estimateur. Le choix de fenêtre du lissage discret s'effectue essentiellement par validation croisée et excès de zéros. Nous étudions également le comportement des lois classiques de dénombrement comme noyau associé, par exemple, Poisson, binomiale et binomiale négative. Ainsi, il s'est révélé nécessaire de construire une nouvelle famille de lois discrètes dites triangulaires pour servir de noyaux associés symétriques. Cette méthode des noyaux associés discrets est utilisée dans l'estimation semi-paramétrique des distributions de données de dénombrement, ainsi que pour la régression non-paramétrique sur une variable explicative de dénombrement. Tout au long de ce travail, nous illustrons les résultats à travers des simulations et des jeux de données réelles. Dans le cas d'échantillons de tailles petites et modérées, l'importance et les très bonnes performances des noyaux associés discrets sont mises en évidence, en comparaison avec le noyau du type Dirac et parfois les noyaux continus.
10

Des algorithmes rapides pour la validation croisée sur des problèmes d'approximation non linéaires

Deshpande, Lalita-Narhar 04 October 1990 (has links) (PDF)
.

Page generated in 0.1302 seconds