• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 440
  • 117
  • 102
  • 48
  • 33
  • 25
  • 14
  • 13
  • 13
  • 6
  • 6
  • 5
  • 5
  • 4
  • 3
  • Tagged with
  • 975
  • 135
  • 120
  • 111
  • 99
  • 86
  • 82
  • 73
  • 72
  • 71
  • 71
  • 71
  • 70
  • 63
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Lagrange Interpolation on Leja Points

Taylor, Rodney 01 April 2008 (has links)
In this dissertation we investigate Lagrange interpolation. Our first result will deal with a hierarchy of interpolation schemes. Specifically, we will show that given a triangular array of points in a regular compact set K, such that the corresponding Lebesgue constants are subexponential, one always has the uniform convergence of Ln(f) to f for all functions analytic on K. We will then show that uniform convergence of Ln(f) to f for all analytic functions f is equivalent to the fact that the probability measures γn = 1/n Σn j=1 δzn,j , which are associated with our triangular array, converge weak star to the equilibrium distribution for K. Motivated by our hierarchy, we will then come to our main result, namely that the Lebesgue constants associated with Leja sequences on fairly general compact sets are subexponential. More generally, considering Newton interpolation on a sequence of points, we will show that the weak star convergence of their corresponding probability measures to the equilibrium distribution, together with a certain distancing rule, implies that their corresponding Lebesgue constants are sub-exponential.
332

Assessing the Environmental Justice Implications of Flood Hazards in Miami, Florida

Montgomery, Marilyn Christina 09 July 2014 (has links)
While environmental justice (EJ) research in the U.S. has traditionally focused on inequities in the distribution of technological hazards, the disproportionate impacts of Hurricane Katrina on racial minorities and socioeconomically disadvantaged households have prompted researchers to investigate the EJ implications of natural hazards such as flooding. Recent EJ research has also emphasized the need to examine social inequities in access to environmental amenities. Unlike technological hazards such as air pollution and toxic waste sites, areas exposed to natural hazards such as hurricanes and floods have indivisible amenities associated with them. Coastal property owners are exposed to flood hazards, but also enjoy water views and unhampered access to oceans and the unique recreational opportunities that beaches offer. Conversely, dense urban development and associated impervious surfaces increase likelihood of floods in inland areas which may lack the amenities of proximity to open water. This dissertation contributes to the emerging literature on EJ and social vulnerability to natural hazards by analyzing racial, ethnic, and socioeconomic inequities in the distribution of flood risk exposure in the Miami Metropolitan Statistical Area (MSA), Florida--one of the most hurricane-prone areas in the world and one of the most ethnically diverse MSAs in the U.S. The case study evaluates the EJ implications of residential exposure to coastal flood risk, inland flood risk, and no flood risk, in conjunction with coastal water related amenities, using geographic information science (GIS)-based techniques and logistic regression modeling to estimate flood risk exposure. Geospatial data from the Federal Emergency Management Agency (FEMA) are utilized to delineate coastal and inland 100-year flood hazard zones. Socio-demographic variables previously utilized in EJ research are obtained from tract level data published in the 2010 census and 2007-2011 American Community Survey five-year estimates. Principal components analysis is employed to condense several socio-demographic attributes into two neighborhood deprivation indices that represent economic insecurity and instability, respectively. Indivisible coastal water related amenities are represented by control variables of percent seasonal homes and proximity to public beach access sites. Results indicate that racial/ethnic minorities and those with greater social vulnerability based on the neighborhood deprivation indices are more likely to reside in inland flood zones and areas outside 100-year flood zones, while residents in coastal flood zones are disproportionately non-Hispanic White. Moreover, residents exposed to coastal flood risk tend to live in areas with ample coastal water related amenities, while racial/ethnic minorities and individuals with higher neighborhood deprivation who are exposed to inland flood risk or no flood risk reside in areas without coastal water related amenities. This dissertation elucidates the importance of EJ research on privilege and access to environmental amenities in conjunction with environmental hazards because areas exposed to natural hazards are likely to offer indivisible benefits. Estimating people and places exposed to hazards for EJ research becomes difficult when the boundaries of census areal units containing socio-demographic data do not match the boundaries of hazard exposure areas. This challenge is addressed with an application of dasymetric spatial interpolation using GIS-based techniques to disaggregate census tracts to inhabited parcels. Several spatial interpolation methods are assessed for relative accuracy in estimating population densities for the Miami MSA, and the output units from the most accurate method are employed in EJ regression analyses. The dasymetric mapping efforts utilized herein contribute to research on the modifiable areal unit problem (MAUP) and its effects on statistical analyses. Since the dasymetric mapping technique used for EJ analyses disaggregates census tracts to the inhabited parcel level, the results of the associated analyses for flood hazards exposure and access to coastal water related amenities should be more reliable than those based on tracts. The enhanced accuracy associated with inhabited parcels is a result of using a more precise geospatial depiction of residential populations, which leads to a more accurate portrayal of disproportionate exposure to flood hazards. Consequently, this dissertation contributes methodologically to GIS-based techniques of dasymetric spatial interpolation and empirically to EJ analysis of flood hazards with indivisible coastal water related amenities.
333

Performance Evaluation of Perceptually Lossless Medical Image Coder

Chai, Shan, shan.chai@optusnet.com.au January 2007 (has links)
Medical imaging technologies offer the benefits of faster and accurate diagnosis. When the medical imaging combined with the digitization, they offer the advantage of permanent storage and fast transmission to any geographical location. However, there is a need for efficient compression algorithms that alleviate the taxing burden of both large storage space and transmission bandwidth requirements. The Perceptually Lossless Medical Image Coder is a new image compression technique. It provides a solution to challenge of delivering clinically critical information in the shortest time possible. It embeds the visual pruning into the JPEG 2000 coding framework to achieve the optimal compression without losing the visual integrity of medical images. However, the performance of the PLMIC under certain medical image operation is still unknown. In this thesis, we investigate the performance of the PLMIC by applying linear, quadratic and cubic standard and centered B-spline interpolation filters. In order to evaluate the visual performance, a subjective assessment consisting of 30 medical images and 6 image processing experts was conducted. The perceptually lossless medical image coder was compared to the state-of-the-art JPEG-LS compliant LOCO and NLOCO image coders. The results have shown overall, there were no perceivable differences of statistical significance when the medical images were enlarged by a factor of 2. The findings of the thesis may help the researchers to further improve the coder. Additionally, it may also notify the radiologists the performance of the PLMIC coder to help them with correct diagnosis.
334

Contrôle flou : de l'interpolation numérique au codage de l'expertise

Galichet, Sylvie 21 December 2001 (has links) (PDF)
Utiliser l'ensemble des connaissances disponibles sur un procédé pour concevoir une loi de commande, tel est l'objectif de ce travail. Dans ce contexte, le choix d'un outil de représentation permettant d'intégrer dans un formalisme unique des informations de nature différente est essentiel. C'est donc tout naturellement que la dualité numérique/linguistique présente dans les systèmes flous à base de règles est exploitée pour réaliser un codage d'expertise dans un cadre numérique, autrement dit pour calculer avec les mots.<br /><br />La première partie de ce travail est dédiée au caractère numérique des systèmes flous. A travers le principe des équivalences modales, nous proposons une stratégie de construction d'un contrôleur flou permettant d'implanter de façon exacte des lois de commande linéaires de type PI, PD, PID ou encore par retour d'état. L'approche développée est ensuite étendue à l'apprentissage de systèmes flous à partir d'exemples, et ainsi à la modélisation floue. Enfin, la synthèse d'un contrôleur à partir d'un modèle flou du procédé est abordée selon une approche par linéarisation entrée-sortie ou encore à partir d'une structure de commande à modèle interne. Si ces travaux permettent d'intégrer aisément des informations numériques pour concevoir un contrôleur flou, la prise en compte de connaissances expertes reste délicate et fait l'objet de la deuxième partie de ce mémoire.<br /><br />A partir d'une typologie des systèmes flous, nous avons mis en évidence la possibilité d'implanter un contrôleur flou sous une forme purement symbolique. Dénotée SF4, cette mise en oeuvre des systèmes flous exploite des règles linguistiques et autorise une pondération de ces dernières. A ce titre, elle est tout particulièrement adaptée à la représentation des connaissances d'expert et est utilisée tout au long de cette deuxième partie. Outre leur caractère linguistique, les systèmes SF4 sont directement exploitables dans un contexte numérique puisqu'ils permettent d'implanter tout système flou de Sugeno à conclusions constantes, et donc plus particulièrement ceux engendrés via le principe des équivalences modales. Basés sur cette cohérence numérique/linguistique, divers schémas d'introduction de la connaissance experte sont ainsi proposés, allant d'une synthèse directe du contrôleur flou à une modification d'un correcteur numérique initial. Enfin, la distribution de la connaissance dans différents composants de la structure de commande est étudiée (capteurs, superviseur, régulateurs).<br /><br />Tout au long du mémoire, les diverses stratégies développées sont illustrées par le biais d'exemples tirés d'applications industrielles.
335

Courbes à Hodographe Pythagorien en Géométrie de Minkowski et Modélisation Géométrique

Ait Haddou, Rachid 06 September 1996 (has links) (PDF)
La construction des courbes parallèles est fondamentale pour différentes applications en modélisation géométrique, telles que l'étude des trajectoires d'outils pour les machines à commande numérique ou pour la définition des zones de tolérance. En général, la courbe parallèle d'une courbe rationnelle n'est pas rationnelle, ce qui conduit à déterminer une approximation de cette courbe parallèle par une courbe spline. Récemment, J. C. Fiorot et T. Gensane et indépendamment H. Pottmann ont donné la forme générale de toutes les courbes rationnelles à parallèles rationnelles (courbes à hodographe pythagorien). Dans cette dernière famille figurent les quartiques de Tschirnhausen. Ces courbes ont même flexibilité que les coniques, leurs courbes parallèles sont rationnelles de degré quatre et sont exactement les développantes des cubiques de Tschirnhausen. En se basant sur cette caractérisation, nous présentons un algorithme d'approximation, avec un contact d'ordre deux, d'une courbe et de ses parallèles par des quartiques de Tschirnhausen préservant la variation de la courbure. Par ailleurs, le caractère judicieux de la représentation Bézier duale des courbes à hodographe pythagorien et de leurs parallèles, nous a permis de construire des ovales et des rosettes rationnelles à largeur constante qui jouent un rôle important en mécanique des cames. Enfin, suite aux travaux de H. Busemann et H. Guggenheimer sur la géométrie plane de Minkowski, nous généralisons la notion de courbes parallèles ainsi que les résultats de H. Pottmann (concernant la caractérisation Bézier duale et la caractérisation géométrique des courbes à hodographe pythagorien) au plan de Minkowski
336

Sur l'approximation et la représentation de surfaces explicites en présence de singularités

Klein, Pascal 29 September 1987 (has links) (PDF)
Développement d'un algorithme de telles surfaces en utilisant la théorie de l'inf-convolution spline. Ceci est réalisé grâce à un choix de base traduisant les discontinuités. Un algorithme original de trace de courbes isovaleurs pour ces surfaces base sur une méthode de suivi des courbes de niveau est présente. Proposition d'un logiciel regroupant différents algorithmes
337

Fonctions spline cardinales tronquées

Kulkarni, Rekha Panditra 29 November 1985 (has links) (PDF)
On propose des conditions de bout pour les fonctions spines polynomiales d'interpolation de degré p (p≥2) associées aux abscisses équidistantes qui économisent le calcul et entraînent un ordre de convergence optimal. Cette fonction spline peut être interprétée comme une fonction spline cardinale tronquée avec une correction convenable. La technique utilisée pour les fonctions splines polynomiales est applicable dans le cas des fonctions splines sous tension. On donne aussi quelques résultats pour les fonctions splines cubiques de lissage
338

Matrices structurées et matrices de Toeplitz par blocs de Toeplitz en calcul numérique et formel

Khalil, Houssam 25 July 2008 (has links) (PDF)
Plusieurs problèmes en mathématiques appliquées requièrent la résolution de systèmes linéaires de très grandes tailles, et parfois ces systèmes doivent être résolus de multiples fois. Dans de tels cas, les algorithmes standards basés sur l'élimination de Gauss demandent O(n^3) opérations arithmétiques pour résoudre un système de taille n, et ce sera un handicap pour le calcul. C'est pour cela qu'on cherche à utiliser la structure pour réduire le temps de calcul.<br /><br /> La structure de Toeplitz, de Hankel, de Cauchy, de Vandermonde et d'autre structure plus générales sont bien exploitées pour réduire la complexité de résolution d'un système linéaire à O(n log^2 n) opérations arithmétiques.<br /><br /> Les matrices structurées en deux niveaux et surtout les matrices de Toeplitz par blocs de Toeplitz (TBT) apparaissent dans beaucoup des applications. Le but de ce travail est de trouver des algorithmes de résolution rapide pour des systèmes TBT de grande taille.<br /><br /> Dans cette thèse, on décrit les difficultés de ce problème. On donne trois algorithmes rapide, en O(n^3/2) opérations, de résolution pour les systèmes de Toeplitz bande par blocs Toeplitz bande. On donne aussi une nouvelle méthode de résolution des systèmes de Toeplitz scalaires en donnant une relation entre la solution d'un système de Toeplitz scalaires et les syzygies des polynômes en une seule variable. On généralise cette méthode pour les matrices TBT et on donne une relation entre la solution d'un tel système linéaire et les syzygies des polynômes en deux variables.
339

Estimation non-paramétrique d'une densité k-monotone: Une nouvelle théorie de distribution asymptotique.

Balabdaoui, Fadoua 26 April 2004 (has links) (PDF)
Nous considérons l'estimation non-paramétrique d'une densité k-monotone définie sur (0,∞), pour un entier k > 0 donné, via les méthodes de maximum de vraisemblance et des moindres carrés qu'on note respectivement par MLE et LSE.<br /><br />Dans l'introduction, nous présentons tout d'abord la motivation principale derrière ce problème et nous faisons l'effort d'inclure dans le cadre général de notre travail les résultats asymptotiques qui étaient déjà établis pour les cas spéciaux k=1 et k=2.<br /> <br />Ensuite, nous nous penchons sur l'étude des propriétés des MLE et LSE d'une densité k-monotone g_0 dans le cas où on dispose de n observations indépendantes générées de g_0. Notre étude asymptotique est locale, c'est-à-dire que nous nous intéressons uniquement aux propriétés asymptotiques des estimateurs et de leur dérivées à un point fixe, x_0. Sous certaines hypothèses que nous précisons, nous établissons d'abord les bornes inférieures minimax pour l'estimation des dérivées g^{(j)}_0(x_0), j=0,...,k-1. Les bornes obtenues indiquent que n^{-(k-j)/(2k+1)} est la vitesse de convergence optimale de n'importe quel estimateur non-paramétrique de g^{(j)}_0(x_0). Sous les mêmes hypothèses et si une certaine conjecture est vraie, nous démontrons que cette vitesse optimale est atteinte dans le cas des MLE et LSE.<br /><br />Pour compléter la théorie asymptotique des estimateurs et de leur dérivées au point x_0, nous passons à la dérivation de leurs distributions limites lorsque la taille de l'échantillon n tend vers l'infini. Il s'avère que ces distributions dépendent d'un processus stochastique bien particulier défini sur l'ensemble des réels R. On note ce processus par H_k Le 3ème chapitre est consacré essentiellement à l'existence et à l'unicité de H_k, ainsi qu'à sa caractérisation. Nous démontrons que si Y_k est la primitive (k-1)-ème d'un mouvement Brownien + k!/(2k)! t^{2k}, alors H_k reste au-dessus (au-dessous) de Y_k lorsque k est pair (impair). Un simple changement de variable suffit pour reconnaître que nos résultats comprennent les cas spéciaux k=1 et k=2 où le problème se réduit à l'estimation d'une densité décroissante et d'une densité décroissante et convexe respectivement. Pour ces cas-là, la théorie asymptotique des MLE et LES a été déjà établie.<br /><br />L'aspect algorithmique fait l'objet du 4ème chapitre. Les algorithmes de Splines itératifs (Iterative Spline algorithms) sont développés et implémentés afin de calculer les estimateurs et aussi pour obtenir une approximation du processus limite sur n'importe quel compact dans R. Ces algorithmes exploitent essentiellement la structure 'splineuse' des MLE, LSE et H_k, et se basent ainsi sur la suppression et l'addition itératives des noeuds de certains Splines aléatoires.
340

Perception et simulation des effets du changement climatique sur l'économie du ski et la biodiversité

Loubier, Jean-Christophe 06 May 2004 (has links) (PDF)
Dans les hautes vallées alpines, on observe des conflits d'intérêts entre l'économie du ski et les objectifs de préservation de la biodiversité dans le cadre du changement climatique global. Les enjeux sont importants et la concertation en matière d'aménagement devient très difficile Nous avons cherché à développer une méthodologie et un instrument d'aide à la concertation par heuristique visuelle. L'expérimentation de cet instrument est conduite sur le territoire de la Savoie et de la Haute Savoie. Cette thèse se développe en trois temps. Le premier temps définit le contexte général du changement climatique d'un point de vue global. Nous établissons ensuite un changement d'échelle pour nous rapprocher de l'échelon local. Il s'agit d'identifier les mécanismes d'émergence des conflits d'intérêts en fonction des enjeux simultanés économie du ski/préservation de la biodiversité. Le second temps développe une méthodologie pour aider la concertation autour de ce type de conflits par simulation interactive. C'est l'approche par heuristique visuelle. Nous montrons comment, une base de données doit être conçue, pour permettre la mise en œuvre de ce concept. Nous définissons également les types d'outils qui doivent être utilisés ainsi que leurs agencements pour la construction de l'environnement de simulation. Cette partie propose également une stratégie particulière d'amélioration de l'information continue quand il apparaît un besoin d'interpolation sur un faible jeu de données. Enfin, le dernier temps développe l'expérimentation sur notre terrain d'étude.

Page generated in 0.0263 seconds