• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 21
  • 21
  • 9
  • 4
  • 3
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 113
  • 40
  • 21
  • 19
  • 15
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

An investigation of methods for determining depth from focus

Ens, John E. January 1990 (has links)
The concept of depth from focus involves calculating distances to points in an observed scene, by modelling the effect that the camera's focal parameters have on images acquired with a small depth of field. This technique does not require special scene illumination, and needs only a single camera. This thesis provides a background understanding of the concept and theory of depth from focus, surveys the literature on current methods of obtaining depth from focus, analyzes the key problems, and presents a novel solution to the problem, complete with experimental results. Deconvolving and modelling the defocus operator, is the most difficult segment of calculating depth from focus. Isolating the defocus operator has conventionally been performed by taking local spatial regions, and inverse filtering in the spatial frequency domain. This thesis exposes some fundamental problems with this method: inaccuracies in finding the frequency domain representation and the presence of border effects. To solve the general depth from focus problem, a novel application of an iterative matrix based method is presented. This method uses two images of the same scene, obtained under different conditions of defocus. The defocus operator may be assumed using a parametric model, or experimentally measured. Trade-offs in implementation are resolved through regularization. The method is theoretically justified, and shown to eliminate the problems mentioned above. A constrained inverse filtering method and the author's iterative matrix based method are experimentally implemented on four scenes. The experiments show the iterative matrix solution consistently yielding more accurate results. / Applied Science, Faculty of / Electrical and Computer Engineering, Department of / Graduate
2

Thomas Gage und sein Reisebericht aus Mittelamerika ein Beitrag zur Geschichte der spanischen Kolonisation ...

Schefer, Jakob. January 1915 (has links)
Inaug.-dissertation--Bern. / "Literatur": p. 69-70.
3

L'effet réel de la procédure collective : essai sur la saisie collective du gage commun des créanciers /

Sénéchal, Marc, January 1900 (has links)
Texte remanié de: Thèse de doctorat--Droit--Toulouse 1, 2001. / Bibliogr. p. 869-937. Index.
4

Frances Dana Gage /

Holtzman, Clara Cornelia. January 1931 (has links)
Thesis (M.A.)--Ohio State University, 1931. / Includes bibliographical references (leaves [2-3]). Available online via OhioLINK's ETD Center.
5

Variations sur la transmission inconsciente en cryptographie quantique

Salvail, Louis January 1997 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
6

Gage R&R studie på mätutrustning för förpackningsavstånd

Andersson, Ola January 2014 (has links)
The aim of the thesis is to analyse and understand resolution, repeatability and reproducibility of the measurement system for package distance. The measurement system for package distance is already in use, no Gage R&R has been performed on the system and before spreading use of the system the quality of the system has to be understood and approved / Detta examensarbete utfördes våren och sommaren 2013 på Tetra Pak PackagingSolutions AB, Carton Economy. Huvudsakligt syfte var att analysera repeterbarhet ochreproducerbarhet samt sätta upp godkännande kriterium för mätsystemets upplösningvid mätning av förpackningsavstånd när förpackningarna transporteras påtransportbanor banor. Analys utfördes genom Gage R&R studie på mätsystemet.Förpackningsavståndet definieras som ett krav i definierade interface mellan ingåendedelsystem i ett förpackningssystem vid vidareutveckling och nyutveckling av nyadelsystem. De förpackningstyper som ingick i Gage R&R var Tetra Fino Aseptic (TFA),Tetra Wedge Aseptic (TWA) och Tetra Classic Aseptic (TCA).Efter att godkännande kriterium satts upp och Gage R&R studien genomförts drogsslutsatsen att mätsystemet lever upp till och kan anses godkänd för mätning av TFAoch TWA förpackningar. TCA förpackningar ingår ej i detta examensarbete.
7

Les Garanties conventionnelles sur créances /

Legeais, Dominique, January 1986 (has links)
Th.--Droit--Poitiers, 1984. / Bibliogr. p. 355-370 . Index.
8

Protocoles quantiques et relativistes de mise en gage

Bada, Hassene January 2009 (has links) (PDF)
Dans la vie, on peut avoir besoin de communiquer avec des parties auxquelles on ne fait pas confiance, d'où l'importance de systèmes capables de contrôler ce type de communications. Des systèmes peuvent garantir, par exemple, un ballottage secret, des ventes aux enchères secrètes, des levées d'impôt tout en conservant l'intimité, l'authentification à distance à un ordinateur, l'aide anonyme de la police dans leurs enquêtes, etc. La cryptographie peut aider, au moins, dans quelques cas parmi ceux-ci, par la régularisation du flux d'information de telle manière qu'on n'aura plus besoin de faire confiance à l'autre partie. On fera confiance, seulement, aux systèmes cryptographiques utilisés. Une primitive, appelée mise en gage, est d'une importance suprême dans la cryptographie bipartite, où deux parties qui ne se font pas confiance essayent tout de même d'accomplir un calcul commun sur des données privées (calculer une fonction publique de leurs données secrètes). Cette primitive va être l'objet de ce mémoire. On va expliquer jusqu'à quel point on peut accomplir des taches cryptographiques de façon inconditionnellement sécuritaire, sous la seule hypothèse que la mécanique quantique et la relativité restreinte sont valides. Ce mémoire est largement basé sur les travaux de Mayers [52,53,54,55], Lo et Chau [49,50], Brassard, Crépeau, Mayers et Salvail [15], Spekkens et Rudolph [73], Hardy et Kent [35], Ishizaka [39] et Kent [43,44]. Il fait à la fois une présentation de la cryptographie quantique et une synthèse des travaux essentiels concernant les protocoles de mise en gage quantiques et relativistes. Nous allons donc commencer par une introduction sur l'histoire de la cryptographie classique et son prolongement naturel à ses homologues, quantique et relativiste, qui permettent d'obtenir de meilleurs résultats. Ensuite, nous introduirons un certain nombre d'outils mathématiques utiles à la description de la cryptographie quantique. Nous y présenterons également les preuves de plusieurs résultats à la base de la cryptographie quantique, tels que la décomposition de Schmidt, la purification, le théorème GHJW, le théorème d'Ulmann, le théorème de non-clonage, le théorème de la représentation de Kraus, etc. Nous discuterons aussi des concepts de base de l'informatique quantique, comme la mesure projective et généralisée, l'évolution des systèmes quantiques non isolés, la trace partielle, l'opérateur de densité, etc. Nous aborderons le protocole de la mise en gage proprement dit en exposant en détail la preuve du théorème de l'impossibilité de Mayers, Lo et Chau. Nous y présentons également le travail de Rudolph et Spekkens qui ont calculé les degrés optimaux de lien et de camouflage qui peuvent être obtenus simultanément dans tout protocole de mise en gage quantique non relativiste. Il s'agit-là d'une caractéristique qu'aucun protocole classique non relativiste ne peut assurer. Un autre type de sécurité pour ce protocole est étudié aussi, c'est celui de la mise en gage sensible à la tricherie "cheat sensitive" pour lequel on croyait que le protocole quantique de Hardy et Kent fonctionnait alors que lshizaka a démontré récemment que ce n'est pas le cas. Pire, il a même remis en question toute possibilité de réaliser ce type de sécurité en ce basant sur l'utilisation du protocole du tir à pile ou face comme sous-protocole. La cryptographie relativiste fera l'objet de notre dernier chapitre. Nous commencerons par montrer comment la théorie de la relativité restreinte, et donc l'impossibilité qu'un signal puisse se déplacer à une vitesse supérieur à celle de la lumière, peut être exploitée pour construire un protocole de mise en gage temporairement sécuritaire, c'est celui de Brassard, Crépeau, Mayers et Salvail. Nous présenterons ensuite le premier protocole relativiste d'une mise en gage continuellement sécuritaire, celui de Kent, et la preuve de sa sécurité. Ce protocole ne peut malheureusement pas être implémenté, même s'il est théoriquement sûr. Nous terminerons cette étude par une description d'un deuxième protocole relativiste du même auteur, qui va remédier aux problèmes liés à l'impossibilité pratique du premier protocole. Les preuves de la sécurité de ce dernier contre les attaques classiques et quantiques du type Mayers, Lo et Chau vont être abordées. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Informatique quantique, Mise en gage quantique, Mise en gage quantique sensible à la tricherie, Mise en gage relativiste.
9

Bore Waviness Measurement Using an In-Process Gage

Krueger, Kristian Wolfgang 28 November 2005 (has links)
Profile waviness is one of the main causes for scrapped parts in precision bore grinding. Although efforts have been made to reduce its occurrence, the problem has not been eliminated completely. In production, the identification of a few scrapped parts in a lot of several thousands often requires expensive manual processes. Grinding machines used to produce these parts are usually equipped with measurement gage heads having tactile probes. Until now, these in-process gages have been used to measure only the average diameter of the part. This research focused on the use of these tactile probes to measure bore waviness in precision-ground parts. The first objective was to develop a post-process machine that performs automated measurement of the bore profile and is capable of detecting waviness. The machine was built using the same measurement system and the same roll-shoe centerless fixture as the grinding machines used for the production of the parts. The machine was designed and set up such that disturbances of the measurement are minimized. It was shown that the machine reaches accuracies close to those obtained by manually operated roundness machines. The cycle time is approximately 4 seconds per part compared to several minutes for manually operated roundness machines. As a second objective, the possibility of measuring waviness directly in the grinding machine was evaluated. Feasible design modifications to reduce the effect of disturbances are very limited in grinding machines, since interference with the grinding process must be avoided. Therefore, analytical methods were developed to reduce these effects and partly restore the original profile. The main disturbances that were addressed are errors due to irregular sampling of the profile, to the frequency response behavior of the gage heads, and to motion of the workpiece center relative to the gage heads. The post-process machine was used as a development and test platform for the analytical methods. To further verify these methods, tests were also conducted in an industrial grinding machine.
10

SPECIFIC GAGE ANALYSIS ON THE LOWER WHITE RIVER, ARKANSAS

Shaffner, Adam Levis 01 December 2012 (has links)
This study documents the stage adjustments in the Lower White River between 1931 and 2012 at four rated gaging stations along the trunk stem of the river. The study reach extends from Calico Rock, Arkansas, to the confluence of the White River with the Mississippi River north of Arkansas City, a distance of about 509 km. The specific gage approach was used to track hydrological response in the study reach. In order to approach spatial homogeneity across the four gaging locations along the study reach, input discharges were normalized to multiples of mean daily flow (MDF). Specific gage analysis tracks water surface elevation changes for fixed discharge conditions over time. Three discharges were analyzed at each station: low flow, mean flow, and high flow. The low flow specific gage trends are emphasized to highlight degradation and aggradation due to the sensitivity of specific stages at low flows to channel bed elevation changes. An `enhanced interpolation' technique was used to fill gaps in the specific stage time series in order to avoid errors derived from extrapolation of annual rating curves. The analysis shows decreasing trends in specific stage at Clarendon and DeValls Bluff at low flows, indicating net degradation. The gages at Newport and Calico Rock show increasing trends in specific stage over time at low flows, indicating aggradation downstream of Norfork and Bull Shoals reservoirs.

Page generated in 0.0498 seconds