• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 440
  • 117
  • 102
  • 48
  • 33
  • 25
  • 14
  • 13
  • 13
  • 6
  • 6
  • 5
  • 5
  • 4
  • 3
  • Tagged with
  • 975
  • 135
  • 120
  • 111
  • 99
  • 86
  • 82
  • 73
  • 72
  • 71
  • 71
  • 71
  • 70
  • 63
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
551

SOME PERMUTATION BINOMIALS AND WEAK CARLITZ'S CONJECTURE

黃培琨, HUANG, PEI-KUN Unknown Date (has links)
壹、引言 近年來,訊號傳送的途徑,已擺脫了傳統上著重管線傳送的優勢;有愈來愈多的訊號 彌漫在廣闊的空間裡,而這種無線式的傳送所需面臨的問題是:不具有排它性,任何 有接收器材的非原始接收者都可以截聽到訊息,由於因應而生的保密技術格外受矚目 ,密碼學(CRYPTOGRAPHY)便是滿足此需要的學問。本論文所探討的排列多項式(PE RMUTATION POLYNOMIAL)是密碼學中重要的工具之一。 貳、論文主體 所謂排列多項式,即是佈於代數體上的多項式,把此多項式當成函數而作用於代數體 (FIELD )上,如果此函數具有一對一的性質,則是排列多項式。即 f(x)=a。+ a1 x1 + ....anxn ≡ Fq〔X〕且 f(a)╪f(b),a,b≡Fq,a╪b. 在論文中,介紹先進學者對排列多項式的認識。如:LAGRANGE'S INTERPOLATION是利 用函數值來描繪多項式,著名的學者CARLITZ ,利用特殊多項式來合成出排列多項式 ,論文中有更進一步的合成法提出,而HERMITE 跟DICKSON 學者則提出Ft函數其冪次 的變化情形,來判別排列多項式之是否,是最通俗的判別理論。 此外,由吾人所蒐集的資料中發現,在祗有兩項的多項式中,被發現到其它更簡捷快 速的判別方法,故二項式的多項式的探討是本論文的第一主題,對於 k j X+bx ≡Fq〔X〕, 給予固定類型的q,k,j情形下,祗須檢定b是否具特 殊性質就可決定是否為排列多項式,這是一種方法。另有學者並不固定q,k,j, 反而從q,k,j數字下手,找尋出某種關連性,其結果使得係數b,只有當b=0 ,時才有機會是排列多項式,乘下單項式的判別過程,就很容易了。另外還有一種方 法也是找尋q,k,j間的關係,不過其結果在找出:多項式為非排列多項式,是比 較特別的地方。上述三方法,本論文網羅大部份有關論文,綜合各家之長,並適當給 予一同於原作者的新觀點證明方法。 至於本論文第二主題是著名的CARLITZ'S CONJECTURE此預測敘述:對於任何具有最高 冪次是偶數的多項式,必定存在一個自然數k,使得給定的代數體,其元素個數只要 超過k,則此多項式必定不是排列多項式。此預測當degree n=10,12,14, and 2m 時 已被證實為真。本論文僅就n=2m,做系統地探討及重新證明。 參、結語 本論文所論的兩主題,對於佈於代數體上的多項式是否為排列多項式,在判別的過程 上應有相當的助益才是。
552

Développement de méthodes pour la détection de changement

Blanc, Philippe 03 December 1999 (has links) (PDF)
La détection des changements d'un paysage est la mise en œuvre de techniques ayant pour but de repérer, de mettre en évidence et enfin, de comprendre son évolution temporelle. Ses domaines d'application sont riches et variés en télédétection. Cependant, la plupart des applications de détection de changement ne s'appuient pas sur une démarche générale permettant de justifier ou de généraliser les solutions techniques proposées. La thèse a pour premier objectif d'apporter une nouvelle contribution à la mise en place d'un cadre et d'une méthodologie générale propre à la détection de changement. Après l'établissement d'un certain nombre de définitions sur les changements d'un paysage en termes d'échelles caractéristiques et d'observabilité, nous proposons une méthodologie, basée sur un analyse bibliographique, se décomposant en cinq étapes : l'identification et la caractérisation des différentes sources de changements effectifs et exogènes ; l'alignement géométrique et radiométrique des données ; l'extraction d'informations pertinentes vis-à-vis des changements à détecter ; la création des écarts à un modèle d'évolution temporelle ; la prise de décision et la synthèse des résultats. Cette analyse fait apparaître des problèmes fondamentaux relatifs au lien entre les changements effectifs et ceux observés en fonction des caractéristiques des moyens d'observation. L'étude de ce lien est le deuxième objectif de la thèse. Enfin, la thèse a mis en évidence le rôle crucial de l'alignement des données et, notamment, de l'alignement géométrique. A partir d'un algorithme existant, nous avons élaboré une méthode de recalage automatique itérative s'appuyant sur une décomposition multirésolution des images et utilisant des techniques d'appariement sub-pixellaire et de déformation géométrique locales. Un protocole innovant de validation à partir d'images simulées a été établi et a permis d'évaluer la qualité de la méthode et son apport comparé à des méthodes de recalage standards.
553

Approximation et intersection des surfaces procédurales utilisées en C.A.O.

Chau, Stéphane 10 June 2008 (has links) (PDF)
Cette thèse porte sur un des problèmes majeurs issus du domaine de la Conception Assistée par Ordinateur (CAO) à savoir celui de l'intersection. On aborde cette problèmatique avec une approche novatrice passant par une nouvelle forme de représentation des surfaces dites \og procédurales \fg{}. Cette dernière se base sur des approximants plus fins que les triangles habituellement utilisés, il s'agit de carreaux de surfaces paramétrées polynomiales de bas degré. L'approximation ainsi obtenue possède des caractères intéressants en termes de qualité et de représentation. Cependant, la mise en oeuvre d'une telle stratégie nécessite l'élaboration d'outils adaptés. En particulier, pour le problème d'intersection, il faut savoir intersecter efficacement les approximants. Pour cela, une méthode algorithmique permet de se focaliser uniquement sur des configurations d'intersection \og pertinentes \fg{}. Plusieurs méthodes sur l'intersection des surfaces paramétrées polynomiales sont ensuite exposées de manière effective. Enfin, les aspects d'implémentation sont également abordés à travers l'intégration des algorithmes développés dans un modeleur algébrique géométrique.
554

Contribution to fluorescence microscopy, 3D thick samples deconvolution and depth-variant PSF

Maalouf, Elie 20 December 2010 (has links) (PDF)
The 3-D fluorescence microscope has become the method of choice in biological sciences for living cells study. However, the data acquired with conventional3-D fluorescence microscopy are not quantitatively significant because of distortions induced by the optical acquisition process. Reliable measurements need the correction of theses distortions. Knowing the instrument impulse response, also known as the PSF, one can consider the backward process of convolution induced by the microscope, known as "deconvolution". However, when the system response is not invariant in the observation field, the classical algorithms can introduce large errors in the results. In this thesis we propose a new approach, which can be easily adapted to any classical deconvolution algorithm, direct or iterative, for bypassing the non-invariance PSF problem, without any modification to the later. Based on the hypothesis that the minimal error in a restored image using non-invariance assumption is located near the used PSF position, the EMMA (Evolutive Merging Masks Algorithm) blends multiple deconvolutions in the invariance assumption using a specific merging mask set. In order to obtain sufficient number of measured PSF at various depths for a better restoration using EMMA (or any other depth-variant deconvolution algorithm) we propose a 3D PSF interpolation algorithm based on the image moments theory using Zernike polynomials as decomposition base. The known PSF are decomposed into Zernike moments set and each moment's variation is fitted into a polynomial function, the resulting functions are then used to interpolate the needed PSF's Zernike moments set to reconstruct the interpolated PSF.
555

Program analysis with interpolants

Weissenbacher, Georg January 2010 (has links)
This dissertation discusses novel techniques for interpolation-based software model checking, an approximate method which uses Craig interpolation to compute invariants of programs. Our work addresses two aspects of program analyses based on model checking: verification (the construction of correctness proofs for programs) and falsification (the detection of counterexamples that violate the specification). In Hoare's calculus, a proof of correctness comprises assertions which establish that a program adheres to its specification. The principal challenge is to derive appropriate assertions and loop invariants. Contemporary software verification tools use Craig interpolation (as opposed to traditional predicate transformers such as the weakest precondition) to derive approximate assertions. The performance of the model checker is contingent on the Craig interpolants computed. We present novel interpolation techniques which provide the following advantages over existing methods. Firstly, the resulting interpolants are sound with respect to the bit-level semantics of programs, which is an improvement over interpolation systems that use linear arithmetic over the reals to approximate bit-vector arithmetic and/or do not support bit-level operations. Secondly, our interpolation systems afford us a choice of interpolants and enable us to fine-tune their logical strength and structure. In contrast, existing procedures are limited to a single ad-hoc choice of an interpolant. Interpolation-based verification tools are typically forced to refine an initial approximation repeatedly in order to achieve the accuracy required to establish or refute the correctness of a program. The detection of a counterexample containing a repetitive construct may necessitate one refinement step (involving the computation of additional interpolants) for each iteration of the loop. We present a heuristic that aims to avoid the repeated and computationally expensive construction of interpolants, thus enabling the detection of deeply buried defects such as buffer overflows. Finally, we present an implementation of our techniques and evaluate them on a set of standardised device driver and buffer overflow benchmarks.
556

Families of orthogonal functions defined by the Weyl groups of compact Lie groups

Hakova, Lenka 08 1900 (has links)
Plusieurs familles de fonctions spéciales de plusieurs variables, appelées fonctions d'orbites, sont définies dans le contexte des groupes de Weyl de groupes de Lie simples compacts/d'algèbres de Lie simples. Ces fonctions sont étudiées depuis près d'un siècle en raison de leur lien avec les caractères des représentations irréductibles des algèbres de Lie simples, mais également de par leurs symétries et orthogonalités. Nous sommes principalement intéressés par la description des relations d'orthogonalité discrète et des transformations discrètes correspondantes, transformations qui permettent l'utilisation des fonctions d'orbites dans le traitement de données multidimensionnelles. Cette description est donnée pour les groupes de Weyl dont les racines ont deux longueurs différentes, en particulier pour les groupes de rang $2$ dans le cas des fonctions d'orbites du type $E$ et pour les groupes de rang $3$ dans le cas de toutes les autres fonctions d'orbites. / Several families of multivariable special functions, called orbit functions, are defined in the context of Weyl groups of compact simple Lie groups/Lie algebras. These functions have been studied for almost a century now because of their relation to characters of irreducible representations of Lie algebras, their symmetries and orthogonalities. Our main interest is the description of discrete orthogonality relations and their corresponding discrete transforms which allow the applications of orbit functions in the processing of multidimensional data. This description is provided for the Weyl group of different lengths of root, in particular groups of rank 2 for so-called $E-$orbit functions and of rank 3 for all the other families of special functions.
557

3D FUNCTIONAL MODELING OF DBS EFFICACY AND DEVELOPMENT OF ANALYTICAL TOOLS TO EXPLORE FUNCTIONAL STN

Kumbhare, Deepak 27 April 2011 (has links)
Introduction: Exploring the brain for optimal locations for deep brain stimulation (DBS) therapy is a challenging task, which can be facilitated by analysis of DBS efficacy in a large number of patients with Parkinson’s disease (PD). The Unified Parkinson's Disease Rating Scale (UPDRS) scores indicate the DBS efficacy of the corresponding stimulation location in a particular patient. The spatial distribution of these clinical scores can be used to construct a functional model which closely models the expected efficacy of stimulation in the region. Designs and Methods: In this study, different interpolation techniques were investigated that can appropriately model the DBS efficacy for Parkinson’s disease patients. These techniques are linear triangulation based interpolation, ‘roving window’ interpolation and ‘Monopolar inverse weighted distance’ (MIDW) interpolation. The MIDW interpolation technique is developed on the basis of electric field geometry of the monopolar DBS stimulation electrodes, based on the DBS model of monopolar cathodic stimulation of brain tissues. Each of these models was evaluated for their predictability, interpolation accuracy, as well as other benefits and limitations. The bootstrapping based optimization method was proposed to minimize the observational and patient variability in the collected database. A simulation study was performed to validate that the statistically optimized interpolated models were capable to produce reliable efficacy contour plots and reduced false effect due to outliers. Some additional visualization and analysis tools including a graphic user interface (GUI) were also developed for better understanding of the scenario. Results: The interpolation performance of the MIDW interpolation, the linear triangulation method and Roving window method was evaluated as interpolation error as 0.0903, 0.1219 and0.3006 respectively. Degree of prediction for the above methods was found to be 0.0822, 0.2986 and 0.0367 respectively. The simulation study demonstrate that the mean improvement in outlier handling and increased reliability after bootstrapping based optimization (performed on Linear triangulation interpolation method) is 6.192% and 12.8775% respectively. The different interpolation techniques used to model monopolar and bipolar stimulation data is found to be useful to study the corresponding efficacy distribution. A user friendly GUI (PDRP_GUI) and other utility tools are developed. Conclusion: Our investigation demonstrated that the MIDW and linear triangulation methods provided better degree of prediction, whereas the MIDW interpolation with appropriate configuration provided better interpolation accuracy. The simulation study suggests that the bootstrapping-based optimization can be used as an efficient tool to reduce outlier effects and increase interpolated reliability of the functional model of DBS efficacy. Additionally, the differential interpolation techniques used for monopolar and bipolar stimulation modeling facilitate study of overall DBS efficacy using the entire dataset.
558

Geomorfologická interpolace vrstevnic nad nepravidelnou trojúhelníkovou sítí / Geomorphological contour interpolation over triangulated irregular network

Morávek, Andrej January 2012 (has links)
The aim of this master thesis is to create an application to generate smooth contours with the method of non-linear, so-called geomorphological interpolation over triangulated irregular network using patch technique. The introductory part consists of the state of art in the field of patch modelling and description of georelief in the form of digital terrain models. The core of the work comprises the mathematical background of Bézier triangle patches using barycentric coordinates and interpolation techniques with definition of continuity. The main contribution is a proper algorithm of balanced patch smoothing in order to generate smooth contours as form of georelief representation. Description of linear contour interpolation over triangulated irregular network as a method of indirect geomorphological interpolation is also part of the core. Finally, the last part describes the implementation of algorithms that forms the application, presents and evaluates the results on synthetic and real data.
559

Přístupy k shlukování funkčních dat / Approaches to Functional Data Clustering

Pešout, Pavel January 2007 (has links)
Classification is a very common task in information processing and important problem in many sectors of science and industry. In the case of data measured as a function of a dependent variable such as time, the most used algorithms may not pattern each of the individual shapes properly, because they are interested only in the choiced measurements. For the reason, the presented paper focuses on the specific techniques that directly address the curve clustering problem and classifying new individuals. The main goal of this work is to develop alternative methodologies through the extension to various statistical approaches, consolidate already established algorithms, expose their modified forms fitted to demands of clustering issue and compare some efficient curve clustering methods thanks to reported extensive simulated data experiments. Last but not least is made, for the sake of executed experiments, comprehensive confrontation of effectual utility. Proposed clustering algorithms are based on two principles. Firstly, it is presumed that the set of trajectories may be probabilistic modelled as sequences of points generated from a finite mixture model consisting of regression components and hence the density-based clustering methods using the Maximum Likehood Estimation are investigated to recognize the most homogenous partitioning. Attention is paid to both the Maximum Likehood Approach, which assumes the cluster memberships to be some of the model parameters, and the probabilistic model with the iterative Expectation-Maximization algorithm, that assumes them to be random variables. To deal with the hidden data problem both Gaussian and less conventional gamma mixtures are comprehended with arranging for use in two dimensions. To cope with data with high variability within each subpopulation it is introduced two-level random effects regression mixture with the ability to let an individual vary from the template for its group. Secondly, it is taken advantage of well known K-Means algorithm applied to the estimated regression coefficients, though. The task of the optimal data fitting is devoted, because K-Means is not invariant to linear transformations. In order to overcome this problem it is suggested integrating clustering issue with the Markov Chain Monte Carlo approaches. What is more, this paper is concerned in functional discriminant analysis including linear and quadratic scores and their modified probabilistic forms by using random mixtures. Alike in K-Means it is shown how to apply Fisher's method of canonical scores to the regression coefficients. Experiments of simulated datasets are made that demonstrate the performance of all mentioned methods and enable to choose those with the most result and time efficiency. Considerable boon is the facture of new advisable application advances. Implementation is processed in Mathematica 4.0. Finally, the possibilities offered by the development of curve clustering algorithms in vast research areas of modern science are examined, like neurology, genome studies, speech and image recognition systems, and future investigation with incorporation with ubiquitous computing is not forbidden. Utility in economy is illustrated with executed application in claims analysis of some life insurance products. The goals of the thesis have been achieved.
560

Caractérisation multispectrale imageante du champ de lumière de sources et de matériaux pour la photosimulation / Multispectral imaging assesment of sources and materials for photosimulation

Boulenguez, Pierre 04 January 2010 (has links)
Dans l'ouvrage [DBB06], Dutré et al. énumèrent dix problèmes d'Illumination Globale non résolus. Parmi ceux-ci, huit sont liés à la mesure et à l'intégration de données réelles dans les simulations. Cette thèse, en quatre parties et trois annexes, s'intéresse à cette problématique. Tout d'abord, les simulations de la propagation de la lumière dans les domaines du rendu physiquement réaliste, de l'éclairage, de la télédétection, de la conception de systèmes optiques... sont envisagées comme résolutions numériques d'un problème d'optique, fédérées par la notion de « photosimulation ». Dans le cadre de l'équation de rendu, les modèles réalistes de sources et le principe de la mesure goniophotométrique en champ lointain sont alors rappelés. La représentation des interactions lumière-matière est ensuite introduite par une exploration de l'apparence macroscopique, qui amène au rappel de la Fonction de Distribution de la Réflectance Bidirectionnelle et Spectrale (SBRDF), de ses principales propriétés et modèles. Le problème de la mesure pratique de la SBRDF d'une surface dans le visible est ensuite exploré. Id est, une taxonomie des méthodes de la littérature est établie ; qui allègue en faveur du développement de nouvelles approches. Un dispositif innovant, multispectral imageant, est alors présenté. Il se fonde sur la capture de la projection de la SBRDF sur un écran lambertien 3/4-sphérique, par une caméra multispectrale grand angle, assemblage d'un objectif fisheye, d'un filtre dynamique LCTF et d'une caméra CCD 12 bits. L'extraction des images capturées de l'information de la SBRDF repose sur un modéle radiométrique, qui explicite la transformation de la lumière en niveaux des pixels, dans le formalisme physique. Ce modèle soulève des problèmes de reconstruction multispectrale et d'interréflexions, pour lesquels de nouveaux algorithmes de résolution sont implantés. Les mesures de SBRDF produites semblent très prometteuses. Dans la troisième partie, le problème de la reconstruction d'une fonction directionnelle, identifié comme fondamental en photosimulation, est traité dans le cadre de la reconstruction de SBRDF discrètes. Pour cela, les propriétés mathématiques souhaitables des fonctions reconstruites sont envisagées. Puis, à l'aune de ce corpus, les approches de la littérature sont discutées ; justifiant la recherche d'algorithmes plus performants. Une nouvelle méthode est alors proposée, fondée sur une double triangulation sphérique des échantillons, et une généralisation à la surface d'un triangle sphérique de l'interpolant spline cubique de Hermite. La fonction reconstruite est interpolante, dérivable, quasi-déterministe, ne présente pas l'artéfact bidirectionnel, intègre la métrique sphérique non euclidienne, et prend en compte le difficile problème du masquage. Qualitativement comme quantitativement, les résultats obtenus semblent plaider en faveur du surcroît de complexité théorique qu'induit cette approche. Dans la dernière partie, cet algorithme de reconstruction est appliqué au problème de la « photométrie en champ proche », ou, la caractérisation d'une source réelle par un solide photométrique étendu. La supériorité théorique du modèle étendu est d'abord démontrée. Puis, un état de l'art de la photométrie en champ proche est réalisé ; justifiant la mise en œuvre d'une nouvelle approche. Un nouveau dispositif est alors présenté. Il repose sur le déplacement d'un vidéoluminancemètre, couplage original d'une caméra CCD 12 bits avec un luxmètre, le long d'une trajectoire hémisphérique relative à la source. Les procédures de calibrage de l'instrument – géométrique, radiométrique, et photométrique – sont explicitées. Les sources de lumière caractérisées par cette approche ont été jugées suffisamment probantes pour être intégrées aux photosimulations spectrales du CSTB / Pas de résumé en anglais

Page generated in 0.0176 seconds