Spelling suggestions: "subject:"1heory off uncertainty"" "subject:"1heory oof uncertainty""
1 |
The Firm Under Regret AversionBroll, Udo, Welzel, Peter, Wong, Kit Pong 27 February 2017 (has links)
We examine the economic behavior of the regret-averse firm under price uncertainty. We show that the global and marginal effects of price uncertainty on production are both positive (negative) when regret aversion prevails if the random output price is positively (negatively) skewed. In this case, high (low) output prices are much more likely to be seen than low (high) output prices. To minimize regret, the firm is induced to raise (lower) its output optimal level. The skewness of the price distribution as such plays a pivotal role in determining the regret-averse firm\'s production decision.
|
2 |
Exploitation du conflit entre capteurs pour la gestion d'un système complexe multi-capteurs / Exploitation of conflict between sensors for the management of a complex multisensor systemRoquel, Arnaud 12 December 2012 (has links)
Les systèmes complexes intègrent aujourd’hui de nombreux capteurs physiques ou logiques qui facilitent la prise de décisions optimales en fonction de l’exosystème et de l’endosystème. Ces capteurs sont des sources de données, qui délivrent des informations partielles, imprécises et/ou incertaines, partiellement complémentaires et partiellement redondantes. La théorie des fonctions de croyances offre un cadre formel adapté à la représentation de l’imprécision et de l’incertitude des informations. Cependant, même en modélisant l’ignorance et l’imprécision des sources, l’absence de conflit entre les sources n’est toutefois pas garantie.Dans la théorie des fonctions de croyances, le désaccord entre sources est classiquement mesuré en termes de conflit ‘Dempsterien’, celui résultant de la combinaison conjonctive des sources, ou de dis-similarité ou distances entre fonctions de croyance. Toutes ces mesures sont globales, et ne donnent pas d’information directe sur la source du conflit.La contribution principale de cette thèse est de décomposer le conflit Dempsterien dans le but d'analyser celui-ci. Nous proposons une décomposition par rapport aux différentes hypothèses simples ou composées, issues de l'espace de discernement. Nous montrons l’unicité de cette décomposition et explicitons l’algorithme de calcul, à partir de la décomposition canonique de la fonction de croyance. Nous interprétons alors chacun des termes de la décomposition comme la contribution au conflit global, apportée par chaque hypothèse simple ou composée. Cette décomposition s’applique à l’analyse du confit intra-source (i.e. le conflit inhérent à la source) ou du conflit inter-sources (i.e. le conflit qui apparait lors de la fusion des sources). Nous illustrons sur des exemples jouets comment l’observation de la répartition du conflit par rapport aux différentes hypothèses peut permettre l’identification de l’origine de certains conflits. Trois applications de notre mesure sont ensuite développées, afin d’illustrer son utilité.La première application concerne la détection préventive de chute un véhicule type bicycle (moto). Les sources de données sont les accélérations mesurées sur les deux roues. Un conflit entre ces mesures, supposées hautement redondantes, voire corrélées, sera alors interprété comme un début de chute. Nous montrons que la décomposition du conflit fournit un indicateur de chute plus fin et précoce que la mesure du conflit Dempsterien.La deuxième application concerne la localisation de véhicule, problème essentiel pour l’autonomie des véhicules d'exploration comme des robots de service. Les sources sont des sorties d’algorithmes d’estimation de mouvement du véhicule. Nous montrons d’abord qu’estimer dynamiquement la fiabilité des sources permet d’améliorer la fusion. Nous montrons ensuite que la décomposition du conflit permet une mesure plus fine de la fiabilité de la fusion que la mesure du conflit Dempsterien. En cas de conflit détecté, l’estimation de la fiabilité de chaque source est ensuite fondée sur la vérification (ou non) d’une hypothèse de régularité temporelle, vérification elle-même basée sur une mesure de distance locale aux hypothèses simples ou composées. La troisième application propose une généralisation de la combinaison hybride de Dubois Prade au cas de la combinaison à N sources. Notre mesure calculant le conflit partiel associé à chaque sous-ensemble d’hypothèses, en nous inspirant du principe de la règle de combinaison hybride, nous redistribuons la masse de ce conflit partiel à la disjonction des hypothèses du sous-ensemble. La décomposition du conflit permet d’identifier de manière unique les différents sous-ensembles d’hypothèses contribuant au conflit.En conclusion, les travaux ont montré que l’information issue de la mesure du conflit, et de sa décomposition, pouvait (devait) être considérée comme une information à part entière, permettant notamment la gestion des sources et des croyances à fusionner. / Complex systems are now integrating many sensors, physical or logical, in order to be able to take the best decision knowing the exosystem and endosystem. These sensors are data sources, which deliver partial information, imprecise and/or uncertain, partially complementary and partially redundant. The theory of belief functions is now widely used in data fusion because it provides a formal framework for the representation of both imprecise and uncertainty information. However, even modeling the ignorance and the imprecision of the sources, the source combination usually lets appear some disagreement/conflict between sources.A disagreement between sources makes the system unstable and can impact the decision. Thus, for managing the disagreement, several authors have developed different combination rules where the “Dempster's conflict” is transferred to a set of elements. A few works have proposed to consider the conflict as a piece of information exploitable beyond the scope of the combination. In this work, we aim at decomposing the Dempster's conflict in order to better interpret it. We propose a decomposition with respect to different assumptions simple or compound of discernment space. We show the uniqueness of this decomposition and we specify the algorithm, based on the canonical decomposition of belief function. We then interpret each term of the decomposition as the contribution, to global conflict, brought by each hypothesis simple or compound. This decomposition is applied to the analysis of intra-conflict source (i.e. the conflict inherent in the source) or inter-conflict sources (i.e. the conflict appearing during the fusion of sources). We illustrate on toy examples how observing the distribution of conflict with respect to different assumptions may allow the identification of the origin of some conflicts.Three applications of our measurement have been developed to illustrate its usefulness.The first application deals with the preventive detection of fall for motorbike. Typical data sources are speed and accelerations measured on each of the two wheels. A conflict between these measures, supposed highly redundant or even correlated, should be interpreted as an early fall (sliding, shock). We show that the decomposition of conflict provides a finer and earlier indicator of fall than Dempster's conflict.The second application is the localization of the vehicle, the key issue being for autonomous exploration vehicles such as service robots. The sources are outputs of algorithms estimating the movement of the vehicle (such as odometers, visual odometry, FastSLAM). We first show that estimating the reliability of sources dynamically improves fusion. We then show that the decomposition of conflict allows a more refined measure of the fusion reliability than Dempster's conflict. Now, when conflict is detected, the estimation of the reliability of each source is based on the verification (or not) of an assumption of temporal regularity, verification itself based on a distance measure local to the discernment space hypotheses.The third application is the generalization of the hybrid combination [Dubois and Prade, 1988] to the case of N sources. Our measure calculates the partial conflicts associated with each subset of hypotheses. Following the hybrid combination [Dubois and Prade, 1988] principle, we redistribute the mass associated to a partial conflict on the disjunction of the hypotheses involving this partial conflict. In this redistribution, our decomposition of the conflict is essential since it allows identifying uniquely the various sub-sets of hypotheses involving partial conflicts.In conclusion, this work has shown that the information derived from the conflict measurement, and its decomposition could (should) be considered a full information, particularly for the management of sources and beliefs to combine.
|
3 |
Sir Arthur Eddington and the foundations of modern physicsDurham, Ian T. January 2005 (has links)
In this dissertation I analyze Sir Arthur Eddington's statistical theory as developed in the first six chapters of his posthumously published Fundamental Theory. In particular I look at the mathematical structure, philosophical implications, and relevancy to modern physics. This analysis is the only one of Fundamental Theory that compares it to modern quantum field theory and is the most comprehensive look at his statistical theory in four decades. Several major insights have been made in this analysis including the fact that he was able to derive Pauli's Exclusion Principle in part from Heisenberg's Uncertainty Principle. In addition the most profound general conclusion of this research is that Fundamental Theory is, in fact, an early quantum field theory, something that has never before been suggested. Contrary to the majority of historical reports and some comments by his contemporaries, this analysis shows that Eddington's later work is neither mystical nor was it that far from mainstream when it was published. My research reveals numerous profoundly deep ideas that were ahead of their time when Fundamental Theory was developed, but that have significant applicability at present. As such this analysis presents several important questions to be considered by modern philosophers of science, physicists, mathematicians, and historians. In addition it sheds new light on Eddington as a scientist and mathematician, in part indicating that his marginalization has been largely unwarranted.
|
4 |
Verifikace modelu průběhu procesu při vyhledávání informací podle C.C. Kuhlthau v českém prostředí / Verification of the Kuhlthau's Information Search Process Model in the Environment of the Czech RepublicPřibylová, Ludmila January 2013 (has links)
The thesis focuses on Kuhlthau's Information Search Process Model. Firstly, the author explains Kuhlthau's model of information retrieval and seeking meaning of information from user's perspective. Results of the model are the uncertainty principle and mediation - findings which change our view of library services. In the second part of the thesis, the author introduces other research texts and manuals about writing a scientific text. She pays special attention to Jadwiga Šanderová's comprehensive manual which is called How to read and write a scientific text in social sciences, and to stylistics research text by Světla Čmejrková et al. called How to write down a scientific text. Thirdly, the author evaluates the survey which verifies Kuhlthau's model in the environment of the Czech Republic. The survey has taken place among postgraduate students, teachers and scientists from chosen universities in the Czech Republic
|
5 |
Application of new shape descriptors and theory of uncertainty in image processing / Примена нових дескриптора облика и теорије неодређености у обради слике / Primena novih deskriptora oblika i teorije neodređenosti u obradi slikeIlić Vladimir 20 December 2019 (has links)
<p>The doctoral thesis deals with the study of quantitative aspects of shape attribute ssuitable for numerical characterization, i.e., shape descriptors, as well as the theory of uncertainty, particularly the theory of fuzzy sets, and their application in image<br />processing. The original contributions and results of the thesis can be naturally divided into two groups, in accordance with the approaches used to obtain them. The first group of contributions relates to introducing new shape descriptors (of hexagonality and fuzzy squareness) and associated measures that evaluate to what extent the shape considered satisfies these properties. The introduced measures are naturally defined, theoretically well-founded, and satisfy most of the desirable properties expected to be satisfied by each well-defined shape measure. To mention some of them: they both range through (0,1] and achieve the largest possible value 1 if and only if the shape considered is a hexagon, respectively a fuzzy square; there is no non-zero area shape with the measured hexagonality or fuzzy squareness equal to 0; both introduced measures are invariant to similarity transformations; and provide results that are consistent with the theoretically proven results, as well as human perception and expectation. Numerous experiments on synthetic and real examples are shown aimed to illustrate theoretically proven considerations and to provide clearer insight into the behaviour of the introduced shape measures. Their advantages and applicability are illustrated in various tasks of recognizing and classifying objects images of several well-known and most frequently used image datasets. Besides, the doctoral thesis contains research related to the application of the theory of uncertainty, in the narrower sense fuzzy set theory, in the different tasks of image processing and shape analysis. We distinguish between the tasks relating to the extraction of shape features, and those relating to performance improvement of different image processing and image analysis techniques. Regarding the first group of tasks, we deal with the application of fuzzy set theory in the tasks of introducing new fuzzy shape-based descriptor, named fuzzy squareness, and measuring how much fuzzy square is given fuzzy shape. In the second group of tasks, we deal with<br />the study of improving the performance of estimates of both the Euclidean distance<br />transform in three dimensions (3D EDT) and the centroid distance signature of shape in two dimensions. Performance improvement is particularly reflected in terms of achieved accuracy and precision, increased invariance to geometrical transformations (e.g., rotation and translation), and robustness in the presence of noise and uncertainty resulting from the imperfection of devices or imaging conditions. The latter also refers to the second group of the original contributions and results of the thesis. It is motivated by the fact that the shape analysis traditionally assumes that the objects appearing in the image are previously uniquely and crisply extracted from the image. This is usually achieved in the process of sharp (i.e., binary) segmentation of the original image where a decision on the membership of point to an imaged object is made in a sharp manner. Nevertheless, due to the imperfections of imaging conditions or devices, the presence of noise, and various types of imprecision (e.g., lack of precise object boundary or clear boundaries between the objects, errors in computation, lack of information, etc.), different levels of uncertainty and vagueness in the process of making a decision regarding the membership of image point may potentially occur. This is particularly noticeable in the case of discretization (i.e., sampling) of continuous image domain when a single image element, related to corresponding image sample point, iscovered by multiple objects in an image. In this respect, it is clear that this type of segmentation can potentially lead to a wrong decision on the membership of image points, and consequently irreversible information loss about the imaged objects. This<br />stems from the fact that image segmentation performed in this way does not permit that the image point may be a member to a particular imaged object to some degree, further leading to the potential risk that points partially contained in the object before<br />segmentation will not be assigned to the object after segmentation. However, if instead of binary segmentation, it is performed segmentation where a decision about the membership of image point is made in a gradual rather than crisp manner, enabling that point may be a member to an object to some extent, then making a sharp decision on the membership can be avoided at this early analysis step. This further leads that potentially a large amount of object information can be preserved after segmentation and used in the following analysis steps. In this regard, we are interested in one specific type of fuzzy segmentation, named coverage image segmentation, resulting in fuzzy digital image representation where membership value assigned to each image element is proportional to its relative coverage by a continuous object present in the original image. In this thesis, we deal with the study of coverage digitization model providing coverage digital image representation and present how significant improvements in estimating 3D EDT, as well as the centroid distance signature of continuous shape, can be achieved, if the coverage<br />information available in this type of image representation is appropriately considered.</p> / <p>Докторска дисертација се бави проучавањем квантитативних аспеката атрибута<br />облика погодних за нумеричку карактеризацију, то јест дескриптора облика, као и<br />теоријом неодређености, посебно теоријом фази скупова, и њиховом применом у обради слике. Оригинални доприноси и резултати тезе могу се природно поделити у две групе, у складу са приступом и методологијом која је коришћена за њихово добијање. Прва група доприноса односи се на увођење нових дескриптора облика (шестоугаоности и фази квадратности) као и одговарајућих мера које нумерички оцењују у ком обиму разматрани облик задовољава разматрана својства. Уведене мере су природно дефинисане, теоријски добро засноване и задовољавају већину пожељних својстава које свака добро дефинисана мера облика треба да задовољава. Поменимо неке од њих: обе мере узимају вредности из интервала (0,1] и достижу највећу могућу вредност 1 ако и само ако је облик који се посматра шестоугао, односно фази квадрат; не постоји облик не-нула површине чија је измерена шестоугаоност, односно фази квадратност једнака 0; обе уведене мере су инваријантне у односу на трансформације сличности; и дају резултате који су у складу са теоријски доказаним резултатима, као и људском перцепцијом и очекивањима. Бројни експерименти на синтетичким и реалним примерима приказани су у циљу илустровања теоријски доказаних разматрања и пружања јаснијег увида у понашање уведених мера. Њихова предност и корисност илустровани су у различитим задацима препознавања и класификације слика објеката неколико познатих и најчешће коришћених база слика. Поред тога, докторска теза садржи истраживања везана за примену теорије неодређености, у ужем смислу теорије фази скупова, у различитим задацима обраде слике и анализе облика. Разликујемо задатке који се односе на издвајање карактеристика облика и<br />оне који се односе на побољшање перформанси различитих техника обраде и<br />анализе слике. Што се тиче прве групе задатака, бавимо се применом теорије фази скупова у задацима дефинисања новог дескриптора фази облика, назван фази квадратност, и мерења колико је фази квадратан посматрани фази облик. У другој групи задатака бавимо се истраживањем побољшања перформанси оцене трансформације слике еуклидским растојањима у три димензије (3Д ЕДТ), као и сигнатуре непрекидног облика у две димензије засноване на растојању од<br />центроида облика. Ово последње се посебно огледа у постигнутој тачности и<br />прецизности оцене, повећаној инваријантности у односу на ротацију и транслацију објекта, као и робустности у присуству шума и неодређености које су последица несавршености уређаја или услова снимања. Последњи резултати се такође односе и на другу групу оригиналних доприноса тезе који су мотивисани чињеницом да анализа облика традиционално претпоставља да су објекти на слици претходно једнозначно и јасно издвојени из слике. Такво издвајање објеката се обично постиже у процесу јасне (то јест бинарне) сегментације оригиналне слике где се одлука о припадности тачке објекту на слици доноси на једнозначан и недвосмислени начин. Међутим, услед несавршености услова или уређаја за снимање, присуства шума и различитих врста непрецизности (на пример непостојање прецизне границе објекта или јасних граница између самих објеката, грешке у рачунању, недостатка информација, итд.), могу се појавити различити нивои несигурности и неодређености у процесу доношења одлуке у вези са припадношћу тачке слике. Ово је посебно видљиво у случају дискретизације (то јест узорковања) непрекидног домена слике када<br />елемент слике, придружен одговарајућој тачки узорка домена, може бити<br />делимично покривен са више објеката на слици. У том смислу, имамо да ова врста сегментације може потенцијално довести до погрешне одлуке о припадности тачака слике, а самим тим и неповратног губитка информација о објектима који се на слици налазе. То произлази из чињенице да сегментација слике изведена на овај начин не дозвољава да тачка слике може делимично у одређеном обиму бити члан посматраног објекта на слици, што даље води потенцијалном ризику да тачке делимично садржане у објекту пре сегментације неће бити придружене објекту након сегментације. Међутим, ако се уместо бинарне сегментације изврши сегментација слике где се одлука о припадности тачке слике објекту доноси на начин који омогућава да тачка може делимично бити члан објекта у неком обиму, тада се доношење бинарне одлуке о чланство тачке објекту на слици може избећи у овом раном кораку анализе. То даље резултира да се потенцијално велика количина информација о објектима присутним на слици може сачувати након сегментације, и користити у следећим корацима анализе. С тим у вези, од посебног интереса за нас јесте специјална врста фази сегментације слике, сегментација заснована на покривености елемената слике, која као резултат обезбеђује фази дигиталну репрезентацију слике где је вредност чланства додељена сваком елементу пропорционална његовој релативној покривености непрекидним објектом на оригиналној слици. У овој тези бавимо се истраживањем модела дигитализације покривености који пружа овакву врсту репрезентацију слике и представљамо како се могу постићи значајна побољшања у оцени 3Д ЕДТ, као и сигнатуре непрекидног облика засноване на растојању од центроида, ако су информације о покривености<br />доступне у овој репрезентацији слике разматране на одговарајући начин.</p> / <p>Doktorska disertacija se bavi proučavanjem kvantitativnih aspekata atributa<br />oblika pogodnih za numeričku karakterizaciju, to jest deskriptora oblika, kao i<br />teorijom neodređenosti, posebno teorijom fazi skupova, i njihovom primenom u obradi slike. Originalni doprinosi i rezultati teze mogu se prirodno podeliti u dve grupe, u skladu sa pristupom i metodologijom koja je korišćena za njihovo dobijanje. Prva grupa doprinosa odnosi se na uvođenje novih deskriptora oblika (šestougaonosti i fazi kvadratnosti) kao i odgovarajućih mera koje numerički ocenjuju u kom obimu razmatrani oblik zadovoljava razmatrana svojstva. Uvedene mere su prirodno definisane, teorijski dobro zasnovane i zadovoljavaju većinu poželjnih svojstava koje svaka dobro definisana mera oblika treba da zadovoljava. Pomenimo neke od njih: obe mere uzimaju vrednosti iz intervala (0,1] i dostižu najveću moguću vrednost 1 ako i samo ako je oblik koji se posmatra šestougao, odnosno fazi kvadrat; ne postoji oblik ne-nula površine čija je izmerena šestougaonost, odnosno fazi kvadratnost jednaka 0; obe uvedene mere su invarijantne u odnosu na transformacije sličnosti; i daju rezultate koji su u skladu sa teorijski dokazanim rezultatima, kao i ljudskom percepcijom i očekivanjima. Brojni eksperimenti na sintetičkim i realnim primerima prikazani su u cilju ilustrovanja teorijski dokazanih razmatranja i pružanja jasnijeg uvida u ponašanje uvedenih mera. NJihova prednost i korisnost ilustrovani su u različitim zadacima prepoznavanja i klasifikacije slika objekata nekoliko poznatih i najčešće korišćenih baza slika. Pored toga, doktorska teza sadrži istraživanja vezana za primenu teorije neodređenosti, u užem smislu teorije fazi skupova, u različitim zadacima obrade slike i analize oblika. Razlikujemo zadatke koji se odnose na izdvajanje karakteristika oblika i<br />one koji se odnose na poboljšanje performansi različitih tehnika obrade i<br />analize slike. Što se tiče prve grupe zadataka, bavimo se primenom teorije fazi skupova u zadacima definisanja novog deskriptora fazi oblika, nazvan fazi kvadratnost, i merenja koliko je fazi kvadratan posmatrani fazi oblik. U drugoj grupi zadataka bavimo se istraživanjem poboljšanja performansi ocene transformacije slike euklidskim rastojanjima u tri dimenzije (3D EDT), kao i signature neprekidnog oblika u dve dimenzije zasnovane na rastojanju od<br />centroida oblika. Ovo poslednje se posebno ogleda u postignutoj tačnosti i<br />preciznosti ocene, povećanoj invarijantnosti u odnosu na rotaciju i translaciju objekta, kao i robustnosti u prisustvu šuma i neodređenosti koje su posledica nesavršenosti uređaja ili uslova snimanja. Poslednji rezultati se takođe odnose i na drugu grupu originalnih doprinosa teze koji su motivisani činjenicom da analiza oblika tradicionalno pretpostavlja da su objekti na slici prethodno jednoznačno i jasno izdvojeni iz slike. Takvo izdvajanje objekata se obično postiže u procesu jasne (to jest binarne) segmentacije originalne slike gde se odluka o pripadnosti tačke objektu na slici donosi na jednoznačan i nedvosmisleni način. Međutim, usled nesavršenosti uslova ili uređaja za snimanje, prisustva šuma i različitih vrsta nepreciznosti (na primer nepostojanje precizne granice objekta ili jasnih granica između samih objekata, greške u računanju, nedostatka informacija, itd.), mogu se pojaviti različiti nivoi nesigurnosti i neodređenosti u procesu donošenja odluke u vezi sa pripadnošću tačke slike. Ovo je posebno vidljivo u slučaju diskretizacije (to jest uzorkovanja) neprekidnog domena slike kada<br />element slike, pridružen odgovarajućoj tački uzorka domena, može biti<br />delimično pokriven sa više objekata na slici. U tom smislu, imamo da ova vrsta segmentacije može potencijalno dovesti do pogrešne odluke o pripadnosti tačaka slike, a samim tim i nepovratnog gubitka informacija o objektima koji se na slici nalaze. To proizlazi iz činjenice da segmentacija slike izvedena na ovaj način ne dozvoljava da tačka slike može delimično u određenom obimu biti član posmatranog objekta na slici, što dalje vodi potencijalnom riziku da tačke delimično sadržane u objektu pre segmentacije neće biti pridružene objektu nakon segmentacije. Međutim, ako se umesto binarne segmentacije izvrši segmentacija slike gde se odluka o pripadnosti tačke slike objektu donosi na način koji omogućava da tačka može delimično biti član objekta u nekom obimu, tada se donošenje binarne odluke o članstvo tačke objektu na slici može izbeći u ovom ranom koraku analize. To dalje rezultira da se potencijalno velika količina informacija o objektima prisutnim na slici može sačuvati nakon segmentacije, i koristiti u sledećim koracima analize. S tim u vezi, od posebnog interesa za nas jeste specijalna vrsta fazi segmentacije slike, segmentacija zasnovana na pokrivenosti elemenata slike, koja kao rezultat obezbeđuje fazi digitalnu reprezentaciju slike gde je vrednost članstva dodeljena svakom elementu proporcionalna njegovoj relativnoj pokrivenosti neprekidnim objektom na originalnoj slici. U ovoj tezi bavimo se istraživanjem modela digitalizacije pokrivenosti koji pruža ovakvu vrstu reprezentaciju slike i predstavljamo kako se mogu postići značajna poboljšanja u oceni 3D EDT, kao i signature neprekidnog oblika zasnovane na rastojanju od centroida, ako su informacije o pokrivenosti<br />dostupne u ovoj reprezentaciji slike razmatrane na odgovarajući način.</p>
|
Page generated in 0.0781 seconds