Spelling suggestions: "subject:"egmentation."" "subject:"asegmentation.""
171 |
Segmentation du nombre de sinistres en assurance : de la loi de Poisson aux modèles gonflés à zéro et à barrièreBoucher, Jean-Philippe 16 May 2007 (has links)
La première partie de la thèse s'intéresse aux modèles de classification du nombre de réclamations sous l'hypothèse que toutes les observations analysées dans la base de données sont indépendantes. En introduisant les caractéristique du risque dans la moyenne par une fonction de score, le développe-ment de ce type de modèles permet de mieux comprendre l'impact de certaines caractéristiques sur la probabilité de réclamer à l'assureur. De plus, en utilisant des modèles qui diffèrent de la loi de Poisson, ces travaux permettent une autre interprétation du mécanisme de réclamation à l'assureur. L'effet du bonus-malus, des déductibles ou du changement de perception du conducteur après un accident sont toutes des explications possibles à la divergence entre le nombre de réclamation et la loi de Poisson.
Dans la majorité des situations en assurance, les caractéristiques du risque ne sont pas toutes utilisées dans la tarification, soit parce qu'elles ne sont pas mesurables, soit parce qu'il serait socialement inacceptable de les utiliser. Ainsi, un facteur d'hétérogénéité permettant de capturer ces caractéristiques inobservables
est ajouté au paramètre de moyenne de la loi de
Poisson. Ce facteur additionnel, appelé hétérogénéité, est modélisé de façon paramétrique ou encore de manière non-paramétrique. Plusieurs méthodes peuvent être envisagées pour déterminer la forme non-paramétrique de cette étérogénéité.
Nous avons analysé ces diverses méthodes d'évaluations et comparé les résultats avec des méthodes complètement paramétriques.
Puisque de nombreux modèles pour données de comptage sont utilisés, des méthodes de comparaisons de modèles ont été développées.
Certaines sont basées sur les distributions d'estimation des paramètres alors que certaines autres se basent sur la distribution du maximum de vraisemblance ou les critères d'information.
Suite à ces analyses et ces comparaisons, nous pouvons voir que la distribution de l'hétérogénéité de la loi de Poisson ne peut pas être directement ajustée avec une distribution paramétrique simple. De la même manière, nous avons remarqué qu'une distribution plus complexe que la loi de Poisson, telles que la distribution à barrière, la binomiale négative X ou les modèles
gonflés à zéro génèrent non-seulement un meilleur ajustement que les distributions de Poisson avec hétérogénéité, mais que leur utilisation se justifie intuitivement pour les données d'assurance. Une grande partie de cette thèse se consacre justement à l'analyse de ces nouvelles distributions en assurance.
De manière similaire aux travaux effectués selon l'hypothèse que tous les contrats d'assurance sont indépendants, cette section de la thèse se consacre à l'analyse de modèles avec données de panel, supposant donc une dépendance entre les contrats d'un même assuré. Intuitivement, cette dépendance se justifie en considérant l'effet des variables de classification inconnues qui touchent tous les contrats d'un même assuré, ou encore en considérant l'impact d'un accident sur les habitudes de conduite d'un assuré.
Ainsi, en se basant sur les lois de Poisson et binomiale négative, divers modèles créant une dépendance temporelle entre les contrats d'un même assuré sont étudiés. De ces distributions sont aussi calculées les primes prédictives, c'est-à-dire les primes conditionnelles à un historique de sinistres.
Tout comme la partie précédente de la thèse, diverses interprétations des modèles sont proposées. De manière assez claire, un seul modèle sort du lot: le modèle où un effet aléatoire individuel affecte toutes les observations d'un même assuré. Néanmoins, avant d'utiliser ce modèle, une hypothèse essentielle d'indépendance entre les caractéristiques du risque et ce facteur aléatoire doit être vérifiée.
Pour les données d'assurance, cette hypothèse n'est pas vérifiée en pratique et il est important
d'en comprendre l'impact sur l'analyse actuarielle.
Nous montrons numériquement que cette dépendance entre les caractéristiques du risque et l'effet aléatoire biaise l'espérance du modèle, et donc la prime a priori. Toutefois, nous montrons
que ce biais n'a que très peu d'importance en assurance puisque les paramètres obtenus avec cette dépendance représentent l'effet apparent
des caractéristiques sur le risque de réclamer,
ce qui est justement l'intérêt de l'analyse actuarielle dans le cas où certaines caractéristiques sont absentes de l'étude.
Nous tentons également d'utiliser le modèle à effets aléatoires avec une toute nouvelle sorte de distribution de comptage construite à l'aide des temps d'attente entre deux sinistres. Il est connu que la loi de Poisson suppose un temps exponentiel entre chaque sinistre. Ainsi, nous avons voulu voir ce que serait l'impact d'un choix différent pour cette distribution.Parce que les nouveaux assurés et les assurés qui quittent la compagnie d'assurance en cours de couverture ont des expériences de sinistres particulières,
il arrive souvent que ceux-ci soient étudiés séparément des autres assurés lors de la tarification. Avec ces modèles de temps d'attente permettant de tarifer ces assurés différemment qu'au prorata de leur exposition au risque, nous introduisons une nouvelle façon de considérer l'analyse des différents contrats d'assurance.
Parce que les modèles gonflés à zéro et les modèles à barrière étaient très intéressants intuitivement et parce que leur ajustement pour données avec indépendance temporelle était particulièrement bon, il semblait évident qu'une analyse de ce modèle pour données de panel devenait intéressante. Parmi les modèles avec dépendance temporelle, le modèle à effets aléatoires était celui qui offrait les résultats les plus prometteurs. Ainsi, dans cette partie de la thèse, nous avons pensé associer ce modèle pour données de panel aux modèles gonflés à zéro et à barrière, et ainsi créer diverses généralisations des modèles pour données de panel.
Pour le modèle à barrière, la distribution suppose que deux processus indépendants déterminent le nombre total de réclamations. Un premier processus indique si l'assuré a réclamé au moins une fois, alors que le second processus
détermine le nombre total de réclamations, conditionnellement au fait que l'assuré ait réclamé à son assureur. Des effets aléatoires sont donc ajoutés sur chaque processus de cette distribution, alors que diverses copulas sont sélectionnées afin de modéliser la dépendance
entre les effets aléatoires. Nous montrons que la distribution prédictive du nombre de réclamations
ne dépend pas seulement du nombre de réclamations passées, mais aussi du nombre de périodes dans lesquelles l'assuré a réclamé. La distribution prédictive ne pouvant pas s'exprimer de manière close pour toutes les distributions jointes des effets aléatoires, des simulations Monte Carlo par chaînes de Markov sont utilisées pour calculer les primes prédictives.
A l'opposé du modèle à barrière, le modèle gonflé à zéro peut n'utiliser qu'un seul effet aléatoire.
De plus, la distribution prédictive peut s'exprimer directement, ce qui facilite la comparaison entre modèles et le calcul des diverses statistiques. A l'instar du modèle à barrière, nous montrons que le nombre de réclamations passées n'est pas une statistique
exhaustive pour la distribution prédictive puisqu'elle dépend aussi du nombre de périodes dans lesquelles l'assuré a réclamé au moins une fois.
Profitant du fait que le modèle gonflé à zéro avec effets aléatoires gamma peut s'exprimer de manière fermée, diverses primes de crédibilité,
utilisant une fonction de perte quadratique ou une fonction de perte exponentielle sont étudiées.
Un point de vue totalement différent est aussi étudié, où de la distribution du nombre de réclamation est tirée la distribution du nombre de sinistres. L'analyse sous l'angle de la soif du bonus est donc possible.
Afin d'obtenir des primes prédictives plus facilent calculables pour certains modèles à barrière et modèles gonflés à zéro, nous utilisons la théorie de la crédibilité multivariée, basée sur une erreur quadratique. Nous comparons ensuite le résultat de ces primes de crédibilité au vraies résultats obtenus par simulations. A l'aide d'un exemple numérique, nous montrons que la structure de dépendance supposée par diverses distributions jointes des effets aléatoires n'est pas bien modélisée par une approximation linéaire. Néanmoins, dans le cas où un seul effet aléatoire est utilisé ou dans la situation où les effets aléatoires sont supposés indépendants, nous réussissons à montrer
qu'un modèle de crédibilité linéaire spécifique
génère une approximation satisfaisante.
|
172 |
Segmentation and Alignment of Speech and Sketching in a Design EnvironmentAdler, Aaron D. 01 February 2003 (has links)
Sketches are commonly used in the early stages of design. Our previous system allows users to sketch mechanical systems that the computer interprets. However, some parts of the mechanical system might be too hard or too complicated to express in the sketch. Adding speech recognition to create a multimodal system would move us toward our goal of creating a more natural user interface. This thesis examines the relationship between the verbal and sketch input, particularly how to segment and align the two inputs. Toward this end, subjects were recorded while they sketched and talked. These recordings were transcribed, and a set of rules to perform segmentation and alignment was created. These rules represent the knowledge that the computer needs to perform segmentation and alignment. The rules successfully interpreted the 24 data sets that they were given.
|
173 |
Market Segments Based on Consumers' Attitudes Toward LuxuryLiu, Chia-Wen 06 August 2007 (has links)
In the past times, luxury had been a way for the noble to show their wealth and social status off, which belongs to behaviors of the minority. However, with the times and the cultures changing, people¡¦s viewpoints toward luxury have altered. Trading up has been a prevailing phenomenon while new luxury also has come out gradually. As long as consumers regard the products as worth through the affective facet, they will be willing to make purchases with higher prices. Though luxury has nothing with the social status anymore, the value presented by luxury has overpassed what the currency can provide.
This study tried to explore consumers¡¦ attitudes toward luxury through cognitive component, affective component, and behavioral component, further, to do the segmentation of consumers based on their attitudes toward luxury. In addition, this study explored whether diverse demographic segmentation will lead to varied attitudes toward luxury, and even analyzed the relation between attitudes toward luxury and buying behaviors. This study took convenience sampling. The questionnaires comprised the paper ones and the online ones, distributed on March 11th, 2007 and completed on April 6th, 2007, while there were 518 questionnaires of validity.
The study result found that the attitudes toward luxury can be divided into three categories. One was the self-presenting, another was the pro-luxury, and the other was the anti-luxury. This study found that those who have positive attitudes toward luxury will purchase luxurious products more often. Besides, age and education would have a remarkable effect on attitudes toward luxury; by contrast, gender, occupation, income, and residence failed to. Finally, this study recommended that the corporations should choose marketing strategies according to consumers¡¦ attitudes toward luxury. As for those who had negative attitudes toward luxury, the companies should avoid using ¡§luxury¡¨ to be the main point for the advertisements. The corporations had to reinforce the intrinsic value within luxurious products and the added value, and further took care of the traditional elite luxury market and the mass luxury market.
|
174 |
noneChan, I-ju 23 August 2007 (has links)
Due to the development of Information Technology and World Wide Web, now sales can understand more about customer's browsing behaviors through the World Wide Web. Compared with now, sales could only get the sale data in the past. There is a huge grown of these data availability compared with the past. As the advance of computer hardware, we have more ability to store these data. However, with these data of buyers' making decision process not being analyzed, decision makers often could not understand the hidden information effectively.
The 3C retail chain stores had been selected as a case study for this research. We thought that consumer's need and acceptance toward products had already been reflected in the past consuming choices and searching behavior records. If we can find out the correlation between the searching behaviors and actual consuming records, this will assist business obtain the most appropriate marketing information on the web and increase response effectively. This will be tremendously profitable for marketing decision making. Using above theory, we suggest that data integration analysis model among members is applied to distinguish the marking segmentation for website promotion of company A. We hope that the model will improve current marketing communication and provide the practice value.
In the past, we normally apply demographic statistics, geographical distribution or social economy to segment consumers for the research about divining target customers. However, there has been no appropriate segmentation model to assist business of actual brick-and-click to segmentation on the basic behavior of the customer purchase for internet marketing promotions yet.
The consumer's behaviors had been applied as segmentation and the buyer's usage and response toward website had been utilized as foundation for this research. Principal components analysis had been applied to extract behavior variable; then Two-Stage Classification Method had applied to divide members into different groups. We divide members into life style groups of the one with similar data points and the one with different data points by the exploratory segmentation model for this research. This will be a nature formation of market segmentation to assist business to pin point what products to be sold on the web and how to differentiate the products. As well as assist business to segment member effectively, distinguish area website service and usage limitation. Business will no longer shoot blind for marketing to members and will be able to make the proper e-marketing communication decision.
|
175 |
Reconstruction of 3D Neuronal Structures from Densely Packed Electron Microscopy Data StacksYang, Huei-Fang 2011 August 1900 (has links)
The goal of fully decoding how the brain works requires a detailed wiring diagram of the brain network that reveals the complete connectivity matrix. Recent advances in high-throughput 3D electron microscopy (EM) image acquisition techniques have made it possible to obtain high-resolution 3D imaging data that allows researchers to follow axons and dendrites and to identify pre-synaptic and post-synaptic sites, enabling the reconstruction of detailed neural circuits of the nervous system at the level of synapses. However, these massive data sets pose unique challenges to structural reconstruction because the inevitable staining noise, incomplete boundaries, and inhomogeneous staining intensities increase difficulty of 3D reconstruction and visualization.
In this dissertation, a new set of algorithms are provided for reconstruction of neuronal morphology from stacks of serial EM images. These algorithms include (1) segmentation algorithms for obtaining the full geometry of neural circuits, (2) interactive segmentation tools for manual correction of erroneous segmentations, and (3) a validation method for obtaining a topologically correct segmentation when a set of segmentation alternatives are available. Experimental results obtained by using EM images containing densely packed cells demonstrate that (1) the proposed segmentation methods can successfully reconstruct full anatomical structures from EM images, (2) the editing tools provide a way for the user to easily and quickly refine incorrect segmentations, (3) and the validation method is effective in combining multiple segmentation results. The algorithms presented in this dissertation are expected to contribute to the reconstruction of the connectome and to open new directions in the development of reconstruction methods.
|
176 |
Project Management Software Market Segmentation in China : A market report for 3P International ABPan, Bin, Fu, Lin January 2008 (has links)
No description available.
|
177 |
Segmentation and Line Filling of 2D ShapesPérez Rocha, Ana Laura 21 January 2013 (has links)
The evolution of technology in the textile industry reached the design of embroidery patterns for machine embroidery. In order to create quality designs the shapes to be embroidered need to be segmented into regions that define different parts. One of the objectives of our research is to develop a method to automatically segment the shapes and by doing so making the process faster and easier. Shape analysis is necessary to find a suitable method for this purpose. It includes the study of different ways to represent shapes. In this thesis we focus on shape representation through its skeleton. We make use of a shape's skeleton and the shape's boundary through the so-called feature transform to decide how to segment a shape and where to place the segment boundaries. The direction of stitches is another important specification in an embroidery design. We develop a technique to select the stitch orientation by defining direction lines using the skeleton curves and information from the boundary. We compute the intersections of segment boundaries and direction lines with the shape boundary for the final definition of the direction line segments. We demonstrate that our shape segmentation technique and the automatic placement of direction lines produce sufficient constrains for automated embroidery designs. We show examples for lettering, basic shapes, as well as simple and complex logos.
|
178 |
User aid-based evolutionary computation for optimal parameter setting of image enhancement and segmentationDarvish, Arman 01 December 2011 (has links)
Applications of imaging and image processing become a part of our daily life
and find their crucial way in real-world areas. Accordingly, the corresponding
techniques get more and more complicated.
Many tasks are recognizable for a image processing chain, such as, filtering, color
balancing, enhancement, segmentation, and post processing. Generally speaking,
all of the image processing techniques need a control parameter setting. The better
these parameters are set the better results can be achieved. Usually, these parameters
are real numbers so search space is really large and brute-force searching
is impossible or at least very time consuming. Therefore, the optimal setting of
the parameters is an essential requirement to obtain desirable results. Obviously,
we are faced with an optimization problem, which its complexity depends on the
number of the parameters to be optimized and correlation among them.
By reviewing the optimization methods, it can be understood that metaheuristic
algorithms are the best candidates for these kind of problems. Metaheuristic
algorithms are iterative approaches which can search very complex large spaces to
come up with an optimal or close to optimal solution(s). They are able to solve
black-box global optimization problems which are not solvable by classic mathematical
methods.
The first part of this thesis optimizes the control parameters for an eye-illusion,
image enhancement, and image thresholding tasks by using an interactive evolutionary
optimization approach. Eye illusion and image enhancement are subjective
human perception-based issues, so, there is no proposed analytical fitness function
for them. Their optimization is only possible through interactive methods. The second
part is about setting of active contour (snake) parameters. The performance
of active contours (snakes) is sensitive to its eight correlated control parameters
which makes the parameter setting problem complex to solve. In this work, wehave tried to set the parameters to their optimal values by using a sample segmented
image provided by an expert. As our case studies, we have used breast
ultrasound, prostate ultrasound, and lung X-ray medical images. The proposed
schemes are general enough to be investigated with other optimization methods
and also image processing tasks. The achieved experimental results are promising
for both directions, namely, interactive-based image processing and sample-based
medical image segmentation. / UOIT
|
179 |
Computer assisted detection of polycystic ovary morphology in ultrasound imagesRaghavan, Mary Ruth Pradeepa 29 August 2008
Polycystic ovary syndrome (PCOS) is an endocrine abnormality with multiple diagnostic criteria due to its heterogenic manifestations. One of the diagnostic criterion includes analysis of ultrasound images of ovaries for the detection of number, size, and distribution of follicles within the ovary. This involves manual tracing of follicles on the ultrasound images to determine the presence of a polycystic ovary (PCO). A novel method that automates PCO morphology detection is described. Our algorithm involves automatic segmentation of follicles from ultrasound images, quantifying the attributes of the segmented
follicles using stereology, storing follicle attributes as feature vectors, and finally
classification of the feature vector into two categories. The classification categories are
PCO morphology present and PCO morphology absent. An automatic PCO diagnostic tool would save considerable time spent on manual tracing of follicles and measuring the length and width of every follicle. Our procedure was able to achieve classification accuracy of 92.86% using a linear discriminant classifier. Our classifier will improve the rapidity and accuracy of PCOS diagnosis, and reduce the chance of the severe health implications that can arise from delayed diagnosis.
|
180 |
Automatic measurement of human subcutaneous fat with ultrasoundNg, Jessie Ying Chi 11 1900 (has links)
Measuring human subcutaneous fat is useful for assessing health risks due to obesity and for monitoring athletes’ health status, body shapes and weight for various sports competitions such as gymnastics and wrestling. Our aim is to investigate the use of ultrasound imaging in automatically
measuring human subcutaneous fat thickness.
We proposed to use the spectrum properties extracted from the raw radio frequency (RF) signals of ultrasound for the purpose of fat boundary detection. Our fat detection framework consists of four main steps. The first step is capturing RF data from 11 beam steering angles and at four focal positions. Secondly, two spectrum properties (spectrum variance and integrated backscatter coefficient) are calculated from the local spectrum of RF data using the short time Fourier transform and moment analysis. The values of the spectrum properties are encoded as gray-scale parametric images. Thirdly, spatial compounding is used to reduce speckle noise in the parametric images and improve the visualization of the subcutaneous fat layer. Finally, we apply Rosin’s thresholding
and Random Sample Consensus boundary detection on the parametric images to extract the fat boundary.
The detection framework was tested on 36 samples obtained at the suprailiac, thigh and triceps of nine human participants in vivo. When compared to manual boundary detection on ultrasound images, the best result was obtained from segmenting the spatial compounded spectrum variance values averaged over multiple focuses. A reasonable result could also be obtained by using a single
focus. Further, our automatic detection results were compared with the results using skinfold caliper measurements. We found that the correlation is high between our automatic detection and skinfold caliper measurement, and is similar to the previous studies which are not automatic. Our work has shown that the spatial compounded spectrum properties of RF data can be used to segment the subcutaneous fat layer. Based on our results, it is feasible to detect fat at the suprailiac, thigh and triceps sites using the spectrum variance. The values of spectrum variance change more rapidly in the fat tissue than the non-fat tissue.
|
Page generated in 0.1225 seconds