1 |
Regressão binária bayesiana com o uso de variáveis auxiliares / Bayesian binary regression models using auxiliary variablesFarias, Rafael Braz Azevedo 27 April 2007 (has links)
A inferência Bayesiana está cada vez mais dependente de algoritmos de simulação estocástica, e sua eficiência está diretamente relacionada à eficiência do algoritmo considerado. Uma prática bastante utilizada é a introdução de variáveis auxiliares para obtenção de formas conhecidas para as distribuições {\\it a posteriori} condicionais completas, as quais facilitam a implementação do amostrador de Gibbs. No entanto, a introdução dessas variáveis pode produzir algoritmos onde os valores simulados são fortemente correlacionados, fato esse que prejudica a convergência. O agrupamento das quantidades desconhecidas em blocos, de tal maneira que seja viável a simulação conjunta destas quantidades, é uma alternativa para redução da autocorrelação, e portanto, ajuda a melhorar a eficiência do procedimento de simulação. Neste trabalho, apresentamos propostas de simulação em blocos no contexto de modelos de regressão binária com o uso de variáveis auxiliares. Três classes de funções de ligação são consideradas: probito, logito e probito-assimétrico. Para as duas primeiras apresentamos e implementamos as propostas de atualização conjunta feitas por Holmes e Held (2006). Para a ligação probito-assimétrico propomos quatro diferentes maneiras de construir os blocos, e comparamos estes algoritmos através de duas medidas de eficiência (distância média Euclidiana entre atualizações e tamanho efetivo da amostra). Concluímos que os algoritmos propostos são mais eficientes que o convencional (sem blocos), sendo que um deles proporcionou ganho superior a 160\\% no tamanho efetivo da amostra. Além disso, discutimos uma etapa bastante importante da modelagem, denominada análise de resíduos. Nesta parte adaptamos e implementamos os resíduos propostos para a ligação probito para os modelos logístico e probito-assimétrico. Finalmente, utilizamos os resíduos propostos para verificar a presença de observações discrepantes em um conjunto de dados simulados. / The Bayesian inference is getting more and more dependent of stochastic simulation algorithms, and its efficiency is directly related with the efficiency of the considered algorithm. The introduction of auxiliary variables is a technique widely used for attainment of the full conditional distributions, which facilitate the implementation of the Gibbs sampling. However, the introduction of these auxiliary variables can produce algorithms with simulated values highly correlated, this fact harms the convergence. The grouping of the unknow quantities in blocks, in such way that the joint simulation of this quantities is possible, is an alternative for reduction of the autocorrelation, and therefore, improves the efficiency of the simulation procedure. In this work, we present proposals of simulation using the Gibbs block sampler in the context of binary response regression models using auxiliary variables. Three class of links are considered: probit, logit and skew-probit. For the two first we present and implement the scheme of joint update proposed by Holmes and Held (2006). For the skew-probit, we consider four different ways to construct the blocks, and compare these algorithms through two measures of efficiency (the average Euclidean update distance between interactions and effective sample size). We conclude that the considered algorithms are more efficient than the conventional (without blocks), where one of these leading to around 160\\% improvement in the effective sample size. Moreover, we discuss one important stage of the modelling, called residual analysis. In this part we adapt and implement residuals considered in the probit model for the logistic and skew-probit models. For a simulated data set we detect the presence of outlier used the residuals proposed here for the different models.
|
2 |
Regressão binária bayesiana com o uso de variáveis auxiliares / Bayesian binary regression models using auxiliary variablesRafael Braz Azevedo Farias 27 April 2007 (has links)
A inferência Bayesiana está cada vez mais dependente de algoritmos de simulação estocástica, e sua eficiência está diretamente relacionada à eficiência do algoritmo considerado. Uma prática bastante utilizada é a introdução de variáveis auxiliares para obtenção de formas conhecidas para as distribuições {\\it a posteriori} condicionais completas, as quais facilitam a implementação do amostrador de Gibbs. No entanto, a introdução dessas variáveis pode produzir algoritmos onde os valores simulados são fortemente correlacionados, fato esse que prejudica a convergência. O agrupamento das quantidades desconhecidas em blocos, de tal maneira que seja viável a simulação conjunta destas quantidades, é uma alternativa para redução da autocorrelação, e portanto, ajuda a melhorar a eficiência do procedimento de simulação. Neste trabalho, apresentamos propostas de simulação em blocos no contexto de modelos de regressão binária com o uso de variáveis auxiliares. Três classes de funções de ligação são consideradas: probito, logito e probito-assimétrico. Para as duas primeiras apresentamos e implementamos as propostas de atualização conjunta feitas por Holmes e Held (2006). Para a ligação probito-assimétrico propomos quatro diferentes maneiras de construir os blocos, e comparamos estes algoritmos através de duas medidas de eficiência (distância média Euclidiana entre atualizações e tamanho efetivo da amostra). Concluímos que os algoritmos propostos são mais eficientes que o convencional (sem blocos), sendo que um deles proporcionou ganho superior a 160\\% no tamanho efetivo da amostra. Além disso, discutimos uma etapa bastante importante da modelagem, denominada análise de resíduos. Nesta parte adaptamos e implementamos os resíduos propostos para a ligação probito para os modelos logístico e probito-assimétrico. Finalmente, utilizamos os resíduos propostos para verificar a presença de observações discrepantes em um conjunto de dados simulados. / The Bayesian inference is getting more and more dependent of stochastic simulation algorithms, and its efficiency is directly related with the efficiency of the considered algorithm. The introduction of auxiliary variables is a technique widely used for attainment of the full conditional distributions, which facilitate the implementation of the Gibbs sampling. However, the introduction of these auxiliary variables can produce algorithms with simulated values highly correlated, this fact harms the convergence. The grouping of the unknow quantities in blocks, in such way that the joint simulation of this quantities is possible, is an alternative for reduction of the autocorrelation, and therefore, improves the efficiency of the simulation procedure. In this work, we present proposals of simulation using the Gibbs block sampler in the context of binary response regression models using auxiliary variables. Three class of links are considered: probit, logit and skew-probit. For the two first we present and implement the scheme of joint update proposed by Holmes and Held (2006). For the skew-probit, we consider four different ways to construct the blocks, and compare these algorithms through two measures of efficiency (the average Euclidean update distance between interactions and effective sample size). We conclude that the considered algorithms are more efficient than the conventional (without blocks), where one of these leading to around 160\\% improvement in the effective sample size. Moreover, we discuss one important stage of the modelling, called residual analysis. In this part we adapt and implement residuals considered in the probit model for the logistic and skew-probit models. For a simulated data set we detect the presence of outlier used the residuals proposed here for the different models.
|
3 |
Regressão binária nas abordagens clássica e Bayesiana / Binary regression in the classical and Bayesian approachesFernandes, Amélia Milene Correia 16 December 2016 (has links)
Este trabalho tem como objetivo estudar o modelo de regressão binária nas abordagens clássica e bayesiana utilizando as funções de ligações probito, logito, complemento log-log, transformação box-cox e probito-assimétrico. Na abordagem clássica apresentamos as suposições e o procedimento para ajustar o modelo de regressão e verificamos a precisão dos parâmetros estimados, construindo intervalos de confiança e testes de hipóteses. Enquanto que, na inferência bayesiana fizemos um estudo comparativo utilizando duas metodologias. Na primeira metodologia consideramos densidades a priori não informativas e utilizamos o algoritmo Metropolis-Hastings para ajustar o modelo. Na segunda metodologia utilizamos variáveis auxiliares para obter a distribuição a posteriori conhecida, facilitando a implementação do algoritmo do Amostrador de Gibbs. No entanto, a introdução destas variáveis auxiliares podem gerar valores correlacionados, o que leva à necessidade de se utilizar o agrupamento das quantidades desconhecidas em blocos para reduzir a autocorrelação. Através do estudo de simulação mostramos que na inferência clássica podemos usar os critérios AIC e BIC para escolher o melhor modelo e avaliamos se o percentual de cobertura do intervalo de confiança assintótica está de acordo com o esperado na teoria assintótica. Na inferência bayesiana constatamos que o uso de variáveis auxiliares resulta em um algoritmo mais eficiente segundo os critérios: erro quadrático médio (EQM), erro percentual absoluto médio (MAPE) e erro percentual absoluto médio simétrico (SMAPE). Como ilustração apresentamos duas aplicações com dados reais. Na primeira, consideramos um conjunto de dados da variação do Ibovespa e a variação do valor diário do fechamento da cotação do dólar no período de 2013 a 2016. Na segunda aplicação, trabalhamos com um conjunto de dados educacionais (INEP-2013), focando nos estudos das variáveis que influenciam a aprovação do aluno. / The objective of this work is to study the binary regression model under the frequentist and Bayesian approaches using the probit, logit, log-log complement, Box-Cox transformation and skewprobit as link functions. In the classical approach we presented assumpti- ons and procedures used in the regression modeling. We verified the accuracy of the estimated parameters by building confidence intervals and conducting hypothesis tests. In the Bayesian approach we made a comparative study using two methodologies. For the first methodology, we considered non-informative prior distributions and the Metropolis-Hastings algorithm to estimate the model. In the second methodology we used auxiliary variables to obtain the known a posteriori distribution, allowing the use of the Gibbs Sampler algorithm. However, the introduction of these auxiliary variables can generate correlated values and needs the use of clustering of unknown quantities in blocks to reduce the autocorrelation. In the simulation study we used the AIC and BIC information criteria to select the most appropriate model and we evaluated whether the coverage probabilities of the confidence interval is in agre- ement with that expected by the asymptotic theory. In Bayesian approach we found that the inclusion of auxiliary variables in the model results in a more efficient algoritm according to the MSE, MAPE and SMAPE criteria. In this work we also present applications to two real datasets. The first dataset used is the variation of the Ibovespa and variation of the daily value of the American dollar at the time of closing the 2013 to 2016. The second dataset, used is an educational data set (INEP-2013), where we are interested in studying the factors that influence the approval of the student.
|
4 |
Regressão binária nas abordagens clássica e Bayesiana / Binary regression in the classical and Bayesian approachesAmélia Milene Correia Fernandes 16 December 2016 (has links)
Este trabalho tem como objetivo estudar o modelo de regressão binária nas abordagens clássica e bayesiana utilizando as funções de ligações probito, logito, complemento log-log, transformação box-cox e probito-assimétrico. Na abordagem clássica apresentamos as suposições e o procedimento para ajustar o modelo de regressão e verificamos a precisão dos parâmetros estimados, construindo intervalos de confiança e testes de hipóteses. Enquanto que, na inferência bayesiana fizemos um estudo comparativo utilizando duas metodologias. Na primeira metodologia consideramos densidades a priori não informativas e utilizamos o algoritmo Metropolis-Hastings para ajustar o modelo. Na segunda metodologia utilizamos variáveis auxiliares para obter a distribuição a posteriori conhecida, facilitando a implementação do algoritmo do Amostrador de Gibbs. No entanto, a introdução destas variáveis auxiliares podem gerar valores correlacionados, o que leva à necessidade de se utilizar o agrupamento das quantidades desconhecidas em blocos para reduzir a autocorrelação. Através do estudo de simulação mostramos que na inferência clássica podemos usar os critérios AIC e BIC para escolher o melhor modelo e avaliamos se o percentual de cobertura do intervalo de confiança assintótica está de acordo com o esperado na teoria assintótica. Na inferência bayesiana constatamos que o uso de variáveis auxiliares resulta em um algoritmo mais eficiente segundo os critérios: erro quadrático médio (EQM), erro percentual absoluto médio (MAPE) e erro percentual absoluto médio simétrico (SMAPE). Como ilustração apresentamos duas aplicações com dados reais. Na primeira, consideramos um conjunto de dados da variação do Ibovespa e a variação do valor diário do fechamento da cotação do dólar no período de 2013 a 2016. Na segunda aplicação, trabalhamos com um conjunto de dados educacionais (INEP-2013), focando nos estudos das variáveis que influenciam a aprovação do aluno. / The objective of this work is to study the binary regression model under the frequentist and Bayesian approaches using the probit, logit, log-log complement, Box-Cox transformation and skewprobit as link functions. In the classical approach we presented assumpti- ons and procedures used in the regression modeling. We verified the accuracy of the estimated parameters by building confidence intervals and conducting hypothesis tests. In the Bayesian approach we made a comparative study using two methodologies. For the first methodology, we considered non-informative prior distributions and the Metropolis-Hastings algorithm to estimate the model. In the second methodology we used auxiliary variables to obtain the known a posteriori distribution, allowing the use of the Gibbs Sampler algorithm. However, the introduction of these auxiliary variables can generate correlated values and needs the use of clustering of unknown quantities in blocks to reduce the autocorrelation. In the simulation study we used the AIC and BIC information criteria to select the most appropriate model and we evaluated whether the coverage probabilities of the confidence interval is in agre- ement with that expected by the asymptotic theory. In Bayesian approach we found that the inclusion of auxiliary variables in the model results in a more efficient algoritm according to the MSE, MAPE and SMAPE criteria. In this work we also present applications to two real datasets. The first dataset used is the variation of the Ibovespa and variation of the daily value of the American dollar at the time of closing the 2013 to 2016. The second dataset, used is an educational data set (INEP-2013), where we are interested in studying the factors that influence the approval of the student.
|
5 |
Regressão binária nas abordagens clássica e bayesianaFernandes, Amélia Milene Correia 16 December 2016 (has links)
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-05-23T16:23:56Z
No. of bitstreams: 1
DissAMCF.pdf: 1964890 bytes, checksum: 84bcbd06f74840be6fc5f38659c34c07 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-06-05T19:07:22Z (GMT) No. of bitstreams: 1
DissAMCF.pdf: 1964890 bytes, checksum: 84bcbd06f74840be6fc5f38659c34c07 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-06-05T19:07:28Z (GMT) No. of bitstreams: 1
DissAMCF.pdf: 1964890 bytes, checksum: 84bcbd06f74840be6fc5f38659c34c07 (MD5) / Made available in DSpace on 2017-06-05T19:18:45Z (GMT). No. of bitstreams: 1
DissAMCF.pdf: 1964890 bytes, checksum: 84bcbd06f74840be6fc5f38659c34c07 (MD5)
Previous issue date: 2016-12-16 / Não recebi financiamento / The objective of this work is to study the binary regression model under the frequentist and Bayesian approaches using the probit, logit, log-log complement, Box-Cox transformation and skewprobit as link functions. In the classical approach we presented assumpti- ons and procedures used in the regression modeling. We verified the accuracy of the estimated parameters by building confidence intervals and conducting hypothesis tests. In the Bayesian appro- ach we made a comparative study using two methodologies. For the first methodology, we considered non-informative prior dis- tributions and the Metropolis-Hastings algorithm to estimate the model. In the second methodology we used auxiliary variables to obtain the known a posteriori distribution, allowing the use of the Gibbs Sampler algorithm. However, the introduction of these auxiliary variables can generate correlated values and needs the use of clustering of unknown quantities in blocks to reduce the autocorrelation. In the simulation study we used the AIC and BIC information criteria to select the most appropriate model and we evaluated whether the coverage probabilities of the confidence interval is in agre- ement with that expected by the asymptotic theory. In Bayesian approach we found that the inclusion of auxiliary variables in the model results in a more efficient algoritm according to the MSE, MAPE and SMAPE criteria. In this work we also present applications to two real datasets. The first dataset used is the variation of the Ibovespa and variation of the daily value of the American dollar at the time of closing the 2013 to 2016. The second dataset, used is an educational data set (INEP-2013), where we are interested in studying the factors that infuence the approval of the student. / Este trabalho tem como objetivo estudar o modelo de regressão binária nas abordagens clássica e bayesiana utilizando as funcoes de ligacoes probito, logito, complemento log-log, transformaçao box-cox e probito-assimetrico. Na abordagem clássica apresentamos as suposicoes e o procedimento para ajustar o modelo de regressao e verificamos a precisão dos parâmetros estimados, construindo intervalos de confianca e testes de hipóteses. Enquanto que, na inferência bayesiana fizemos um estudo comparativo utilizando duas metodologias. Na primeira metodologia consideramos densidades a priori nao informativas e utilizamos o algoritmo Metropolis-Hastings para ajustar o modelo. Na segunda metodologia utilizamos variáaveis auxiliares para obter a distribuiçcaão a posteriori conhecida, facilitando a implementacão do algoritmo do Amostrador de Gibbs. No entanto, a introduçao destas variaveis auxiliares podem gerar valores correlacionados, o que leva à necessidade de se utilizar o agrupamento das quantidades desconhecidas em blocos para reduzir a autocorrelaçcãao.
Atraves do estudo de simulacao mostramos que na inferência classica podemos usar os critérios AIC e BIC para escolher o melhor modelo e avaliamos se o percentual de cobertura do intervalo de confianca assintotica está de acordo com o esperado na teoria assintática. Na inferência bayesiana constatamos que o uso de va-riaáveis auxiliares resulta em um algoritmo mais eficiente segundo os critérios: erro quadrâtico medio (EQM), erro percentual absoluto medio (MAPE) e erro percentual absoluto medio simetrico (SMAPE).
Como ilustração apresentamos duas aplicações com dados reais. Na primeira, consideramos um conjunto de dados da variaçao do Ibovespa e a variacao do valor diário do fechamento da cotacao do dólar no período de 2013 a 2016. Na segunda aplicação, trabalhamos com um conjunto de dados educacionais (INEP-2013), focando nos estudos das variaveis que influenciam a aprovacao do aluno.
|
6 |
A hybrid framework for assessing the cost of road traffic crashes in South AfricaMoyana, Hlengani Jackson 02 1900 (has links)
Abstract in English, Tsonga and Zulu / Mitlumbo ya mifambafambo ya le magondzweni i xin’wana xa miringeto (risks) yo biha ku tlula hinkwayo ya swifambo swa le gondzweni emisaveni hinkwayo, leswi yimelaka xiphiqo lexikulu xa swohanyaswin’we-ikhonomi ngopfu-ngopfu eka matiko lama ya ha hluvukaka tanihi Afrika-Dzonga. Ku va ku nyikiwa masungulo yo tiya ya xiikhonomi eka swiboho swa mbekiso ku tirhana na ntlhontlho lowu, i swa nkoka swinene ku hlela ndhurho wa mitlumbo leyi. Mipimanyeto leyi yi tirha tanihi nxopaxopo wa swinghenisiwa swa mbuyelo wa ndhurheriwo ku endlela ku kuma mphakelo wa switirhisiwa wo tirha kahle eka ku nghenelela eka ku tirhana na mitlhontlho leyi vangiwaka hi mitlumbano ya le magondzweni. Tiko ra Afrika-Dzonga a ri nga ri ku pfuxeteni ka mahungu ya mipimanyeto ya midurho ya mitlumbano ya le magondzweni nkarhi na nkarhi, naswona leyi a yi endliwa a yi tirhisa maendlelo lamo soriwa ngopfu yo languta nkoka wa vanhu (human capital). Hikwalaho, mipimanyeto leyi nga kona a yi nga ta va leyi tshembekaka eka ku kunguhata na ku pimaniseka na mipimanyeto ya matiko man’wana.
Hi le ka ku landzelela vundzhaku lebyi laha dyondzo leyi yi nga tumbuluka na ku kombisa matirhiselo ya rimba ra ntirho wo katsa (hybrid) ku kambela ndhurho wa mitlumbo ya swifambo swa le magondzweni eAfrika-Dzonga. Rimba leri ri tirhisa endlelo ro kongomisa eka nkoka wa vanhu na ku pfumela ku hakela (willingness-to-pay), eka dyondzo yi ri yin’we. Mipimanyeto ya midurho ya nkoka wa vanhu ya laveka ku va yi pfuna eka ku kunguhata leswaku yi tlakusa swinenenene swihumesiwa swa rixaka, loko hala tlhelo mipimanyeto yo pfumela ku hakela yona yi ri yona yi fanelaka swinene eka ku pfuneta minghenelelo yo tlakusa nhlayiseko wa vanhu hi ku hunguta ku vaviseka na ku fa. Endlelo ro pfumela ku hakela ri tirhisa maendlelo ya swo ka swi nga ri swa makete (contingent valuation) na ya maendlelo yo langa (preference). Khwexinere yo valanga leyi a yi ri na maendlelo yo ka ya nga ri ya swa makete na swilangiwa leswi a swi boxiwile, yi tirhisiwile hi magoza mambirhi ku sampula vaanguri va 273 eka ntirho wa swo tleketla. Eka mhaka ya endlelo ro kongomisa eka nkoka wa vanhu, mipimanyeto ya ndhurho eka xiviko xa 2016 xa Cost of Crashes in South Africa yi hundzuluxiwile hi ku katsa inifulexini, ku tirhisiwa mpimo wa 2017 wa 5.3% ku kuma mipimanyeto ya ndhurho ya 2017.
Dyondzo leyi yi paluxile leswaku endlelo ro kongomisa eka nkoka wa vanhu ri kayiveta ku vona ndhurho wa mitlumbo ya le magondzweni. Dyondzo leyi yi hoxa xandla eka ntsengo wa vutivi hi ku tirhisa endlelo ro languta nkoka wa vanhu na endlelo ro pfumela ku hakela eka dyondzo yi ri yin’we ku kombisa ntirhiseko wa endlelo leri ra nkatso (hybrid)/nhlanganiso eka xiyimo xa Afrika-Dzonga. Ndzavisiso wa nkarhi lowu taka wu fanele ku engeta dyondzo leyi hi sampulu leyi humaka eka swifundzakulu hinkwaswo swa nkaye swa Afrika-Dzonga, leswaku mipimanyeto ya ndhurho yi yimela vanhu va tiko hinkwaro. / Road traffic crashes are one of the worst risks of road mobility worldwide, representing a huge socio-economic problem particularly in developing countries such as South Africa. In order to provide a sound economic basis for investment decisions to address this challenge, it is critical to assess the cost of these crashes. These estimates serve cost-benefit analysis inputs to facilitate a more efficient resources allocation for interventions to address the challenge posed by road crashes. South Africa has not been updating crash cost estimates on a regular basis, and those that were conducted used the much criticised human capital approach. Therefore, the available estimates could not be relied upon for planning purposes and comparison with the estimates of other countries.
It is against this background that this study developed and illustrated the application of a hybrid framework for assessing the cost of road traffic crashes in South Africa. The framework uses the human capital approach and the willingness-to-pay approach in one study. Human capital approach cost estimates are needed to inform planning to maximize the national output, while the willingness-to-pay estimates are more suitable when the main concern is to inform interventions to increase social welfare by reducing injuries and fatalities. The willingness-to-pay approach uses the contingent valuation and the stated preference methods. A survey questionnaire with contingent valuation and stated preference questions was administered in two phases to a sample of 273 respondents within the transport industry. For the human capital approach, the cost estimates in the 2016 Cost of Crashes in South Africa report were adjusted for inflation using the 2017 rate of 5.3% to obtain 2017 cost estimates.
This study revealed that the human capital approach underestimates the cost of road crashes. The study contributes to the body of knowledge by using the human capital approach and the willingness-to-pay approach in one study to illustrate the applicability of this hybrid/ combination within the South African context. Future research needs to replicate this study on a sample drawn from all nine provinces of South Africa, so that the cost estimates are representative of the country’s population. / Ukuphazamiseka komgwaqo kungenye yezingozi ezimbi kakhulu zokuhamba komgwaqo emhlabeni jikelele, ezimele inkinga enkulu yenhlalo nezomnotho ikakhulukazi emazweni asathuthuka njengeNingizimu Afrika. Ukuze unikeze isisekelo sezomnotho esizwakalayo ezinqumeni zokutshala izimali ukubhekana nale nselele, kubalulekile ukuhlola izindleko zalezi zingozi. Lezi zilinganiso zisebenza njengeziphakamiso zokuhlaziywa kwezindleko zokuhlomula ukuze kube lula ukunikezwa kwezinsiza ezenzelwe ukuxazulula inselele ebangelwa ukuphazamiseka komgwaqo. INingizimu Afrika ayizange ibuyekeze ukulinganisa izindleko zezingozi njalo, futhi lezo ezenziwa zisebenzise indlela enkulu yokugxeka ukusebenzisa abantu. Ngakho-ke, izilinganiso ezitholakalayo azikwazanga ukuthenjelwa kuzona ngezinjongo zokuhlela nokuqhathaniswa nezilinganiso zamanye amazwe.
Lokhu kuphikisana nalesi sigaba ukuthi lolu cwaningo lusungulwe futhi luboniswe ukusetshenziswa kohlaka oluxubile lokuhlola izindleko zokuphazamiseka komgwaqo eNingizimu Afrika. Uhlaka lusebenzisa indlela yokusebenzisa abantu kanye nendlela yokuzimisela-ukukhokha ocwaningweni olulodwa. Ukulinganiselwa kwezindleko zokusebenzisa abantu kuyadingeka ukuze kwaziswe ukuhlela ukwandisa umkhiqizo kazwelonke, kanti ukulinganiselwa kokuzimisela-ukukhokhela kukulungele kakhulu ukwazisa ukungenelela ukwandisa inhlalakahle yomphakathi ngokunciphisa ukulimala nokubulawa kwabantu. Indlela yokuzimisela-ukukhokha isebenzisa ukuhlaziywa kwesilinganiso kanye nezindlela okukhethwa ngazo. Imibuzo yokuhlola ngokuhlaziywa kwesilinganiso kanye nemibuzo ekhethwe ngayo yenziwa ngezigaba ezimbili embonakalisweni yabaphendulile abangama-273 embonini yezokuthutha. Ngokwendlela yokusebenzisa abantu, izindleko ezilinganiselwa ku-2016 Izindleko Zokushayisana eNingizimu Afrika kubikwa ukuthi zalungiselwa ukwenyuka kwamandla emali, kusetshenziswa isilinganiso sango-2017 esingu-5.3% ukuthola izindleko zango-2017.
Lolu cwaningo luveze ukuthi indlela yokusebenzisa abantu ithatha kancane izindleko zokuphazamiseka komgwaqo. Ucwaningo lunomthelela emzimbeni wolwazi ngokusebenzisa indlela yokusebenzisa abantu kanye nendlela yokuzimisela-ukukhokha ocwaningweni olulodwa ukukhombisa ukufaneleka kwalesi sivumelwano / inhlanganisela ngaphakathi komongo waseNingizimu Afrika. Ucwaningo lwesikhathi esizayo ludinga ukuphindaphinda lolu cwaningo embonakalisweni othathwe kuzo zonke izifundazwe eziyisishiyagalolunye zaseNingizimu Afrika, ukuze ukulinganiswa kwezindleko kummele abantu bezwe / Business Management / D. Phil. (Management Studies)
|
Page generated in 0.1144 seconds