Spelling suggestions: "subject:"processamento."" "subject:"procedimiento.""
601 |
Achurado para Objetos 3D con AnimaciónGraells Garrido, Eduardo Nicolás January 2010 (has links)
El Rendering No Fotorrealista, o NPR (Non Photorealistic Rendering), es una aplicación
del proceso de rendering tradicional que busca generar imágenes con algún grado de
abstracción. Una técnica puntual de NPR es la de Hatching, o achurado. El achurado es
una técnica de pintado a mano alzada que utiliza trazos de líneas para graficar un objeto.
La dirección de las líneas abstrae la forma de éstos, mientras que la cantidad de ellas,
denominada densidad del achurado, permite interpretar la intensidad de la iluminación a
través de la superficie del objeto.
La técnica de achurado que se aborda en esta tesis, propuesta por Praun, Hoppe, Webb
y Finkelstein en SIGGRAPH 2001 en un artículo llamado “Realtime Hatching”, solamente
está definida para modelos 3D estáticos, por lo que para modelos animados la deformación
de la geometría no es considerada en el algoritmo. Esta tesis aborda esa problemática:
se propone mejorar esa técnica de achurado, extendiéndola para ser aplicada en objetos
animados.
La elección del algoritmo mencionado se justifica en la tesis a través de una revisión
bibliográfica. También se detalla la implementación realizada de dicho algoritmo, se
especifican las componentes del sistema y se muestran las herramientas de software libre
utilizadas: OpenMesh como estructura de datos base, Eigen como biblioteca de álgebra
lineal y trimesh2 como apoyo para el cálculo de curvaturas y direcciones principales en la
superficie.
Luego de implementar el algoritmo original, se estudia su extensión para ser aplicado
a un modelo 3D que presente animación. Ya que el algoritmo de achurado no está
definido para objetos animados, la tesis estudia y define lo que se puede denominar
como comportamiento correcto del achurado en modelos animados. Así, se presentan las
extensiones necesarias para que el algoritmo de achurado funcione correctamente con
modelos animados, junto con detalles de implementación de dichas extensiones. Además,
se muestran resultados de la aplicación del algoritmo a conjuntos de datos de animación
de captura de movimiento de personas. Estos resultados tienen una apariencia visual
satisfactoria respecto a la definición de achurado y presentan un rendimiento adecuado
para animaciones en tiempo real, al superar los 60 cuadros por segundo en su renderizado.
Finalmente, se realiza una discusión en la que se comentan los resultados del
algoritmo, en particular sus cualidades y limitantes. Entre sus cualidades se encuentra
un planteamiento sencillo y fácil de entender que permite obtener resultados correctos.
Entre sus limitantes se encuentra su aplicabilidad a objetos que mantienen una topología
constante durante animaciones y el hecho de funcionar con animaciones preconcebidas,
no con animaciones arbitrarias producto de interacción con el usuario. Sin embargo, estas
limitantes son analizadas y se proponen diferentes alternativas para enfrentarlas como
trabajo futuro.
|
602 |
Investigación en Tecnología de Reconocimiento de Voz Aplicada a Enseñanza de Segundo Idioma con Adaptación y Cancelación no Supervisada de RuidoMolina Sánchez, Carlos January 2010 (has links)
En esta Tesis se aborda el problema de la evaluación automática de pronunciación para sistemas de
enseñanza de idioma asistidos por computadoras (CAPT, computer aided pronunciation training) basada
en tecnología de reconocimiento de voz (ASR, automatic speech recognition). El evaluador automático de
pronunciación presentado aquí está previsto para ambientes de sala de clases y para grabaciones realizadas
con distintos tipos de micrófonos de baja calidad. De este modo, se deducen dos enfoques para desarrollar
el problema: introducir de manera eficiente la metodología de ASR en CAPT y hacer más robusto el
proceso de ASR aplicado en CAPT.
La inserción de la tecnología ASR en CAPT mostrada aquí está basada en la generación de hipótesis
competitivas para componer el modelo de lenguaje. Se destaca asimismo, que la metodología propuesta es
independiente del texto a entrenar y no requiere de información a priori sobre los errores más comunes
dada una lengua madre. Además, en esta Tesis se plantea el uso de la teoría de Bayes para fusión de
múltiples clasificadores y para la asociación de métricas objetivas con evaluaciones subjetivas. En
términos de robustez en ASR se propone un mecanismo de aprendizaje reforzado basado en medidas de
confiabilidad para corregir o adaptar la probabilidad de observación en el dominio logarítmico de forma
no-supervisada y con datos limitados. Este método de adaptación para ASR es aplicado en CAPT y
comparado con las clásicas técnicas presentes en la literatura como MLLR y VTLN.
La efectividad del método propuesto para la generación de léxico competitivo se refleja en que puede
alcanzar correlaciones promedio entre puntajes subjetivos-objetivos iguales a 0.67 y 0.82 con cinco y dos
niveles de calidad de pronunciación, respectivamente. Además, el mecanismo de fusión de múltiples
clasificadores presentado puede alcanzar un incremento de 2.4% en la correlación promedio y una
reducción del 10.2% en el error de clasificación entre puntajes subjetivos-objetivos con dos niveles de
calidad de pronunciación. Por otro lado, utilizando la metodología de aprendizaje reforzado basado en
medidas de confiabilidad para robustez en ASR se obtienen reducciones significativas en WER entre 3% y
18% dependiendo de la base de datos de prueba, de las condiciones de entrenamiento-test y del método
usado para optimizar una combinación lineal de métricas. Finalmente, al aplicar el esquema de robustez en
CAPT se logran mejoras de 10% y 30% en términos de correlación promedio entre evaluaciones
subjetivas-objetivas, dependiendo del clasificador usado para evaluar la calidad de pronunciación y con
micrófonos de baja calidad en ambiente de sala de clases.
|
603 |
Estudio de Métodos para Detección y Seguimiento de Rostros Frontales en Imágenes Digitales: Transformada Elíptica Lineal y Moldes PSOAravena Cereceda, Carlos Marcelo January 2009 (has links)
La detección y localización de rostros es una de las áreas de investigación más activa en el
ámbito del procesamiento digital de imágenes, debido a que es un componente principal para
muchos sistemas de identificación y seguimiento de rostros, así como también para aplicaciones
con interfaces hombre-máquina. Esto, apoyado por las predicciones de un fuerte crecimiento
en el mercado biométrico mundial, hacen que sea de gran relevancia la búsqueda de nuevos
métodos de detección de rostros, más rápidos y precisos, que se adapten de manera robusta
a ambientes y condiciones complejas. En particular, está demostrado que las aplicaciones de
reconocimiento de rostros dependen en gran medida de la exactitud con que se realiza su
localización, motivo por el cual, es necesario contar con métodos que permitan un mayor
grado de certeza en la estimación de la posición del rostro.
En esta tesis, se estudiaron dos nuevos métodos que apuntan a resolver de mejor manera
este problema. El primero de ellos permite obtener información precisa acerca del rostro,
como son su posición, excentricidad, tamaño y rotación coronal. Este método, basado en la
Transformada Elíptica Lineal (LET), asocia una elipse al rostro y funciona transformando
el contorno semi elíptico inferior de la cara en un borde vertical en el espacio de salida.
La detección de dicho borde, permite estimar los parámetros de la elipse que se ajusta de
mejor manera al rostro. La metodología fue probada sobre las bases de datos de Purdue,
Caltech, FERET y Yale-B, obteniendo tasas de localización 98.2 %, 95.3 %, 95.7 % y 79.6 %
respectivamente.
La segunda parte de este trabajo consistió en estudiar la optimización de moldes direccionales
mediante la utilización de enjambres de partículas (Particle Swarm Optimization).
La optimización tuvo por objetivo el mejorar el desempeño y selectividad de los moldes y el
disminuir el tiempo de procesamiento, a la vez de estudiar el efecto de generar moldes personalizados
para un individuo o situación particular. Los resultados muestran una leve mejora
sobre los moldes originales de un 2 % a 3 % en las tasas de localización, pero con una reducción
de 40 % en el tiempo de cálculo y una mucho mayor selectividad, lo que los hace más
robustos. Las tasa de localización sobre la base de datos de Yale-B es de aproximadamente un
82 %. También, se probó la eficacia del método al ser usado en conjunto con un detector de
iris para estimar la posición de los ojos en imágenes estáticas de la base de datos de Purdue,
obteniéndose tasas de detección de iris por sobre el 98 % para criterios de error muy exigentes.
Ambas metodologías fueran comparadas con el detector internacionalmente utilizado propuesto
por Viola y Jones, obteniendo tasas de localización muy similares. En el caso de Yale-B
los métodos propuestos en esta Tesis son ampliamente superiores, demostrando su robustez
frente a condiciones extremas de iluminación y contraste.
|
604 |
Compensación no Supervisada de Variabilidad Intra-Locutor y Ruido en Reconocimiento de Patrones de VozGarretón Vender, Claudio January 2007 (has links)
En un sistema de verificación de locutor, la cantidad y calidad de los datos utilizados en el proceso de
enrolamiento son fundamentales para lograr un desempeño mínimo acorde a los requerimientos de la mayoría de
los servicios. Sin embargo, en una aplicación que funciona sobre una plataforma telefónica, es escencial realizar
los diálogos de entrenamiento y verificación de forma rápida y eficiente. Estas restricciones obligan a operar con
una cantidad limitada de datos de enrolamiento. Situación que trae como consecuencia, en muchos casos, modelos
con un bajo nivel de robustez lo que implica una degradación en el rendimiento del sistema.
El problema de datos limitados de enrolamiento en verificación de locutor es un tema poco abordado en la
literatura. Los métodos propuestos se han basado principalmente en adaptación de modelos HMM (Hidden
Markov Models). Estas técnicas adaptan los parámetros de los modelos de cliente usando datos de voz generados
por los usuarios en eventos de verificación.
El objetivo principal de esta tesis es lograr un sistema de verificación de locutor telefónico robusto al efecto
negativo causado por los datos limitados de entrenamiento y el ruido. Para esto, este trabajo de investigación se
centra en el análisis y modelación de la variabilidad intra-locutor. Basándose en el criterio de MAP (Maximum a
posteriori) se propone un modelo de compensación no supervisado para las señales de verificación, ISVC (Intraspeaker
variability compensation). Esta técnica no modifica los modelos de usuario, evitando de esta forma los
errores provocados por la clasificación errónea de datos de adaptación. Es posible estimar los parámetros del
modelo propuesto con un conjunto reducido de usuarios. Además, el método descrito es independiente del usuario
y de la clase fonética en que es aplicado.
ISVC entrega reducciones entre 20% y 40% en la tasa de error del sistema. Cuando existen cambios de canal
entre condiciones de entrenamiento y verificación, el método genera mejoras entre 5% y 10% en la probabilidad
de error. El método propuesto se compara y combina con una técnica de adaptación no supervisada de modelos. Se
analizan ventajas y desventajas de ambos métodos simulando distintos escenarios de operación. Los resultados
obtenidos sugieren que ISVC es compatible con esquemas de adaptación no supervisados. Más aun, la
combinación de ambas técnicas puede llevar a una reducción entre 30% y 40% en la tasa de error de verificación
|
605 |
Procesos metalúrgicos alternativos para recuperar cobre y oro a partir de minerales oxidados cianicidasCusiquispe Hancco, Danny Daniel January 2017 (has links)
Publicación a texto completo no autorizada por el autor / La muestra de mineral oxidado procede de Poroma, distrito de Nazca, departamento de Ica. La ley de cabeza según el ensayo químico realizado al mineral es de 9.14% para el cobre y 11.60 g/TM para el oro. La caracterización de la muestra se realiza en el microscopio óptico polarizado de la Escuela Académico - Profesional de Ingeniería Geológica de la Universidad Nacional Mayor de San Marcos (UNMSM). Se observa la presencia de calcopirita, pirita, covelita, calcocita, malaquita, magnetita y gangas. En el proceso de segregación se obtiene una recuperación de cobre de 45.23% con una calidad del concentrado segregado de 3.92% de cobre y un radio de concentración de 1.85. El relave del proceso de segregación fue cianurado, obteniéndose una recuperación de 84.80% en oro y 14.55% en cobre, con un consumo de cianuro de sodio de 42.60 Kg/TM y 19.15 Kg/TM de cal con un tiempo de cianuración de 24 horas. Los resultados de la flotación indican una recuperación de oro de 60.95%, cobre de 28.13%, la calidad del concentrado es de 129.50 g/TM de oro y 27.88% de cobre con un radio de concentración de 35.12. Los resultados de la cianuración de los relaves de flotación son una recuperación de oro y cobre de 35.48% y 27.20% respectivamente con un consumo de cianuro alto de 95.15 Kg/TM y cal 6.96 Kg/TM con un tiempo de cianuración de 24 horas. Finalmente la lixiviación de cobre con H2S04 arroja una recuperación de 87.21% con un tiempo de lixiviación de 3 hrs, y la cianuración de su relave tiene una recuperación de oro y cobre de 84.46% y 79.47% respectivamente para un tiempo de cianuración de 24 hrs, con un consumo de cianuro de 29.35 Kg/TM y cal de 24.25 Kg/TM. Comparando los resultados obtenidos de los tres procesos metalúrgicos mencionados, se concluye que el mejor proceso para minerales oxidados cianicidas es la lixiviación ácida, seguida de la cianuración de sus relaves. / Tesis
|
606 |
Segmentación de Objetos en Imagénes de Microscopía Mediante Contornos Activos con Adaptabilidad TopológicaOlmos Marchant, Luis Felipe January 2009 (has links)
El análisis y procesamiento de imágenes es un área con activo desarrollo en la matemática y ciencia de la computación. La motivación de esta memoria es desarrollar un método de segmentación de objetos biológicos en imágenes de microscopía que construya contornos de la más alta calidad y que requiera la menor interacción humana en su ejecución. Una familia de métodos exitosa en esta área está basada en un modelo de minimización de energía de curvas deformables bajo la influencia de fuerzas externas. En la presente memoria se trabajó en la implementación de uno de estos métodos y constó de dos partes.
En la primera parte se implementó el algoritmo Topology Adaptive Snakes o T-Snakes. La propiedad esencial de este método es que admite cambios topológicos en las curvas (fusiones, cortes y destrucción), lo que permite segmentar objetos con formas altamente complejas minimizando la interacción humana en al proceso.
En la segunda parte se implementó el algoritmo Edge Preserving Gradient Vector Flow (EPGVF) el cual genera los campos vectoriales que fuerzan las curvas a evolucionar hacia los bordes de objetos en la imagen. Este método se comparó con su algoritmo predecesor, Generalized Gradient Vector Flow (GGVF), sin que EPGVF presentara ventajas convincentes en las imágenes probadas.
|
607 |
Medición de la calidad del servicio en la banca on line en ChileKuncar C., Ignacio, Soto H., Carlos January 2005 (has links)
SEMINARIO PARA OPTAR AL TÍTULO DE INGENIERO COMERCIAL, MENCIÓN ADMINISTRACIÓN / Este estudio se presenta como el primer intento por desarrollar una escala de medición de la calidad del servicio en la banca On Line en Chile. A lo largo de la revisión literaria se revisan distintos modelos creados con el fin de medir la calidad del servicio en general, como modelos particulares para la banca. A grandes rasgos la calidad del servicio puede ser definida según Parasuraman et al., (1985) como la diferencia entre las expectativas y las percepciones que los consumidores tienen de un servicio en particular.
El principal objetivo de esta investigación es determinar la factibilidad de replicar en Chile un instrumento de medida de la calidad del servicio en la banca electrónica realizado en Inglaterra por Jayawardhena (2004). De esta manera, se determinó en una etapa cualitativa, que la escala utilizada en ese país debía ser adaptada a los requerimientos de los usuarios en Chile.
Un análisis factorial llevado a cabo entrego como resultado 19 atributos relevantes acerca de que es lo que los consumidores valoran de la experiencia de ingresar al sitio Web de su banco, las que se distribuyeron en cuatro dimensiones. Finalmente una regresión llevada a cabo indicó el peso que cada dimensión tenía en la valoración de la calidad del servicio en la banca electrónica en Chile
Los resultados obtenidos en este estudio no son del todo concluyentes, por lo que se sugiere su utilización como base en una futura investigación acerca del mismo tema abordado a lo largo de este estudio. Sin embargo, esta investigación da un Proxy confiable acerca de que valoran los consumidores al momento de utilizar la banca On Line.
|
608 |
O processamento de argumentos e adjuntos em estruturas sintáticas sem ambiguidade e em estruturas com correferênciaBezerra, Gitanna Brito 24 March 2017 (has links)
Submitted by Viviane Lima da Cunha (viviane@biblioteca.ufpb.br) on 2017-08-01T12:38:07Z
No. of bitstreams: 1
arquivototal.pdf: 1845224 bytes, checksum: c32d15dcf5e111f85fd5f2e083ce205a (MD5) / Made available in DSpace on 2017-08-01T12:38:07Z (GMT). No. of bitstreams: 1
arquivototal.pdf: 1845224 bytes, checksum: c32d15dcf5e111f85fd5f2e083ce205a (MD5)
Previous issue date: 2017-03-24 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Esta investigación parte del supuesto de que los argumentos se procesan más rápido que adjuntos, estudiando esta distinción a través de estructuras sin ambigüedad estructural y de estructuras con correferencia. Argumentos y adjuntos han sido ampliamente estudiados en el contexto de la investigación en el procesamiento de oraciones, pero en estructuras ambiguas, por las que ha sido posible capturar, generalmente, una ventaja en el análisis de argumentos, con los adjuntos mostrando un procesamiento más costoso, sea porque no están léxicamente especificados, tal como proponen los modelos lexicalistas, ya sea porque tienen una estructura más compleja, tal como proponen modelos estructurales, según los cuáles la adjunción es más costosa para el analizador. Trabajando con estructuras no ambiguas, el objetivoes investigar si la información lexical direcciona el análisis sintáctico, facilitando el procesamiento de argumentos, que son léxicamente especificados, en comparación al de los adjuntos, que no se encuentran en la estructura argumental de los predicadores, y no el objetivo de ver las preferencias de análisis, si como argumento o adjunto de sintagmas ambiguos, en lo que entrarían factores como la frecuencia y la acción de los principios estructurales. Se realizaron dos experimentos de lectura autocontrolada para analizar la comprensión de argumentos y adjuntos: el primero con estructuras sin ambigüedad y con correferencia y el segundo con estructuras sin ambigüedad y sin correferencia. Los resultados de ambos experimentos permitieron visualizar diferencias en los tiempos de lectura de los argumentos y adjuntos en las condiciones con núcleos nominales, pero no en las condiciones con núcleo verbal. Se concluyó que el parser tuvo acceso a la información lexical y analizó de manera diferente argumentos y adjuntos, revelando la ausencia de diferencias en las condiciones con núcleos verbales que la adjunción no necesariamente tiene que ser costosa.Por último, se propone que estructuras sin ambigüedad y estructuras con correferencia pueden revelar efecto de status argumental. / Esta pesquisa parte da hipótese geral de que argumentos são processados mais rapidamente do que adjuntos, testando-a através de estruturas sem ambiguidade estrutural e de estruturas com correferência. Argumentos e adjuntos têm sido bastante focalizados no âmbito das pesquisas em processamento sentencial, porém em estruturas ambíguas, por meio das quais tem sido possível capturar, de modo geral, uma vantagem no parsing de argumentos, com os adjuntos exibindo um processamento mais custoso, seja porque não estão especificados lexicalmente, como propõem modelos lexicalistas, seja porque são estruturalmente mais complexos, como propõem modelos estruturais, segundo os quais a adjunção é mais custosa para o parser. Ao lidar com estruturas não ambíguas, tem-se como objetivo investigar se a informação lexical é acessada durante o parsing, facilitando o processamento de argumentos, que são lexicalmente especificados, em relação ao de adjuntos, que não estão previstos na estrutura argumental dos predicadores, e não o objetivo de ver a preferência de análise, se como argumento ou adjunto, de sintagmas ambíguos, no que entrariam fatores como a frequência e a atuação de princípios estruturais. Dois experimentos de leitura automonitorada foram realizados para analisar o processamento de argumentos e adjuntos: o primeiro envolveu estruturas não ambíguas e com correferência; o segundo envolveu estruturas não ambíguas e sem correferência. Os resultados de ambos os experimentos permitiram visualizar distinções nos tempos de leitura de argumentos e adjuntos nas condições com núcleo nominal, mas não nas condições com núcleo verbal. Concluiu-se que o parser teve acesso à informação lexical e analisou diferentemente argumentos e adjuntos, revelando a ausência de diferenças nas condições com núcleo verbal que a adjunção não necessariamente precisa ser custosa. Enfim, propõe-se que estruturas sem ambiguidade e estruturas com correferência podem revelar efeito de status argumental.
|
609 |
O processamento de argumentos e adjuntos em estruturas sintáticas sem ambiguidade e em estruturas com correferência.Bezerra, Gitanna Brito 18 February 2013 (has links)
Made available in DSpace on 2015-05-14T12:42:59Z (GMT). No. of bitstreams: 1
ArquivoTotalGitanna.pdf: 1845224 bytes, checksum: b979e70506014da13728221e1253f8e6 (MD5)
Previous issue date: 2013-02-18 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Esta investigación parte del supuesto de que los argumentos se procesan más rápido que adjuntos, estudiando esta distinción a través de estructuras sin ambigüedad estructural y de estructuras con correferencia. Argumentos y adjuntos han sido ampliamente estudiados en el contexto de la investigación en el procesamiento de oraciones, pero en estructuras ambiguas, por las que ha sido posible capturar, generalmente, una ventaja en el análisis de argumentos, con los adjuntos mostrando un procesamiento más costoso, sea porque no están léxicamente especificados, tal como proponen los modelos lexicalistas, ya sea porque tienen una estructura más compleja, tal como proponen modelos estructurales, según los cuáles la adjunción es más costosa para el analizador. Trabajando con estructuras no ambiguas, el objetivoes investigar si la información lexical direcciona el análisis sintáctico, facilitando el procesamiento de argumentos, que son léxicamente especificados, en comparación al de los adjuntos, que no se encuentran en la estructura argumental de los predicadores, y no el objetivo de ver las preferencias de análisis, si como argumento o adjunto de sintagmas ambiguos, en lo que entrarían factores como la frecuencia y la acción de los principios estructurales. Se realizaron dos experimentos de lectura autocontrolada para analizar la comprensión de argumentos y adjuntos: el primero con estructuras sin ambigüedad y con correferencia y el segundo con estructuras sin ambigüedad y sin correferencia. Los resultados de ambos experimentos permitieron visualizar diferencias en los tiempos de lectura de los argumentos y adjuntos en las condiciones con núcleos nominales, pero no en las condiciones con núcleo verbal. Se concluyó que el parser tuvo acceso a la información lexical y analizó de manera diferente argumentos y adjuntos, revelando la ausencia de diferencias en las condiciones con núcleos verbales que la adjunción no necesariamente tiene que ser costosa.Por último, se propone que estructuras sin ambigüedad y estructuras con correferencia pueden revelar efecto de status argumental. / Esta pesquisa parte da hipótese geral de que argumentos são processados mais rapidamente do que adjuntos, testando-a através de estruturas sem ambiguidade estrutural e de estruturas com correferência. Argumentos e adjuntos têm sido bastante focalizados no âmbito das pesquisas em processamento sentencial, porém em estruturas ambíguas, por meio das quais tem sido possível capturar, de modo geral, uma vantagem no parsing de argumentos, com os adjuntos exibindo um processamento mais custoso, seja porque não estão especificados lexicalmente, como propõem modelos lexicalistas, seja porque são estruturalmente mais complexos, como propõem modelos estruturais, segundo os quais a adjunção é mais custosa para o parser. Ao lidar com estruturas não ambíguas, tem-se como objetivo investigar se a informação lexical é acessada durante o parsing, facilitando o processamento de argumentos, que são lexicalmente especificados, em relação ao de adjuntos, que não estão previstos na estrutura argumental dos predicadores, e não o objetivo de ver a preferência de análise, se como argumento ou adjunto, de sintagmas ambíguos, no que entrariam fatores como a frequência e a atuação de princípios estruturais. Dois experimentos de leitura automonitorada foram realizados para analisar o processamento de argumentos e adjuntos: o primeiro envolveu estruturas não ambíguas e com correferência; o segundo envolveu estruturas não ambíguas e sem correferência. Os resultados de ambos os experimentos permitiram visualizar distinções nos tempos de leitura de argumentos e adjuntos nas condições com núcleo nominal, mas não nas condições com núcleo verbal. Concluiu-se que o parser teve acesso à informação lexical e analisou diferentemente argumentos e adjuntos, revelando a ausência de diferenças nas condições com núcleo verbal que a adjunção não necessariamente precisa ser custosa. Enfim, propõe-se que estruturas sem ambiguidade e estruturas com correferência podem revelar efeito de status argumental.
|
610 |
Aplicación del Balanced Scorecard (basado en el enfoque de clientes y procesos internos) para mejorar la gestión de procesos en el área de gestión humana en una empresa de segurosTolentino Huaroto, Rossmery January 2017 (has links)
Publicación a texto completo no autorizada por el autor / La aplicación del Balanced Scorecard, es una herramienta de gestión y control de procesos, basado en el enfoque de clientes y procesos internos en el área de gestión humana en una empresa de seguros.
En el Perú las empresas de seguros cuentan con un adecuado nivel de solvencia y este sector aun es reducido, por lo que se proyecta un mayor crecimiento, el área de Gestión Humana de este tipo de empresas tiene que afrontar ciertas retos para lograr la fidelización de clientes internos y a la vez ofrecer herramientas para aumentar la productividad de los mismos, y superar las deficiencias por no tener un adecuado manejo de estrategias; por eso se desarrolla esta propuesta de implementación del Balanced Scorecard para lograr la optimización en los procesos de contratación, capacitaciones, otorgamiento de beneficios sociales y desvinculación laboral, y alcanzar los resultados proyectados a través de indicadores, estrategias y estandarización de los procedimientos del área. / Tesis
|
Page generated in 0.0596 seconds