Spelling suggestions: "subject:"decisão."" "subject:"recisão.""
271 |
FBST seqüencial / Sequential FBSTArruda, Marcelo Leme de 04 June 2012 (has links)
O FBST (Full Bayesian Significance Test) é um instrumento desenvolvido por Pereira e Stern (1999) com o objetivo de apresentar uma alternativa bayesiana aos testes de hipóteses precisas. Desde sua introdução, o FBST se mostrou uma ferramenta muito útil para a solução de problemas para os quais não havia soluções freqüentistas. Esse teste, contudo, depende de que a amostra seja coletada uma única vez, após o que a distribuição a posteriori dos parâmetros é obtida e a medida de evidência, calculada. Ensejadas por esse aspecto, são apresentadas abordagens analíticas e computacionais para a extensão do FBST ao contexto de decisão seqüencial (DeGroot, 2004). É apresentado e analisado um algoritmo para a execução do FBST Seqüencial, bem como o código-fonte de um software baseado nesse algoritmo. / FBST (Full Bayesian Significance Test) is a tool developed by Pereira and Stern (1999), to show a bayesian alternative to the tests of precise hypotheses. Since its introduction, FBST has shown to be a very useful tool to solve problems to which there were no frequentist solutions. This test, however, needs that the sample be collected just one time and, after this, the parameters posterior distribution is obtained and the evidence measure, computed. Suggested by this feature, there are presented analytic and computational approaches to the extension of the FBST to the sequential decision context (DeGroot, 2004). It is presented and analyzed an algorithm to execute the Sequential FBST, as well as the source code of a software based on this algorithm.
|
272 |
LEGAL-Tree: um algoritmo genético multi-objetivo para indução de árvores de decisão / LEGAL-Tree: a lexocographic genetic algorithm for learning decision treesBasgalupp, Márcio Porto 23 February 2010 (has links)
Dentre as diversas tarefas em que os algoritmos evolutivos têm sido empregados, a indução de regras e de árvores de decisão tem se mostrado uma abordagem bastante atrativa em diversos domínios de aplicação. Algoritmos de indução de árvores de decisão representam uma das técnicas mais populares em problemas de classificação. Entretanto, os algoritmos tradicionais de indução apresentam algumas limitações, pois, geralmente, usam uma estratégia gulosa, top down e com particionamento recursivo para a construção das árvores. Esses fatores degradam a qualidade dos dados, os quais podem gerar regras estatisticamente não significativas. Este trabalho propõe o algoritmo LEGAL-Tree, uma nova abordagem baseada em algoritmos genéticos para indução de árvores de decisão. O algoritmo proposto visa evitar a estratégia gulosa e a convergência para ótimos locais. Para isso, esse algoritmo adota uma abordagem multi-objetiva lexicográfica. Nos experimentos realizados sobre bases de dados de diversos problemas de classificação, a função de fitness de LEGAL-Tree considera as duas medidas mais comuns para avaliação das árvores de decisão: acurácia e tamanho da árvore. Os resultados obtidos mostraram que LEGAL-Tree teve um desempenho equivalente ao algoritmo SimpleCart (implementação em Java do algoritmo CART) e superou o tradicional algoritmo J48 (implementação em Java do algoritmo C4.5), além de ter superado também o algoritmo evolutivo GALE. A principal contribuição de LEGAL-Tree não foi gerar árvores com maior acurácia preditiva, mas sim gerar árvores menores e, portanto, mais compreensíveis ao usuário do que as outras abordagens, mantendo a acurácia preditiva equivalente. Isso mostra que LEGAL-Tree obteve sucesso na otimização lexicográfica de seus objetivos, uma vez que a idéia era justamente dar preferência às árvores menores (em termos de número de nodos) quando houvesse equivalência de acurácia / Among the several tasks evolutionary algorithms have been successfully employed, the induction of classification rules and decision trees has been shown to be a relevant approach for several application domains. Decision tree induction algorithms represent one of the most popular techniques for dealing with classification problems. However, conventionally used decision trees induction algorithms present limitations due to the strategy they usually implement: recursive top-down data partitioning through a greedy split evaluation. The main problem with this strategy is quality loss during the partitioning process, which can lead to statistically insignificant rules. In this thesis we propose the LEGAL-Tree algorithm, a new GA-based algorithm for decision tree induction. The proposed algorithm aims to prevent the greedy strategy and to avoid converging to local optima. For such, it is based on a lexicographic multi-objective approach. In the experiments which were run in several classification problems, LEGAL-Tree\'s fitness function considers two of the most common measures to evaluate decision trees: accuracy and tree size. Results show that LEGAL-Tree performs similarly to SimpleCart (CART Java implementation) and outperforms J48 (C4.5 Java implementation) and the evolutionary algorithm GALE. LEGAL-Tree\'s main contribution is not to generate trees with the highest predictive accuracy possible, but to provide smaller (and thus more comprehensible) trees, keeping a competitive accuracy rate. LEGAL-Tree is able to provide both comprehensible and accurate trees, which shows that the lexicographic fitness evaluation is successful since its goal is to prioritize smaller trees (fewer number of nodes) when there is equivalency in terms of accuracy
|
273 |
Sistema de avaliação do ensino fundamental no âmbito da educação de jovens e adultos como subsídio para uma melhor tomada de decisões da gestão escolar / System of Evaluation of Elementary Education in the Scope of the Education of Young People and Adults as Subsidy for a Better Decision Making of the School Management (Inglês)Gadelha Neto, João de Freitas 17 August 2017 (has links)
Made available in DSpace on 2019-03-30T00:16:51Z (GMT). No. of bitstreams: 0
Previous issue date: 2017-08-17 / Evaluation is a practice and a strategic resource for organizations to diagnose their respective businesses in order to make the best decisions in the course of their processes. Therefore, the main challenge is to define strategies to use these results of educational assessments to improve the classroom and teacher training, in order to reach quality standards compatible with the new demands of the knowledge society (CASTRO, 2009). In order to do so, the City of Fortaleza, in 2016, carried out three diagnostic evaluations, called evaluations: initial, intermediate and final, with the students of the classes of Youth and Adult Education (EJA) regarding learning in relation to several criteria and Variables in reading and writing. This work has the general objective of analyzing the results of evaluations of the Elementary School Evaluation System (SAEF) of 2016 in the EJA modality as a subsidy for a better decision making of school management in the city of Fortaleza. The evaluations took place in the months of February, August and November 2016 with approximately 12,000 students enrolled in this teaching modality. In order to do so, a research was carried out based on secondary data from the Municipal Department of Education through access to the SAEF database, based on a quantitative methodology. The main results of the diagnostic evaluations, although not standardized throughout the year 2016, show small advances in the students' learning regarding reading and writing. It is concluded, therefore, that the SAEF evaluation process and its by-products require greater self-control of the procedures adopted, as well as the transparency of its results; In the construction of an autonomous and democratic school environment; In the technical, pedagogical and administrative organization of the school, among others.
Keywords: School management. Youth and adult education. Evaluation systems. Writing assessment. Reading assessment. / A avaliação é uma prática e um recurso estratégico para as organizações diagnosticarem seus respectivos negócios, no intuito de tomar as melhores decisões no decorrer de seus processos. Portanto, o principal desafio é definir estratégias de uso desses resultados das avaliações educacionais para melhorar a sala de aula e a formação dos professores, de modo a atingir padrões de qualidade compatíveis com as novas exigências da sociedade do conhecimento (CASTRO, 2009). Para tanto, a Prefeitura Municipal de Fortaleza, em 2016, realizou três avaliações diagnósticas, denominadas de avaliações: inicial, intermediária e final, com os alunos das turmas de Educação de Jovens e Adultos (EJA) quanto à aprendizagem em relação a vários critérios e variáveis, no âmbito da leitura e da escrita. Este trabalho tem com objetivo geral analisar os resultados das avaliações do Sistema de Avaliação do Ensino Fundamental (SAEF) de 2016 na modalidade da EJA enquanto subsídio para uma melhor tomada de decisões da gestão escolar no município de Fortaleza. As avaliações ocorreram nos meses de fevereiro, agosto e novembro de 2016 com aproximadamente 12.000 alunos matriculados nessa modalidade de ensino. Para tanto, foi realizada uma pesquisa com base em dados secundários da Secretaria Municipal da Educação por meio de acesso ao banco de dados do SAEF, tendo como premissa a metodologia quantitativa. Os principais resultados das avaliações diagnósticas, apesar de não padronizadas ao longo do ano de 2016, mostram avanços pequenos em relação à aprendizagem dos alunos quanto à leitura e a escrita. Conclue-se, portanto, que o processo de avaliação do SAEF e seus subprodutos, necessitam de maior autocontrole dos procedimentos adotados, bem como na transparência dos seus resultados; na construção de um ambiente escolar autônomo e democrático; na organização técnica, pedagógica e administrativa da escola, dentre outros.
Palavras-chave: Gestão escolar. Educação de jovens e adultos. Sistemas de avaliação. Avaliação da escrita. Avaliação de leitura.
|
274 |
Novos tipos de abuso de poder: uma contribuição ao estudo a partir da interpretação da jurisprudência do Tribunal Superior EleitoralNogueira Júnior, Flávio Aurélio January 2017 (has links)
Submitted by Gisely Teixeira (gisely.teixeira@uniceub.br) on 2018-07-24T15:16:30Z
No. of bitstreams: 1
ok-61350561.pdf: 1565109 bytes, checksum: a649cf78e15f28a5934ae65ef96a252a (MD5) / Approved for entry into archive by Fernanda Weschenfelder (fernanda.weschenfelder@uniceub.br) on 2018-07-30T19:03:35Z (GMT) No. of bitstreams: 1
ok-61350561.pdf: 1565109 bytes, checksum: a649cf78e15f28a5934ae65ef96a252a (MD5) / Made available in DSpace on 2018-07-30T19:03:35Z (GMT). No. of bitstreams: 1
ok-61350561.pdf: 1565109 bytes, checksum: a649cf78e15f28a5934ae65ef96a252a (MD5)
Previous issue date: 2017 / No sistema eleitoral brasileiro, a Justiça Eleitoral, em especial o TSE, tem demonstrado seu protagonismo na moralização das eleições. A preocupação do TSE em fiscalizar e julgar o abuso de poder constitui a principal forma de trazer legitimidade ao pleito eleitoral. O reconhecimento do abuso de poder no processo eleitoral possui fortes consequências sociais, tais como a anulação do pleito, novas eleições, declaração de inelegibilidade, entre outras. Portanto, este estudo tem por objeto o abuso de poder a partir das interpretações do Tribunal Superior Eleitoral – TSE, por meio da análise de suas jurisprudências. Parte da hipótese que para se reconhecer o abuso do exercício de um poder (entendendo poder como exercício de uma liberdade ou direito fundamental), a justiça eleitoral, em especial o TSE, inserida em um ambiente no qual prevalece o Estado Democrático de Direito, não deve fazer uso de instrumentos/artifícios que possibilitem interpretações maleáveis, distantes da norma vigente. Uma vez que a legislação eleitoral, quando aplicada corretamente, tem se desvelado suficiente para conter o abuso do exercício de poderes que afetam os bens jurídicos tutelados pelo Direito Eleitoral. Parte das seguintes questões: Quais são os principais parâmetros utilizados pelo Tribunal Superior Eleitoral para constatar o abuso de poder em um Estado Democrático de Direito? Pode-se entender que a partir da análise das interpretações desses parâmetros, a jurisprudência do TSE está sendo construída respeitando o Estado de Direito? Faz-se necessária a expansão das interpretações, ou mesmo a criação de novas figuras de abuso de poder como causa de pedir nas ações eleitorais? Apresenta como objetivos: analisar as interpretações do TSE, por meio de suas jurisprudências, em especial as que discutem a possibilidade de criação de novos tipos de abuso de poder, não definidos na norma eleitoral; identificar os principais parâmetros utilizados pelo Tribunal Superior Eleitoral nos julgados sobre o abuso de poder; delinear os tipos possíveis de abuso de poder encontrados nas interpretações do TSE; analisar os dois principais julgados que discutem a possibilidade de novos tipos de abuso de poder na justiça eleitoral, aplicando-se os parâmetros interpretativos apresentados ao longo do trabalho. No que se refere à metodologia, trata-se de uma pesquisa qualitativa, de documentação indireta, fundamentada na hermenêutica jurídica para análise e interpretação dos documentos. Conclui que o TSE, apesar de ter votos propensos a um entendimento de reconhecer novos tipos de abuso de poder como causa de pedir, tipos autônomos, a maioria de seus membros impõem soluções nas quais essa nova roupagem não se faz necessária, respeitando a norma e aplicando-a ao caso concreto sem a necessidade de argumentações que refutem a lei em favor de supostos princípios sociais. Assim, o Estado de Direito tem sido respeitado nas decisões que reconhecem tão somente a existência do abuso de poder econômico, político e do uso indevido dos meios de comunicação.
|
275 |
Os efeitos das decisões negativas de repercussão geral: uma releitura do direito vigenteRego, Frederico Montedonio January 2017 (has links)
Submitted by Gisely Teixeira (gisely.teixeira@uniceub.br) on 2018-07-20T14:38:01Z
No. of bitstreams: 1
61550014.pdf: 1683982 bytes, checksum: 40199318e721097a9eee6a6c4354972d (MD5) / Rejected by Fernanda Weschenfelder (fernanda.weschenfelder@uniceub.br), reason: mestrado on 2018-07-23T15:05:10Z (GMT) / Submitted by Gisely Teixeira (gisely.teixeira@uniceub.br) on 2019-01-14T16:23:35Z
No. of bitstreams: 1
61550014.pdf: 1683982 bytes, checksum: 40199318e721097a9eee6a6c4354972d (MD5) / Approved for entry into archive by Fernanda Weschenfelder (fernanda.weschenfelder@uniceub.br) on 2019-01-14T16:33:20Z (GMT) No. of bitstreams: 1
61550014.pdf: 1683982 bytes, checksum: 40199318e721097a9eee6a6c4354972d (MD5) / Made available in DSpace on 2019-01-14T16:33:20Z (GMT). No. of bitstreams: 1
61550014.pdf: 1683982 bytes, checksum: 40199318e721097a9eee6a6c4354972d (MD5)
Previous issue date: 2017 / O estudo parte da constatação de que é insatisfatório o funcionamento do instituto da
repercussão geral, tal como praticado pelo Supremo Tribunal Federal (STF) nos últimos dez
anos. Longe de se tornar o filtro pelo qual a Corte concentraria sua força de trabalho apenas
nos casos mais importantes, a prática segundo a qual as decisões negativas de repercussão
geral são motivadas como quaisquer outras terminou por reduzi-las a um instrumento de
resolução de demandas repetitivas, incapaz de impedir a chegada de cerca de cem mil casos
por ano ao Tribunal, e de desobrigá-lo a proferir aproximadamente o mesmo número de
decisões nesse intervalo. Dadas as limitações impostas por essa prática ao uso formal do
instrumento, desenvolveu-se um mecanismo informal, pelo qual os ministros, individualmente
ou reunidos em turmas, descartam os casos não considerados importantes, embora sem
afirmar expressamente a ausência de repercussão geral das questões constitucionais
discutidas, o que apresenta sérios efeitos colaterais de transparência e funcionalidade. Essa
não é, porém, a forma pela qual os filtros de relevância operam em outras cortes supremas no
mundo, que se têm valido de uma sistemática segundo a qual apenas são substancialmente
motivadas as decisões que passam pelo teste da relevância, enquanto as demais não são
fundamentadas ou o são apenas genericamente, sem que se produza um precedente para casos
futuros. Ao final, o trabalho pretende demonstrar que essa lógica é compatível com o direito
brasileiro vigente: justamente para permitir a atenuação da motivação das decisões negativas
de repercussão geral, foi instituído o quorum qualificado de dois terços dos ministros do STF,
desde que a decisão tenha efeitos limitados ao recurso extraordinário in concreto, ou, na
dicção constitucional, que se limite a “recusá-lo”, no singular (CF, art. 102, § 3º). Como é
natural, para que o STF decida apenas o que é mais relevante, mostra-se indispensável um
meio eficaz de não decidir o que é menos relevante. Tal sistemática permite uma análise bem
mais ágil, resulta numa decisão irrecorrível e numa jurisdição afinal bastante franca, a partir
da seguinte regra básica: para ser ouvido pelo STF, é preciso convencer ao menos quatro
ministros da repercussão geral das questões constitucionais tratadas.
|
276 |
Análise de alternativas de projeto de interação aplicando análise verbal de decisõesCarvalho, Ana Lisse Assunção de 29 September 2008 (has links)
Made available in DSpace on 2019-03-29T23:13:08Z (GMT). No. of bitstreams: 0
Previous issue date: 2008-09-29 / This work presents a strategy for analysis of alternative solutions for interaction design,
structured in Verbal Decision Analysis. Design multiple solutions has been considered a way to get creative and innovative interfaces, however the analysis of these solutions is generally performed in a quantitative way. Many papers recognize the difficulty in assessing qualitative aspects of subjective experiences of users and their preferences. This work propose applying Verbal Decision Analysis, which support decisions based on subjective questions, to aid the designer in the analysis of alternative interaction project. The result of this strategy is a set of alternatives and criteria ordered as the preferences of users. Designers use this information to understand the experiences of users and to design interaction projects according to the user's interest. A study over a real case problem was conducted analyzing prototypes that simulate a mobile Portal for Access to Digital Television. This experiment assesses the potentialities of the approach. Final considerations and suggestions of future work are presented at the end of this work. / Este trabalho apresenta uma estratégia para análise de soluções alternativas de projeto
de interação, estruturada na Análise Verbal de Decisões. Projetar múltiplas soluções tem sido
considerado uma forma de obter interfaces criativas e inovadoras, entretanto a análise dessas
soluções é geralmente realizada de forma quantitativa. Autores de diversos trabalhos
reconhecem a dificuldade em avaliar qualitativamente aspectos subjetivos das experiências
dos usuários e suas preferências. Essa dissertação propõe a aplicação da Análise Verbal de
Decisão, que compreende métodos de multicritério que apóiam a tomada de decisão
fundamentada em questões subjetivas, para auxiliar o projetista na análise de alternativas de
projeto de interação. O resultado dessa estratégia é um conjunto de alternativas e critérios
ordenados conforme as preferências dos usuários. Os designers utilizam essas informações
para compreender as experiências dos usuários e conceber projetos de interação que
despertem o interesse dos usuários. O estudo de caso foi aplicado em protótipos que simulam
um Portal de Acesso à Televisão Digital Móvel. Considerações finais e sugestões de trabalhos
futuros são apresentadas ao final do trabalho.
Palavras-chave: Interface homem máquina, análise multicritério, tomada de decisão, televisão digital móvel.
|
277 |
A novel approach based on multiple criteria decision aiding methods to cope with classification problems / A Novel Approach Based on Multiple Criteria Decision Aiding Methods to Cope with Classification Problems (Inglês)Brasil Filho, Amaury Teófilo 21 August 2009 (has links)
Made available in DSpace on 2019-03-29T23:15:55Z (GMT). No. of bitstreams: 0
Previous issue date: 2009-08-21 / This work presents a novel decision making approach developed upon two Multicriteria Decision Aiding (MCDA) classification methods. The classification methods are centered on the concept of prototypes, that are alternatives that serve as class representatives related to a given problem, and have their performance index very dependent upon the choice of values of some control parameters. In contrast with most MCDA classification research, which put more emphasis on the development of new methods, this study investigates the impact that the prototype selection task exerts on the classification performance exhibited by the classifiers under analysis. To overcome this problem and leverage the classifier performance, two techniques, one based on ELECTRE IV methodology and the other on a customized genetic algorithm, are employed in order to select the prototypes and calibrate the control parameters. To validate the devised classification approach, a case study based on the Alzheimer's disease (AD) was developed to assist clinicians and researchers in the AD early detection. Moreover, the experiments realized, involving different datasets, reveal that there are still some gaps in existing MCDA classification methods that can lead to an improvement of the methodology for the classification problems.
Keywords: Multicriteria Decision Aiding, Classification, ELECTRE IV , Genetic Algorithm, Alzheimer's Disease. / Esse trabalho apresenta uma nova abordagem de tomada de decisão desenvolvida sobre dois métodos Multicritério de Apoio à Decisão (MCDA) na área de classificação. Os métodos de classificação são fundamentados no conceito de protótipos, que são alternativas que funcionam como representantes de classe de um determinado problema, e possuem sua performance dependente da escolha dos parâmetros de controle do algoritmo. Em contraste com a maioria das pesquisas relacionadas à MCDA, que colocam uma maior ênfase no desenvolvimento de novos métodos, esse estudo investiga o impacto que a tarefa de seleção de protótipos exerce na performance dos algoritmos de classificação em questão. Para superar esse problema e melhorar a performance dos classificadores, duas técnicas, uma baseada na metodologia ELECTRE IV e a outra em um algoritmo genético customizado, foram aplicadas para selecionar os protótipos e calibrar os parâmetros de controle. Para validar a abordagem de classificação criada, um estudo de caso baseado na doença de Alzheimer foi desenvolvido para ajudar médicos e pesquisadores na identificação precoce da doença. Além disso, os experimentos realizados, envolvendo diferentes conjuntos de dados, revelam que existem alguns espaços para melhoria nos métodos de classificação MCDA que podem levar a um avanço na metodologia dos problemas de classificação.
Palavras-chave: DecisãoMulticritério, Classificação, ELECTRE IV, Algoritmo Genético, Doença de Alzheimer.
|
278 |
Um modelo híbrido para apoio ao diagnóstico de diabetesMenezes, Andréa Carvalho 26 April 2013 (has links)
Made available in DSpace on 2019-03-29T23:38:25Z (GMT). No. of bitstreams: 0
Previous issue date: 2013-04-26 / Diabetes is a metabolic disorder that affects over 371 million people worldwide and half of these people don t know their condition. The number of people with diabetes continues to grow, only in 2012, there were 4.8 million deaths and 471 billion dollars spent. The diagnosis when performed early is essential because associated with the correct treatment, may delay the onset of chronic complications, providing better living conditions for patients and reducing the social and economic impact, bringing substantial gains in economic growth of countries. The objective of this work is to propose a hybrid model to create an Expert System, structured in probability rules by applying Bayesian Networks, Multiple Criteria Decision Analysis and representation of knowledge structured in production rules and probability (Artificial Intelligence) to improve the diagnosis process, focusing on the diagnosis of type 2 diabetes. Initially we mapped the parameters for diagnosing the disease and conducted a survey of available data sets of diabetes. To identify the parameters of greatest impact in defining the diagnosis of diabetes, the Multiple Criteria Decision Analysis Methodology was applied, by applying the method MACBETH. Therefore, a computational tool has been developed to register the data set and automatically generate Bayesian Networks, using the Netica-J API, and matrices of judgements. The matrices consistency is checked by the software Hiview and generated the numerical scale of preferences. The Expert SINTA was used to construct the Expert System. The proposed model was applied to a Canadian dataset (Statistics Canada) with 4,611 diabetic patients and a Brazilian dataset provided by the company CAMED, with 1,222 diabetic patients.
Keywords: Diabetes, early diagnosis, Hybrid Model, Multicriteria, Bayesian Network, Expert System. / O Diabetes é um distúrbio metabólico que afeta mais de 371 milhões de pessoas no mundo e metade dessas pessoas desconhece sua própria condição. O número de pessoas com Diabetes continua a crescer, só em 2012, foram 4,8 milhões de mortes e 471 bilhões de dólares gastos. O diagnóstico precoce é imprescindível, pois associado ao tratamento adequado pode postergar o aparecimento de complicações crônicas, proporcionando melhores condições de vida aos pacientes e reduzindo o impacto social e econômico, trazendo ganhos substanciais no crescimento econômico dos países. O objetivo deste trabalho é propor um modelo híbrido para a criação de um Sistema Especialista, estruturado em regras de probabilidade, aplicando Redes Bayesianas, Metodologias Multicritério de Apoio à Decisão e representações de conhecimento estruturadas em regras de produção e probabilidade (Inteligência Artificial) para aprimoramento do processo de diagnóstico, com foco no diagnóstico de Diabetes tipo 2. Inicialmente foi realizado um mapeamento dos parâmetros para diagnosticar a doença e um levantamento das bases de dados disponíveis de Diabetes. Para identificar os parâmetros de maior impacto na definição do diagnóstico de Diabetes, aplicou-se a Metodologia Multicritério de Apoio à Decisão, através da aplicação do método MACBETH. Para tanto, foi desenvolvida uma ferramenta computacional a fim de cadastrar as bases de dados e gerar Redes Bayesianas, utilizando a API Netica-J, e Matrizes Juízo de Valor. A consistência das matrizes é verificada através da ferramenta Hiview e gerada a escala numérica de preferências. Para a construção do Sistema Especialista utilizou-se o Expert SINTA. O modelo proposto foi aplicado a uma base de dados canadense (Statistics Canada), com 4.611 diabéticos, e uma base de dados brasileira cedida pela empresa CAMED, com 1.222 diabéticos.
Palavras-chave: Diabetes, diagnóstico precoce, Modelo híbrido, Multicritério, Redes Bayesianas, Sistema Especialista.
|
279 |
Incorporação do risco de prejuízo no gerenciamento de medidas de controle de inundaçãoFadel, Amanda Wajnberg January 2015 (has links)
No Brasil, é comum o registro de situações de calamidade pública em municípios atingidos por inundações. No entanto, também é frequente que nessas localidades não existam medidas para o gerenciamento das inundações, mesmo com a iminência de ocorrência de eventos desse tipo. Embora se encontrem exemplos bem sucedidos de organização municipal, principalmente a cargo das defesas civis, a avaliação do risco de prejuízo ainda não é incorporada nas análises de investimentos em medidas de controle de cheias. Assim, a presente pesquisa tem como objetivo identificar combinações de medidas estruturais e não estruturais conforme o risco de prejuízo, para tornar a tomada de decisão dos atores mais coerente com as possibilidades de ações de gestão de inundações local. Essa proposta faz parte do projeto “Desenvolvimento e preparação da implantação de uma estratégia integrada de prevenção de riscos associados a regimes hidrológicos na bacia do Taquari-Antas”, realizado pelo Centro Universitário de Estudos e Pesquisas sobre Desastres da Universidade Federal do Rio Grande do Sul (CEPED/UFRGS), com financiamento e apoio da Secretaria Nacional de Defesa Civil do Ministério da Integração Nacional (SEDEC/MI) e apoio da Coordenadoria Estadual de Defesa Civil do Estado do Rio Grande do Sul (CEDEC/RS). Como resultado, se obteve o desenvolvimento de uma metodologia genérica, que foi aplicada no município de Lajeado/RS, com possibilidade de ser replicada para demais municípios da região que sofrem com os mesmos problemas de inundação. Duas hipóteses de ocupação foram avaliadas: conforme ordenamento apresentado pelo plano diretor (onde a ocupação é distribuída por toda a área do município) e considerando uma área de não ocupação, coincidente com a primeira área do zoneamento, de acomodação de cheias (Z1). Três alternativas de medidas de controle foram avaliadas: a) manutenção da situação atual - não implementar nenhuma forma de controle; b) medida não estrutural de restrição de ocupação a partir de estudos de zoneamento (com duas zonas, Z1 e Z2); c) medida estrutural de construção de um dique ao longo do rio Taquari e principais arroios urbanos do município. O dano anual esperado para os cenários considerados foi de aproximadamente R$ 29 mil para ocupação de acordo com o Plano Diretor, R$ 14 mil quando da não ocupação da zona de acomodação de cheias, R$ 6 mil quando das restrições às moradias e R$ 3 mil para o dique de proteção. Esta última, apesar de resultar em menores riscos de prejuízos, foi a alternativa mais cara, sendo a alternativa de restrição de ocupação a que se mostrou com menores custos totais. / In Brazil, at all the time there are situations of flood tragedy. However, it is also common for these locations no measures for managing floods, despite the imminent occurrence of such events. Although there are successful examples of municipal organization (mainly in charge of civil defense), the assessment of damage risk is not yet incorporated into investment analysis on flood control measures. Thus, this research aims to identify combinations of structural and non-structural measures, according to the damage risk, to improve decision with the possibilities of local flood management actions. This proposal have the city of Lajeado / RS as study site and is also part of the project "Development and preparation of the implementation of an integrated strategy for the risks prevention associated with hydrological regimes in the Taquari-Antas river basin" held by the Coordenadoria Estadual de Defesa Civil do Estado do Rio Grande do Sul (CEDEC / RS) and the Centro Universitário de Estudos e Pesquisas sobre Desastres da Universidade Federal do Rio Grande do Sul (CEPED / UFRGS), with funding and support from the Secretaria Nacional de Defesa Civil do Ministério da Integração Nacional (SEDEC / MI). As a result, it was obtained a generic methodology, applied in the city of Lajeado / RS, with is possible to be replicated to other cities that suffer from the same flooding problems. Two hypotheses for actual occupation was evaluated: first as presented by the master plan (where the occupation is distributed throughout the municipal area); and second an area of no occupation, coincident with the first area of zoning (Z1). Three alternative control measures were evaluated: a) maintaining the current situation - not implement any form of control; b) non-structural measure from zoning studies (with two zones Z1 and Z2); c) structural measure with a levee along the Taquari river and major urban streams in the city The expected annual damage to the scenarios was R$ 28.694.175 for occupancy in accordance with the local Master Plan, R$ 14.181.381 when not occupying the first flood zone, R$ 6.304.369 considering the construct restrictions and R$ 2.720.609 with the levee. However the scenario with the levee, results in a lower risk of losses, it was the most expensive alternative, and the scenario that considers the construct restrictions alternative has the lower total costs.
|
280 |
A tríplice vinculação da fundamentação das decisões judiciais : pedidos, provas e precedentesCardoso, Oscar Valente January 2016 (has links)
Esta tese constrói uma teoria da fundamentação das decisões judiciais apoiada em uma base normativa, da qual são extraídos três elementos vinculantes que definem, delimitam e limitam os fundamentos dos pronunciamentos judiciais no Brasil, a partir do Novo Código de Processo Civil (Lei nº 13.105/2015): os pedidos, as provas e os precedentes. Investiga os problemas de falta de previsibilidade das decisões judiciais no país e as alterações legislativas realizadas nas últimas décadas que buscaram corrigir as falhas e conferir maior segurança jurídica e isonomia nos julgamentos dos juízes e tribunais, culminando com o novo CPC. Analisa de que modo a lei, em sentido amplo, estabelece a vinculação da fundamentação pelos elementos referidos.
|
Page generated in 0.0522 seconds