21 |
Desenvolvimento de aparato automatizado de slump test : ferramenta de controle de qualidade e de caracterização reológica de materiais /Pereira, João Batista. January 2018 (has links)
Orientador: Geraldo de Freitas Maciel / Resumo: O ensaio de abatimento de tronco de cone, desenvolvido inicialmente como ferramenta de controle de qualidade para avaliar a consistência de materiais cimentícios e com grande aplicação no setor da construção civil, tem sido cada vez mais empregado para análise de materiais de diferentes setores, seja da indústria do petróleo, da mineração e mesmo de alimentos. O interesse de diferentes setores industriais pela medida do abatimento deve-se a esta possibilitar uma ferramenta de controle de qualidade de materiais e ainda fornecer um mecanismo simples e fácil para a determinação de um importante parâmetro reológico, a tensão limite de escoamento. Nesse contexto, esta dissertação de mestrado apresenta o desenvolvimento de um aparato experimental capaz de realizar, de forma automatizada, o ensaio de abatimento de tronco de cone (comumente conhecido por slump test), desde o levantamento do cone de Abrams até a medição do abatimento. A partir do equipamento desenvolvido, três abordagens são realizadas e discutidas ao longo desta dissertação, tendo como materiais avaliados os géis de carbopol (fluido teste reologicamente representativo de lamas), lamas, argamassas e concretos. A primeira abordagem diz respeito a funcionalidade e operacionalidade do aparato automatizado de slump test. A segunda abordagem apresenta modelos empíricos de determinação da tensão limite de escoamento e viscosidade aparente, a partir da medida mais rigorosa de abatimento e outras informações fornecidas pelo a... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The slump test was, initially, developed as a quality control tool for evaluating the consistency of cement-based materials, with many applications in civil engineering, it has been used for the analysis of materials in different sections of petrol industries, mining, and even food industries. The interest of these different industrial sections in the slump is due to its possible role as quality control tool of materials, providing an easy and simple mechanism for the determination of an important rheological parameter: the yield stress. In this context, this dissertation presents the development of an experimental apparatus capable of obtaining, in such automated way, the slump test, since the lifting of the Abrams cone to the obtaining of the slump. From the apparatus, three approaches are presented and discussed in this text, showing the results for the evaluation of materials such as carbopol gel (a rheological representative fluid of mud), mud, concrete and mortar. The first approach deals with the functionality of the automated apparatus for slump test. The second approach presents empiric models for the determination of yield stress and apparent viscosity, from the slump and further information obtained by the automated apparatus. The third and last approach presents the numerical simulation and validation of the slump test by the use of FLUENT software, considering the Non-Newtonian property (Herschel-Bulkley’s fluid) of the tested materials, and the trial of the mode... (Complete abstract click electronic access below) / Mestre
|
22 |
Desenvolvimento de dispositivo movimentador automatizado de amostras com vista à aplicação em medidas de radioisótopos que possuem curto tempo de meia-vida / Development of controller of acquisition and sample positioner for activation for use in measurements of short half-life radioisotopesMarcello Secco 20 May 2016 (has links)
Medidas de espectroscopia gama de alta resolução têm diversas aplicações. Aplicações envolvendo medidas de radioisótopos de meia-vida curta podem apresentar problemas de baixa precisão nas contagens quando a fonte radioativa está distante do detector e de perda de acurácia por efeitos de tempo morto e empilhamento de pulsos em situação de altas taxas de contagens. Um modo de minimizar esses problemas é alterando a posição da fonte radioativa durante o processo de medição, aproximando-a do detector conforme sua atividade diminui e assim maximizando o número de contagens medidas. Neste trabalho, foi desenvolvido o Movimentador de Amostras Radioativas Automatizado (MARA), um aparato de baixo custo, feito com materiais de baixo número atômico e leve, projetado e construído para auxiliar nas medidas de espectroscopia gama, capaz de controlar a distância entre a fonte e o detector, permitindo inclusive que ocorra alteração dessa distância durante o processo de medição. Por ser automatizado ele otimiza o tempo do operador, que tem total liberdade para criar suas rotinas de medidas no dispositivo, além de evitar que o mesmo tome uma parcela da dose radioativa. Foi também feita uma interface que permite controle do MARA e a programação do sistema de aquisição de dados. Foram realizados testes para otimização da operação do sistema MARA e foi verificada a segurança de operação do MARA, não apresentando nenhuma falha durante seus testes. Foi aplicado o teste de repetitividade, por meio de medições com uma fonte calibrada de 60Co, e verificou-se que o sistema de movimentação de prateleiras automatizado reproduziu os resultados do sistema estático com confiabilidade de 95%. / High resolution gamma spectroscopy measurements have several applications. Those involving short half-life radioisotope measurements may present low precision problems when the radioactive source is far from detector end cup and in the very high activity situations also can present accuracy loss due to dead time and pile-up effects. A way to overcome these problems is changing the source detector distance as the activity is decreasing, and thereby maximizing the statistical counting. In the present study, the Controller of Acquisition and Sample Positioner for Activation (CASPA) was developed. It is a low cost and weight device, made with low atomic number materials designed to assist gamma spectroscopy measurements, which is able to control the distance between the source and the detector, even allowing that there is a change of this distance during the measurement process. Because it is automated it optimizes the time of the operator, who has complete freedom to program their routine measurements in the device besides minimizing the radiation dose in the operator. An interface that allow the user control the CASPA system and to program the acquisition system was created. Tests aiming to optimize the operation of CASPA system were carried out and the safety of the CASPA operation was verified, it was not presented any failure during their tests. It was applied the repeatability tests by the acquisition 60Co standard source and was found that the positioning of automated system has reproduced the results of static system with a 95% of confidence level .
|
23 |
Nuevas tecnologías aplicadas a la realización de la información audiovisual y retransmisiones deportivasRoger Monzó, Vanessa 16 July 2010 (has links)
La televisión del siglo XXI se ha visto transformada ante los grandes cambios que las nuevas tecnologías han traído consigo. La incidencia de los nuevos sistemas de producción digital en la elaboración de los contenidos informativos audiovisuales y retransmisiones deportivas, su repercusión en las categorías laborales y cómo las alteraciones de las rutinas productivas están afectando a las características y calidad de los mensajes informativos y contenidos deportivos son los principales aspectos que conforman el objeto de análisis de "Nuevas tecnologías aplicadas a la realización de la información audiovisual y retransmisiones deportivas".
El cambio del sistema de trabajo tradicional, basado en componentes analógicos y/o lineales, al nuevo panorama digital ha ampliado enormemente las posibilidades de los medios de comunicación. La tecnología digital condiciona el proceso de creación del mensaje, pero también afecta al contenido, estructura y estética del propio mensaje.
Nuevas rutinas productivas, nuevas categorías profesionales, continuos cambios de equipos e instalaciones y, como no, nuevas inversiones son sólo algunos de los aspectos a los que deben enfrentarse las empresas televisivas que desean adaptarse a las demandas informativas y deportivas del mercado. Sin embargo, esta situación, más allá del aspecto técnico debe contemplar igualmente la dimensión expresiva.
Hoy todo es efímero y la tecnología de antaño basada en equipos y soportes lineales está abocada a la desaparición. Cambian las tecnologías y la situación reclama una transformación de los profesionales, ya que las figuras laborales estables tienden a extinguirse. Tal circunstancia crea conflictos respecto a las funciones y relaciones de unas categorías con otras. Ante el reto de las nuevas condiciones tecnológicas, los profesionales de la televisión se ven obligados a reciclarse, y para ello precisan una formación continua que les permita dar el salto a las nuevas demandas laborales. / Roger Monzó, V. (2010). Nuevas tecnologías aplicadas a la realización de la información audiovisual y retransmisiones deportivas [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8440
|
24 |
Proyecto de inversión privada para la instalación de un supermercado smart en Chiclayo 2021Campos Carrasco, Cristian Edmundo January 2022 (has links)
La presente investigación trata acerca de un proyecto de inversión privada para la construcción de un supermercado inteligente en el distrito de Chiclayo. El proyecto está realizado para tres de seis estilos de vida capaces de adaptarse por este nuevo modelo de compra automatizada. Luego del análisis y evaluación del proyecto, se determinó una proyección a cinco años y se indicó que el proyecto es rentable. / This research is about a private investment project for the construction of a smart supermarket in the Chiclayo district. The project is made for three out of six lifestyles capable of being adapted by this new automated purchasing model. After the analysis and evaluation of the project, a five-year projection was determined and it was indicated that the project is profitable.
|
25 |
Desarrollo de Nuevos Componentes Pasivos de Microondas en Tecnología Guiada para Bandas Altas de FrecuenciaRuiz Garnica, Jesús 16 December 2019 (has links)
[ES] La presente tesis doctoral tiene como objetivo fundamental el desarrollo de nuevos componentes pasivos de microondas para bandas altas de frecuencia, que puedan llegar a operar, al menos, hasta la banda Ka. Estos nuevos componentes surgen en respuesta a la clara tendencia en el ámbito de las comunicaciones vía satélite de aumentar la frecuencia y el ancho de banda de trabajo, en aras de incrementar las velocidades de transmisión. Concretamente, se ha abordado el diseño de elementos básicos de un subsistema de comunicaciones vía satélite, como son las uniones en guía de onda y los filtros paso banda.
Por una parte, se han desarrollado uniones compensadas en guía de onda double ridge (T en plano H, T en plano E y T mágica), superando las limitaciones en ancho de banda que presentan las uniones tradicionales construidas sobre guía rectangular. Se ha pretendido lograr el objetivo de desarrollar unas uniones capaces de interconectar elementos que cubran un amplio ancho de banda, lo que también incluye los filtros de nueva generación presentados en esta tesis.
Por otro lado, se ha propuesto una novedosa técnica para el diseño de filtros paso banda con inversores de inmitancia, basada en el slope parameter. A diferencia de la técnica tradicional, este nuevo proceso tiene en cuenta la dependencia real de los elementos del filtro con la frecuencia, calculando y actualizando el slope parameter de cada resonador cargado con sus elementos de acoplo
adyacentes en un proceso iterativo que llega a convergencia en pocas iteraciones. Así, este procedimiento basado en simulaciones electromagnéticas y cálculos, mejora la equivalencia entre el prototipo circuital y la estructura real sintetizada, ya que tiene en cuenta no sólo la dependencia con la frecuencia de los resonadores y los inversores individuales, sino también los efectos de carga que existen entre ellos. Además, se ha identificado que el mapeado en frecuencia elegido ha de ser el correcto para cada estructura y especificaciones del filtro. Como resultado, se obtienen unas mejores dimensiones iniciales, reduciendo de esta manera el coste computacional del paso final de optimización, que puede incluso llegar a ser innecesario en algunos casos. Este nuevo procedimiento se ha ilustrado mediante la síntesis de dos filtros de modo evanescente y mediante filtros radiantes que emplean una topología similar.
Finalmente, se ha llevado a cabo el estudio de una nueva familia de filtros denominada Modified Hybrid Folded Rectangular Waveguide (MHFRW), que además de operar en las citadas bandas de frecuencia, son capaces de manejar altos niveles de potencia, son fáciles de diseñar y fabricar (sin requerir tornillos de sintonía en muchos casos) y además presentan bajas pérdidas. Todo ello con la ventaja añadida de poder poner un número de ceros de transmisión mayor al orden del filtro (filtros superelípticos) mediante el uso de stubs cortocircuitados de longitud adecuada. Para ilustrar su funcionamiento se han presentado dos ejemplos detallados. El primero de ellos, que no presenta ceros de transmisión, se ha diseñado mediante la nueva técnica del slope parameter. El segundo se trata de un filtro superelíptico, con 4 ceros de transmisión (2 antes de la banda de paso y 2 después) implementados con 4 stubs en un filtro de orden 3. Por último, se ha mostrado la gran potencialidad práctica de esta familia de filtros mediante su aplicación en complejos multiplexores para bancos de medida de intermodulación pasiva (PIM). / [CA] La present tesi doctoral té com a objectiu fonamental el desenvolupament de nous components passius de microones per a bandes altes de freqüència, que puguen arribar a operar almenys fins a la banda Ka. Aquests nous components sorgeixen en resposta a la clara tendència en l'àmbit de les comunicacions via satèl·lit d'augmentar la freqüència i l'amplada de banda de treball, a fi de incrementar les velocitats de transmissió. Concretament, s'ha abordat el disseny d'elements bàsics d'un subsistema de comunicacions via satèl·lit, com són les unions en guia d'ona i els filtres passabanda.
D'una banda, s'han desenvolupat unions compensades en guia d'ona double ridge (T en pla H, T en pla E i T màgica), superant així les limitacions d'amplada de banda que presenten les unions tradicionals, construïdes sobre guia rectangular. S'ha pretès aconseguir l'objectiu de desenvolupar unes unions capaces d'interconnectar elements que cobrisquen una gran amplada de banda, cosa que inclou els filtres de nova generació presentats en aquesta tesi. D'altra banda, s'ha proposat una nova tècnica per al disseny de filtres passabanda amb inversors d'immitància, basada en l'slope
parameter. A diferència de la tècnica tradicional, aquest nou procés té en compte la dependència real dels elements del filtre respecte de la freqüència, i calcula i actualitza l'slope parameter de cada ressonador carregat amb els elements d'acoblament adjacents, en un procés iteratiu que arriba a convergència en poques iteracions. Així, aquest procediment basat en simulacions electromagnètiques i càlculs millora l'equivalència entre el prototip circuital i l'estructura real sintetitzada, ja que té en compte no sols la dependència respecte de la freqüència dels ressonadors i els inversors individuals, sinó
també els efectes de càrrega que hi ha entre aquests. A més, s'ha identificat que el mapatge en freqüència triat ha de ser el correcte per a cada estructura i especificacions del filtre. Com a resultat, s'obtenen unes millors dimensions inicials, i d'aquesta manera es redueix el cost computacional del pas final d'optimització, que fins i tot pot arribar a ser innecessari en alguns casos. Aquest nou
procediment s'ha il·lustrat mitjançant la síntesi de dos filtres de mode evanescent i mitjançant filtres radiants que empren una topologia similar.
Finalment, s'ha portat a terme l'estudi de una nova família de filtres denominada Modified Hybrid Folded Rectangular Waveguide (MHFRW), que, a més d'operar en les citades bandes de freqüència, són capaços de manejar alts nivells de potència, fàcils de dissenyar i fabricar (sense requerir caragols de sintonia en molts casos) i, a més, presenten baixes pèrdues. Tot això, amb l'avantatge afegit de poder posar un nombre de zeros de transmissió major que l'ordre del fltre (filtres superel·líptics) mitjançant l'ús de stubs curtcircuitats de longitud adequada. Per il·lustrar-ne el funcionament se n'han presentat dos exemples detallats. El primer d'aquests, que no presenta zeros de transmissió, s'ha dissenyat mitjançant la nova tècnica de l'slope parameter. El segon es tracta de un filtre superel·líptic, amb 4 zeros de transmissió (2 abans de la banda de pas i 2 després) implementats amb 4 slope en un filtre d'ordre 3. Finalment, s'ha mostrat la gran potencialitat pràctica d'aquesta família de filtres mitjançant l'aplicació en multiplexors complexos per a bancs de mesurament de la intermodulació passiva (PIM). / [EN] The main objective of this Ph.D. thesis is the development of new passive microwave components for high frequency bands, able to work at least up to Ka band. These new components aim at satisfying the needs of new communication systems, especially for satellite communications, where there is a trend to increase frequency and bandwidth of operation. Specifically, the design of basic hardware elements of satellite communication subsystems has been addressed, such as waveguide junctions and bandpass filters.
On the one hand, compensated T-junctions have been developed in double ridge waveguide (H-plane T, E-plane T and magic T), in order to overcome the bandwidth limitations of traditional junctions built on rectangular waveguide technology. The development of junctions able of interconnecting elements over a wide bandwidth has been pretended, including also the new generation of filters presented in this Ph.D. thesis.
On the other hand, a novel technique for the design of bandpass filters with immittance inverters has been proposed. This technique is based on the slope parameter. Unlike traditional techniques, this new process takes into account the actual dependence of filter elements with frequency, calculating and updating the slope parameter of each resonator loaded with its adjacent coupling elements in an iterative process. This process reaches convergence after few iterations. Therefore, this procedure (based on electromagnetic simulations and calculations) improves the equivalence between the circuit prototype and the real structure, since it takes into account the frequency dependence of resonators and individual inverters, including also the loading effects between them. In addition, it is important to point out that an appropriate frequency mapping must be chosen for each structure and filter specifications. As a result, better initial dimensions can be obtained, thus reducing the computational cost of the final optimization step, which can even become unnecessary in some cases. This new procedure has been illustrated by the synthesis of two evanescent-mode filters and several radiating filters
based on a similar topology.
Finally, the study of a new filter family called Modified Hybrid Folded Rectangular Waveguide (MHFRW) has been carried out. Besides operating in the mentioned frequency bands, theses filters are capable of handling high power levels, are easy to design and manufacture (without requiring tuning screws in many cases) and also present low losses. Likewise, this type of filters are able to generate a number of transmission zeros greater than the order of the filter (i.e., provide super-elliptic responses) by means of shortcircuited stubs. To illustrate its operation, two examples have been presented in detail. The first of them, which does not have transmission zeros, has been implemented using the new technique of slope parameter. Accordingly, the suitability of this method for this type of structure is demonstrated. The second is a super-elliptic filter, with 4 transmission zeros (2 before the passband and 2 after it) implemented with 4 stubs in a filter of order 3. To conclude and show the practical capabilities of the proposed family of filters, they have been successfully applied in the development of complex multiplexers for passive intermodulation (PIM) measurement test benches. / Ruiz Garnica, J. (2019). Desarrollo de Nuevos Componentes Pasivos de Microondas en Tecnología Guiada para Bandas Altas de Frecuencia [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/133058
|
26 |
Proposta de gestão de risco associado à ocorrência de corridas de detrito em bacias hidrográficas na Serra do Mar - Cubatão - SP /Veloso, Vinicius Queiroz. January 2019 (has links)
Orientador: José Eduardo Zaine / Resumo: As corridas de detritos ou debris flows são os fenômenos de movimentação de massa mais impactantes no Brasil, com destaque para a região serrana do Estado de São Paulo. São movimentos de massa complexos, que se comportam na forma de fluxos altamente densos, responsáveis pelo grande aporte de material grosseiro no decorrer das drenagens, com grande poder de impacto e raio de destruição. Esta pesquisa buscou aprimorar o conhecimento acerca dos movimentos de massa do tipo corrida de detritos, por meio de uma classificação bibliográfica sistemática do fenômeno, assim como dos seus principais fatores indutores na região da Serra do Mar. A área escolhida para o estudo foi uma bacia hidrográfica no município de Cubatão/SP, devido ao grande histórico de eventos desse tipo, como os ocorridos em 1994, que foram responsáveis pela paralização das operações na Refinaria Presidente Bernardes, resultando em altos prejuízos financeiros. Em 2013, no Rio Pilões, outro evento de magnitude similar comprometeu a infraestrutura da Sabesp, resultando em uma morte. Tomando como recorte de estudo a bacia hidrográfica do Rio das Pedras, o objetivo principal foi desenvolver, por meio de metodologias de gestão e mapeamento uma proposta de gerenciamento preventivo à ocorrência de corridas de detrito em bacias hidrográficas na Serra do Mar. Assim, por meio da avaliação da suscetibilidade, aplicação de equações empíricas, mapeamento geológico-geomorfológico e definição de cenários de risco com precipitação... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The debris flows are the most striking mass movement phenomena in Brazil, with emphasis on the mountain region of the State of São Paulo. They are complex mass movements, which behave in the form of highly dense flows, responsible for the great contribution of coarse material during the drainage, with great impact power and radius of destruction. This research aimed to improve the knowledge about mass movements of the type of debris run, through a systematic bibliographic classification of the phenomenon, as well as its main inductive factors in the Serra do Mar region. The area chosen for the study was a basin in the municipality of Cubatão / SP, due to the great history of events of this type, such as those occurred in 1994, which were responsible for the paralysis of operations at the Presidente Bernardes Refinery, resulting in high financial losses. In 2013, at Rio Pilões, another event of similar magnitude compromised Sabesp's infrastructure, resulting in one death. Taking as a study study the Rio das Pedras river basin, the main objective was to develop, through management and mapping methodologies, a proposal of preventive management to the occurrence of detritus races in watersheds in the Serra do Mar. Thus, through the evaluation of susceptibility, the application of empirical equations, geological-geomorphological mapping and the definition of risk scenarios with critical precipitation, resulted in a better estimate of a risk scenario closer to the real one possible... (Complete abstract click electronic access below) / Mestre
|
27 |
[en] AUTOMATIC GENERATION OF USER INTERFACE TEST SUITES SPECIFIED BY USE CASES / [pt] GERAÇÃO AUTOMÁTICA DE SUÍTES DE TESTE DA INTERFACE COM USUÁRIO A PARTIR DE CASOS DE USOEDUARDO DE OLIVEIRA FERREIRA 06 August 2014 (has links)
[pt] Espera-se que o desenvolvimento de suítes de teste a partir de modelos possa contribuir substancialmente para a redução do esforço humano e aumentar a eficácia dos testes gerados. Entende-se por eficácia (ideal) dos testes o percentual de defeitos existentes encontrados a partir desses testes. Uma grande parte dessas técnicas baseia-se em máquinas de estado e quase sempre estão voltadas para o teste de funcionalidade. Entretanto, existe a necessidade de se poder testar sistemas altamente interativos, tais como smartphones e tablets, a partir de uma descrição de sua interface humano-computador. O objetivo da dissertação é efetuar uma primeira avaliação de uma técnica voltada para a geração de suítes de
teste visando o teste de interfaces gráficas. Para tal,desenvolvemos e avaliamos a eficácia de uma ferramenta, chamada Easy, que utiliza casos de uso tabulares e máquina de estados para a geração automática da suíte de testes. Os casos de uso são descritos em linguagem natural restrita. A partir dessa descrição, a ferramenta constrói uma máquina de estado e, a seguir, a utiliza para gerar cenários. Por
construção os cenários estarão em conformidade com os casos de uso. Cada cenário corresponde a um caso de teste. Os cenários são apresentados ao usuário em linguagem natural restrita, permitindo a visualização destes antes da geração dos scripts finais de testes. Os scripts gerados são destinados a uma ferramenta de execução automatizada voltada para o teste de interfaces gráficas. Neste trabalho, utilizou-se a ferramenta UI Automation, responsável pela execução de testes em aplicações destinadas ao iOS, sistema operacional de iPhone, iPad e iPod Touch. A eficácia do processo foi avaliada em uma aplicação real, disponível na loja virtual de aplicativos App Store. Além disso, foram realizados testes de IHC afim
de avaliar a influência no custo da produção da suíte de teste. / [en] It is expected that the development of test suites from models can contribute substantially to reducing the human effort and to increase the effectiveness of the generated tests. Means for tests’ effectiveness (ideal) the percentage of existing defects found by these tests. Most of these techniques is based on state machines and mostly directed to testing the functionality. However, there is a need to be able to test highly interactive systems, such as smartphones and tablets, from a description of its human computer interface. The goal of the dissertation is to make a first evaluation of a technique aimed to generate test suites for test of human computer graphic interface. For this purpose was developed and evaluated its effectiveness, a tool called Easy, using use cases tabular and state machine for the automatic generation of the suite tests. The use cases are described in natural language restricted. From this description, the tool builds a state machine, and then uses this to generate scenarios. By construction scenarios will be in accordance with the use cases. Each scenario corresponds to a test case. The scenarios are presented to the user in natural language, allowing the visualization of them before the generation of the final scripts tests. The generated scripts are intended to a running automated tool geared to testing graphical interfaces. In this work, we used the UI Automation tool, responsible for running tests on applications for the iOS, operational system for iPhones, iPads and iPod touchs. The effectiveness of the procedure was evaluated in a real application, available in the online store applications App Store. In addition, HCI tests were performed in order to evaluate the influence on the cost of production of the test suite.
|
28 |
Human-help in automated planning under uncertainty / Ajuda humana em planejamento automatizado sob incertezaFranch, Ignasi Andrés 21 September 2018 (has links)
Planning is the sub-area of artificial intelligence that studies the process of selecting actions to lead an agent, e.g. a robot or a softbot, to a goal state. In many realistic scenarios, any choice of actions can lead the robot into a dead-end state, that is, a state from which the goal cannot be reached. In such cases, the robot can, pro-actively, resort to human help in order to reach the goal, an approach called symbiotic autonomy. In this work, we propose two different approaches to tackle this problem: (I) contingent planning, where the initial state is partially observable, configuring a belief state, and the outcomes of the robot actions are non-deterministic; and (II) probabilistic planning, where the initial state may be partially or totally observable and the actions have probabilistic outcomes. In both approaches, the human help is considered a scarce resource that should be used only when necessary. In contingent planning, the problem is to find a policy (a function mapping belief states into actions) that: (i) guarantees the agent will always reach the goal (strong policy); (ii) guarantees that the agent will eventually reach the goal (strong cyclic policy), or (iii) does not guarantee achieving the goal (weak policy). In this scenario, we propose a contingent planning system that considers human help to transform weak policies into strong (cyclic) policies. To do so, two types of human help are included: (i) human actions that modify states and/or belief states; and (ii) human observations that modify belief states. In probabilistic planning, the problem is to find a policy (a function mapping between world states and actions) that can be one of these two types: a proper policy, where the agent has probability 1 of reaching the goal; or an improper policy, in the case of unavoidable dead-ends. In general, the goal of the agent is to find a policy that minimizes the expected accumulated cost of the actions while maximizes the probability of reaching the goal. In this scenario, this work proposes probabilistic planners that consider human help to transform improper policies into proper policies however, considering two new (alternative) criteria: either to minimize the probability of using human actions or to minimize the expected number of human actions. Furthermore, we show that optimal policies under these criteria can be efficiently computed either by increasing human action costs or given a penalty when a human help is used. Solutions proposed in both scenarios, contingent planning and probabilistic planning with human help, were evaluated over a collection of planning problems with dead-ends. The results show that: (i) all generated policies (strong (cyclic) or proper) include human help only when necessary; and (ii) we were able to find policies for contingent planning problems with up to 10^15000 belief states and for probabilistic planning problems with more than 3*10^18 physical states. / Planejamento é a subárea de Inteligência Artificial que estuda o processo de selecionar ações que levam um agente, por exemplo um robô, de um estado inicial a um estado meta. Em muitos cenários realistas, qualquer escolha de ações pode levar o robô para um estado que é um beco-sem-saída, isto é, um estado a partir do qual a meta não pode ser alcançada. Nestes casos, o robô pode, pró-ativamente, pedir ajuda humana para alcançar a meta, uma abordagem chamada autonomia simbiótica. Neste trabalho, propomos duas abordagens diferentes para tratar este problema: (I) planejamento contingente, em que o estado inicial é parcialmente observável, configurando um estado de crença, e existe não-determinismo nos resultados das ações; e (II) planejamento probabilístico, em que o estado inicial é totalmente observável e as ações tem efeitos probabilísticos. Em ambas abordagens a ajuda humana é considerada um recurso escasso e deve ser usada somente quando estritamente necessária. No planejamento contingente, o problema é encontrar uma política (mapeamento entre estados de crença e ações) com: (i) garantia de alcançar a meta (política forte); (ii) garantia de eventualmente alcançar a meta (política forte-cíclica), ou (iii) sem garantia de alcançar a meta (política fraca). Neste cenário, uma das contribuições deste trabalho é propor sistemas de planejamento contingente que considerem ajuda humana para transformar políticas fracas em políticas fortes (cíclicas). Para isso, incluímos ajuda humana de dois tipos: (i) ações que modificam estados do mundo e/ou estados de crença; e (ii) observações que modificam estados de crenças. Em planejamento probabilístico, o problema é encontrar uma política (mapeamento entre estados do mundo e ações) que pode ser de dois tipos: política própria, na qual o agente tem probabilidade 1 de alcançar a meta; ou política imprópria, caso exista um beco-sem-saída inevitável. O objetivo do agente é, em geral, encontrar uma política que minimize o custo esperado acumulado das ações enquanto maximize a probabilidade de alcançar a meta. Neste cenário, este trabalho propõe sistemas de planejamento probabilístico que considerem ajuda humana para transformar políticas impróprias em políticas próprias, porém considerando dois novos critérios: minimizar a probabilidade de usar ações do humano e minimizar o número esperado de ações do humano. Mostramos ainda que políticas ótimas sob esses novos critérios podem ser computadas de maneira eficiente considerando que ações humanas possuem um custo alto ou penalizando o agente ao pedir ajuda humana. Soluções propostas em ambos cenários, planejamento contingente e planejamento probabilístico com ajuda humana, foram empiricamente avaliadas sobre um conjunto de problemas de planejamento com becos-sem-saida. Os resultados mostram que: (i) todas as políticas geradas (fortes (cíclicas) ou próprias) incluem ajuda humana somente quando necessária; e (ii) foram encontradas políticas para problemas de planejamento contingente com até 10^15000 estados de crença e para problemas de planejamento probabilístico com até 3*10^18 estados do mundo.
|
29 |
Desenvolvimento e avaliação de modelo computacional para geração de alertas a partir de notificações de casos de meningite meningocócica / Development and evaluation of a computing model of alerts from meningococcal meningitis notification casesZaparoli, Wagner 24 November 2008 (has links)
INTRODUÇÃO: este trabalho apresenta a arquitetura de um sistema de emissão de alertas para surtos e epidemias em tempo real, baseado em notificações eletrônicas da meningite, e discute os resultados dos testes e simulações realizados. MÉTODOS: esse sistema foi desenvolvido em quatro etapas: Concepção, Análise, Construção e Teste/Simulações. A Concepção contemplou a elicitação de requisitos, a qual definiu o que o sistema deve fazer. A Análise se preocupou com a modelagem e especificação das regras que definem como o sistema deve trabalhar. A Construção abrangeu a transformação das regras definidas e modeladas em linguagem de programação. A última etapa, Teste/Simulação, foi responsável por garantir que o sistema construído estava em conformidade com os requisitos elicitados na etapa de Concepção. RESULTADOS: vários artefatos foram criados e algumas constatações foram verificadas nesta etapa. Sobre os artefatos podemos citar os requisitos, casos de uso, diagrama de classes, modelo físico de dados, casos de teste e programas. Sobre as constatações podemos citar o disparo de alertas nas simulações realizadas pelo sistema dois dias antes que o alerta feito pelas autoridades de saúde do Estado de São Paulo usando os procedimentos habituais. DISCUSSÃO e CONCLUSÃO: O sistema desenvolvido pode ser classificado como um Early Warning System. Nas simulações, observamos que em duas oportunidades ele conseguiu evidenciar ocorrência de surto antecipadamente ao método tradicional utilizado pelo Centro de Vigilância Epidemiológico de São Paulo. Comparando-o com sistemas semelhantes em produção, verificamos que esse sistema se diferencia ao emitir ativamente alertas de surtos em tempo real. / INTRODUCTION: this essay presents the architecture of an alert system for epidemics based on real-time electronic notification of meningococcal meningitis, and discusses the results of tests and simulations made. METHODS: this system was developed in four stages: Conception, Analysis, Construction and Test/Simulation. The Conception covered the requirements elicitation, which defined what the system should do. The Analysis involved the modeling and specification rules that defined how the system should work. The Construction covered the transformation of defined and modeled rules in programming language. The last stage, Test/Simulation, checked the system under known scenarios, comparing the timing of outputs with the Brazilian notification surveillance framework. RESULTS: many artifacts were made and some evidences were verified. About the artifacts we can mention the requirements, use cases, class diagram, physical data model, test cases, and algorithms. About the evidences we can mention the fast alert production in simulations of this system as compared with the current procedure in use by health authorities. DISCUSSION AND CONCLUSION: this system can be classified as an Early Warning System. In simulations we observed that in two opportunities, it managed to put in evidence outbreak occurrence in advance to the traditional used method by Epidemiological Surveillance Center of São Paulo. In comparison with the similar systems under operation, we note this system is distinguished from them in issuing real-time outbreak alerts.
|
30 |
Análise de aspectos micro e macrolinguísticos da narrativa de indivíduos com doença de Alzheimer, comprometimento cognitivo leve e sem comprometimentos cognitivos / Analysis of micro and macrolinguistic aspects in the narrative of individuals with Alzheimer\'s disease, mild cognitive impairment and no cognitive impairmentToledo, Cíntia Matsuda 20 June 2017 (has links)
INTRODUÇÃO: O envelhecimento da população é uma tendência social conhecida em países desenvolvidos e cada vez mais pronunciada em países em desenvolvimento. A demência é considerada um dos principais problemas de saúde devido ao rápido crescimento populacional de idosos, sendo os distúrbios de linguagem considerados importantes nesses quadros. O discurso tem ganhado destaque para a identificação dos distúrbios linguísticos nas demências assim como no seguimento desses pacientes. A caracterização das diferenças pode auxiliar no diagnóstico diferencial e contribuir para a criação de ferramentas futuras que auxiliem na intervenção clínica e ajudem a evitar a evolução e/ou progressão dos quadros demenciais. O processo de transcrição e análise do discurso é bastante laborioso, desta forma o uso de métodos computacionais tem auxiliado na identificação e extração de características linguísticas. OBJETIVO: identificar alterações em aspectos micro e macrolinguísticos que diferenciem indivíduos com doença de Alzheimer, comprometimento cognitivo leve e idosos sem comprometimento cognitivo na tarefa de narrativa de figuras em sequência e explorar a ferramenta computacional (Coh-Metrix-Dementia) para análise do discurso desses sujeitos. MÉTODO: Foram avaliados 60 indivíduos, sendo 20 em cada grupo de pesquisa (doença de Alzheimer leve - GDA, comprometimento cognitivo leve amnéstico - GCCLa e controle - GC). Os indivíduos foram solicitados a enunciar uma narrativa baseada em 22 cenas em sequência, que retratam a história da \"Cinderela\". Foram aplicados também os seguintes testes linguístico-cognitivos: Fluência Verbal, Teste de Nomeação do Boston e Camel and Cactus test. Utilizou-se o Coh-Metrix- Dementia para extração automática das métricas. RESULTADOS: Os valores extraídos pelo Coh-Metrix-Dementia foram tratados estatisticamente sendo possível levantar métricas capazes de distinguir os grupos estudados. Em relação aos aspectos microlinguísticos destacaram-se a redução nas habilidades sintáticas, maior dificuldade no resgate verbal, discursos com menor coesão e coerência local no GDA. No nível macrolinguístico o GDA apresentou os discursos menos informativos, com maior prejuízo em relação a coerência global e maior número de modalizações. O GDA também apresentou maior comprometimento da estrutura narrativa. Não foi possível discriminar o GCCLa e GC em nenhuma métrica do discurso deste estudo. Foram feitas adaptações em relação a segmentação das sentenças para um melhor funcionamento da ferramenta computacional. CONCLUSÃO: Os indivíduos do GDA apresentaram discursos com maior comprometimento macro e microestrutural. O uso da ferramenta computacional se mostrou um importante aliado para análises discursivas / INTRODUCTION: Population aging is a social trend known in developed countries and increasingly pronounced in developing countries. Dementia is considered one of the main health problems due to the rapid population growth of the elderly, and language disorders are considered important in these settings. The discourse is important for the identification of linguistic disorders in dementias as well as in the follow-up of these patients. The discourse differences characterization can help on the differential diagnosis and contribute to the creation of future tools for clinical intervention and help prevent the evolution and/or progression of dementia. The transcription and discourse analysis are laborius, thus the use of computational methods helped in the identification and extraction of linguistic characteristics. OBJECTIVE: The objective of this study was to identify changes in micro and macrolinguistic aspects that differentiate individuals with Alzheimer\'s disease, mild cognitive impairment and healthy elderly individuals during narrative of figures in sequence and to explore the computational tool (Coh-Metrix-Dementia) to analyze the subjects\' discourse. METHODS: 60 subjects were evaluated, 20 of them in each research group (mild Alzheimer\'s disease - GDA, amnestic cognitive impairment - GCCLa and control - CG). The subjects were asked to construct a narrative based on sequence of pictures, about the \"Cinderella´s Story\". The following linguistic-cognitive tests were also applied: Verbal Fluency, Boston Naming Test, and Camel and Cactus test. Coh-Metrix-Dementia was used for automatic metrics extraction. RESULTS: The values extracted by Coh-Metrix-Dementia were statistically treated and it was possible to obtain metrics capable of distinguishing the studied groups. In relation to the microlinguistic aspects, it was found the reduction in syntactic abilities, greater difficulty in verbal rescue, discourses with less cohesion and local coherence in the GDA. In the macrolinguistic level the GDA presented the less informative discourses, with greater loss in global coherence and the greater number of modalizations. The GDA also presented greater impairment on narrative structure. It was not possible to discriminate GCCLa and GC in any discourse´s metric in this study tool functioning. CONCLUSION: The GDA subjects presented discourses with greater macro and microstructural impairment. The computational tool usage proved to be an important ally for discursive analysis
|
Page generated in 0.0807 seconds