Spelling suggestions: "subject:"eventos."" "subject:"ventos.""
691 |
Processo decisório e motivação no âmbito das normas sobre o 'rol de procedimentos e eventos em saúde': uma análise exploratóriaRamalho, Bruno Araujo 07 February 2017 (has links)
Submitted by Bruno Araujo Ramalho (brunrama@hotmail.com) on 2017-03-14T18:02:34Z
No. of bitstreams: 1
Dissertação - BRUNO ARAUJO RAMALHO - (versão final).pdf: 2077332 bytes, checksum: 0dd8154f4be3890a0c30271468fdb13f (MD5) / Approved for entry into archive by Publicação Direito Rio (publicacao.direitorio@fgv.br) on 2017-03-15T18:39:56Z (GMT) No. of bitstreams: 1
Dissertação - BRUNO ARAUJO RAMALHO - (versão final).pdf: 2077332 bytes, checksum: 0dd8154f4be3890a0c30271468fdb13f (MD5) / Made available in DSpace on 2017-03-23T12:17:19Z (GMT). No. of bitstreams: 1
Dissertação - BRUNO ARAUJO RAMALHO - (versão final).pdf: 2077332 bytes, checksum: 0dd8154f4be3890a0c30271468fdb13f (MD5)
Previous issue date: 2017-02-07 / Procedural requirements related to decision making and justification of regulatory choices may have limited application under uncertainty, informational limitation and other obstacles that lead the regulator to adopt strategies to tailor decision making to reality. Based on this hypothesis, and considering the uncertainties and issues of high technical complexity related to the 'list of health care procedures and events in health care', the objective of the research was to carry out an exploratory analysis intended to identify limitations, obstacles and observable strategies in the elaboration and justification of these norms. For this purpose, it was adopt a methodology of qualitative analysis based on documentary research, which included different documents available through the National Regulatory Agency for Private Health Insurance and Plans (ANS) website in public consultations, in the Technical Group for reviewing the list of procedures and in the Committee on Regulation of Health Care (COSAÚDE). As a result, it was verified the hypothesis mentioned above, since the dynamics of the choice presents restrictions that lead the regulator to adopt different strategies to deal with. The obstacles related to 'decision-making' dimension arise from the complexity and uncertainties related to the medical evidences, informational limitations and from interferences of the Legislative Branch and the Judiciary. Regarding the giving reasons requirement, although it is possible to see a greater density of justification starting in 2013, the reasons and replies presented in a synthesized format often do not suffice to clarify all the issues that support complex choices. Among the proposals of the study, the regulator should to provide a more detailed record about the valuation and the operationalization of its methodology criteria. / Exigências procedimentais relacionadas ao processo decisório e à justificação de escolhas regulatórias podem ter sua aplicação limitada em cenários de incerteza, limitação informacional e demais obstáculos que levam o regulador a adotar estratégias para adequar a tomada de decisão aos recursos disponíveis. Partindo-se desta hipótese, a pesquisa teve por objetivo a realização de uma análise exploratória com vistas a identificar limitações, obstáculos e estratégias observáveis na elaboração e justificação do rol de procedimentos e eventos em saúde – eis que a elaboração do 'rol' é permeada por incertezas e por questões de alta complexidade técnica. Para tanto, adotou-se a metodologia de análise qualitativa baseada em pesquisa documental, que englobou diferentes anexos disponibilizados a partir do sítio eletrônico da Agência Nacional de Saúde Suplementar (ANS) em consultas públicas, no Grupo Técnico de revisão do rol de procedimentos e no Comitê Permanente de Regulação da Atenção à Saúde (COSAÚDE). Ao final, foi possível evidenciar importantes elementos que moldam ou restringem a tomada de decisão e a sua respectiva justificação. No âmbito dos resultados, os obstáculos relacionados à dimensão 'processo decisório' decorrem de diferentes fontes de incerteza, do volume (e complexidade) das informações e de interferências promovidas pelo Poder Legislativo e Judiciário – sendo observáveis diferentes providências do regulador para cada caso. No que tange ao dever de motivação, embora se percebam melhorias a partir de 2013, a apresentação de justificativas e réplicas segue um formato mais compactado e não contempla algumas questões metodológicas que servem como base para premissas elencadas pelo regulador. Dentre outras propostas do estudo, sugeriu-se que a agência disponibilize o amplo acesso a documentos ou relatórios que registrem, de forma pormenorizada, a operacionalização dos quesitos que integram a metodologia de decisão.
|
692 |
Tuberculose extrapulmonar: aspectos clínicos e terapêuticos em indivíduos com e sem infecção pelo HIVQueiroz, Edna Maria de January 2008 (has links)
Submitted by Anderson Silva (avargas@icict.fiocruz.br) on 2012-09-30T16:24:14Z
No. of bitstreams: 1
edna_m_queiroz_ipec_pesquisaclinicadi_0001_2008.pdf: 1325959 bytes, checksum: fdbb83407bcd934e88f394e837a9b759 (MD5) / Made available in DSpace on 2012-09-30T16:24:14Z (GMT). No. of bitstreams: 1
edna_m_queiroz_ipec_pesquisaclinicadi_0001_2008.pdf: 1325959 bytes, checksum: fdbb83407bcd934e88f394e837a9b759 (MD5)
Previous issue date: 2008 / Fundação Oswaldo Cruz. Instituto de Pesquisa Clínica Evandro Chagas. Rio de Janeiro, RJ, Brasil / A tuberculose é uma doença antiga e curável que permanece como um dos maiores
problema de saúde pública no mundo. Um aumento na incidência coincidiu com a pandemia de
HIV/AIDS. Como conseqüência, observou-se um aumento das formas extrapulmonares e
disseminadas, mais freqüentes em indivíduos HIV+. Esse estudo visa descrever as formas
exclusivamente extrapulmonares de tuberculose, suas características clínicas e desfechos
terapêuticos em pacientes com e sem a infecção pelo HIV. A coleta de dados foi retrospectiva,
longitudinal, baseada na revisão dos protocolos de atendimento do ambulatório de tuberculose do
Instituto de Pesquisa Evandro Chagas - FIOCRUZ. Todos os pacientes com diagnóstico de
tuberculose extrapulmonar no período de janeiro de 2003 até dezembro de 2006 foram incluídos.
Foram excluídos os pacientes com mais de dois sítios extrapulmonares não contíguos e as formas
disseminadas clássicas. A análise dos dados foi descritiva e em algumas situações foram
comparados subgrupos através do teste do λ2 ou Mann-Whitney.
Foram selecionados 89 pacientes sendo 56,2% HIV negativo, com predomínio do sexo
masculino, solteiros, idade <40 anos, raça não branca, baixa escolaridade, renda até 3 salários
mínimos, habitantes de casas de alvenaria, sem presença de aglomeração no domicílio, moradores
da baixada fluminense e sem fatores de risco aparentes para tuberculose, porém relatavam
relações sexuais desprotegidas. Nenhum paciente relatou tratamento anterior para a infecção
latente ou tuberculose. O tabagismo foi revelado por 20,7% dos indivíduos, o uso de drogas
intravenosas por 2,2 e o alcoolismo por 11%. As doenças pregressas mais freqüentes foram as
alergias
(21,1%),
doenças
digestivas
(14%),
cirurgias
(26,7%)
câncer/terapia
com
imunossupressores (5,6%). As co-morbidades mais freqüentes foram: hipertensão arterial (15,5),
hepatite (9,8%), diabetes mellitus (4,2%), e doença renal (4,2%). As formas clínicas mais
freqüentes foram: ganglionar (56,2%), pleural (12,4%), oftálmica (10,1%), cutânea (7,9%). A
sintomatologia variou segundo o sítio. O teste tuberculínico foi positivo na maioria dos pacientes,e os HIV negativos apresentaram menos reação ao teste que os demais nas formas ganglionares
(χ2, p=0,03). O diagnóstico de tuberculose foi baseado em critério histopatológico em 59,5%, O
diagnóstico por cultura foi possível em 34% dos casos. A carga bacilar foi pequena (< 1+) em
18% das realizadas e observamos a cultura negativa em 72%. O HbsAg foi evidenciado em
18,3% dos casos e a sorologia para hepatite C foi positiva em 6,4%. A maioria dos pacientes
(95,6%) foi tratada com esquema I ou I-R. O tempo de tratamento foi mais longo nos casos de
tuberculose cutânea que nos demais (M-W, p=0,07). A resistência às drogas anti-tuberculose foi
observada em 2 casos. Os eventos adversos foram freqüentes (88,7%) e 22,1% dos casos
precisaram interromper o tratamento da tuberculose. A cura foi obtida na maioria dos casos e foi
limitada pelo abandono (18%) principalmente em pacientes soronegativos. Um óbito ocorreu em
paciente co-infectado com o HIV.
As formas exclusivamente extrapulmonares apresentam características demográficas e
epidemiológicas diferentes das formas pulmonares, são paucibacilares e de difícil diagnóstico, a
cura foi obtida na maioria dos casos e foi limitada pelo abandono. O percentual de óbitos foi
baixo. / Tuberculosis is an old curable disease that still is the biggest health problem in the world. An
increase in the incidence was concurrent with the HIV/AIDS pandemia. As a consequence an
increase in extrapulmonary and disseminated forms was observed, that were frequent in HIV+
individuals. The aim of this study is to describe the strictly extrapulmonary forms of tuberculosis,
its clinical, characteristics and therapeutic endpoints in patients with and without HIV infection.
Data collection was retrospective, longitudinal, based in the revision of clinical protocols of the
tuberculosis outpatients clinics of Instituto de Pesquisa Clínica Evandro Chagas, Fiocruz. All
patients with diagnosis of extrapulmonary tuberculosis during of January 2003 to December 2006
were included. All patients with more than two extrapulmonary sites or disseminated tuberculosis
were excluded. Data analysis was descriptive and in some situations subgroups were compared
using the λ2 or Mann-Whitney tests.
Were selected 89 patients from these 56,2% were HIV negative, the occurrence was more
frequent in male sex, not married , age <40 years, non white race, low schooling, monthly income
of more than 3 salaries, living in brick homes, no evident, risk factors for tuberculosis, however
they reported sex without protection. No patients reported previous therapy to latent infection or
tuberculosis. Tobacco use was revealed in 20,7% of the individuals, injection of drugs by 2,2%
and alcohol abuse by 11%. The more prevalents previous pathologies were allergy (21,1%),
Gastrointestinal diseases (14%), surgery (26,7%) cancer or therapy with immunossupressors
(5,6%). The more frequents co-morbidities were: hypertension (15,5), hepatitis (9,8%), diabetes
mellitus (4,2%), and renal disease (4,2%). The more frequents clinical forms were: lymph nodes
(56,2%), pleural (12,4%), ophthalmic (10,1%) and cutaneous (7,9%). Symptoms varied according
to the site.
Tuberculin test was positive in the majority of patients, and the HIV negative presented less
reaction to the test than the others in the lymph nodes forms (χ2, p=0,03). Tuberculosis diagnose
was based on histopatologic criteria in 59,5% of cases, Isolation in culture was possible in 34% of cases. The bacillus load was small (<1+) in 18% of the performed exams and were negative in
72%. The HbsAg was detected in 18, 3% of cases and hepatitis C serology was positive in 6,4%.
Most of the patients (95, 6%) were treated with regimen I or I-R. The length of therapy was
longer among cases of cutaneous tuberculosis (M-W,p=0,07). Resistance to anti-tuberculosis
drugs was observed in two cases. Adverse events were frequent (88, 7%) and 22, 1% of cases
needed tuberculosis treatment interruption. The cure was obtained in most of cases and was
affected by the abandonment (18%), mainly in seronegative patients. A death occurred in a
patient co-infected with HIV.
Strictly extrapulmonary forms present different demographic and epidemiological characteristics
from pulmonary forms, are paucibacillary and the diagnose is difficult. The cure was obtained in
the majority of cases and was limited by abandonment. The proportion of deaths was low.
|
693 |
Implementação de controle supervisório em CLPs usando linguagem de alto nível / Implementation of supervisory control in PLCs using high-level languageAlmeida, Suzana Ribas de 15 February 2012 (has links)
Made available in DSpace on 2016-12-12T17:38:31Z (GMT). No. of bitstreams: 1
SUZANA RIBAS DE ALMEIDA.pdf: 2655112 bytes, checksum: 346dca905796b24136deb70b7263fb5b (MD5)
Previous issue date: 2012-02-15 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Nowadays the competition between companies is increasing. In a production system, efficiency, speed and flexibility are important means for cost reductions. The complexity of automation systems has been increasing, which makes necessary the implementation of more efficient control programs, free of errors and easy to maintain. However, in most practical applications the solution of these problems is dependent on designer's experience and doesn t follow a formal methodology, which results in programs with errors and difficulties to understand and maintain, since only the designer understands the adopted solutions. The Supervisory Control Theory (SCT) is a method extensively researched in academic circles for the synthesis of control logic of automated systems. It allows control problems to be solved in a formal way, ensuring a minimally restrictive and no blocking solution that meets the control specifications. However, this theory is not widely used in industrial environments yet, once the methods for implementation of supervisors obtained by TCS are still deficient. Thus, the intention of this Dissertation consists of showing a methodology for implementation of supervisory control in Programmable Logic Controllers (PLCs). In this work, the synthesis of supervisors is made in accordance to local modular approach, which brings the benefits of a formal methodology and allows exploring the modularity of the plant and the control specifications. The implementation is based on an architecture structured in three levels: supervisor, interface and system to be controlled. For the implementation in CLP three different programming languages are applied: the high-level languages Sequential Function Charts (SFC) and Structured Text and the low-level Ladder Diagram language in some parts. The development of the methodology was based on two works: a doctoral thesis by Vieira (2007) and master thesis by Cruz (2011) and brought together the advantages presented in each one of these. To compare the proposed methodology and the two mentioned methods, several tests were made on a manufacturing cell available at PUCPR and simulations on a PLC and computer as well. The results show that the use of the methodology proposed in this work makes possible to implement PLC programs that are able to treat all non-controllable events occurred in the system to be controlled and treat one controllable event by each control cell in the same scan cycle. Furthermore, the use of high-level languages results in a program of easier interpretation and maintenance, also enabling reutilization of codes. In this work some problems related to CLPs implementations are also showed and proposals for solving them are presented, as properties as well that, if accepted, ensure that the problem does not occur. / Hoje em dia a competitividade entre as empresas está cada vez maior. Em um sistema de produção, a eficácia, a velocidade e a flexibilidade são importantes, pois significam redução de custos. Os sistemas de automação atuais estão cada vez mais complexos, justificando a necessidade de programas de controle mais eficientes, sem erros e de fácil manutenção. Entretanto, na maioria das aplicações práticas a solução destes problemas é feita com base na experiência do projetista, não seguindo uma metodologia formal, o que resulta em programas com erros e de difícil entendimento e manutenção, uma vez que só o projetista entende perfeitamente as soluções adotadas. A Teoria de Controle Supervisório (TCS) é um método para a síntese da lógica de controle de sistemas automatizados. Ela permite que problemas de controle sejam solucionados de modo formal, garantindo uma solução minimamente restritiva e não bloqueante e que atenda às especificações de controle. Entretanto, esta teoria ainda não é amplamente adotada em ambientes industriais, sendo a carência de métodos de implementação dos supervisores obtidos via TCS um elemento que contribui para que isso aconteça. Assim, esta dissertação se propõe a apresentar uma metodologia de implementação de controle supervisório em Controladores Lógicos Programáveis (CLPs). Neste trabalho, a síntese de supervisores é feita de acordo com a abordagem modular local, que traz os benefícios de uma metodologia formal e ainda permite explorar a modularidade da planta e das especificações de controle. A implementação é baseada numa arquitetura estruturada em três níveis: supervisor, interface e sistema a ser controlado. Para a implementação em CLP são empregadas três linguagens distintas de programação, as linguagens de alto nível Sequential Function Charts (SFC) e Structured Text, bem como a linguagem Ladder Diagram em algumas partes. O desenvolvimento da metodologia foi baseado em dois trabalhos: a tese de doutorado de Vieira (2007) e a dissertação de mestrado de Cruz (2011) e permitiu reunir as vantagens apresentadas em cada um destes. Para comparação entre a metodologia proposta e as duas metodologias citadas, foram feitos diversos testes em uma célula de manufatura existente na PUCPR, bem como simulações em CLP e em computador. Os resultados mostram que a metodologia proposta neste trabalho permite a implementação de programas em CLP que, num mesmo ciclo de varredura, são capazes de tratar todos os eventos não controláveis ocorridos na planta e ainda um evento controlável por célula de controle. Além
disso, o uso de linguagens de alto nível resulta em um programa de mais fácil interpretação e manutenção, possibilitando ainda o reaproveitamento de códigos. Nesta dissertação também são abordados alguns problemas de implementação da estrutura de controle supervisório em CLPs, apresentando-se propostas para solucioná-los, bem como propriedades que, se atendidas, garantem que o problema não ocorra.
|
694 |
Um método para projeto de sistemas embarcados baseado no controle supervisório modular local / Embedded system design Method based on local modular supervisory controlPinotti, Alexandre Junkes 11 December 2012 (has links)
Made available in DSpace on 2016-12-12T17:38:32Z (GMT). No. of bitstreams: 1
Alexandre Pinotti.pdf: 2613359 bytes, checksum: 2102dc273398a9bfa8e51bb28b5fded1 (MD5)
Previous issue date: 2012-12-11 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This work presents a method for embedded systems design based on the Supervisory Control Theory for Discrete-Event Systems. The method is composed of steps comprising the specification
phase until the approval of the control system. The conception phase is based on the local modular approach for the synthesis of minimally restrictive supervisors that constrains the plant behavior by disabling controllable events and are nonblocking with respect to the set of marked states. The method also includes an implementation architecture for the supervisory control applied to microcontrollers to solve problems such as causality, choice and inexact synchronization. An interface concentrates all controllable and uncontrollable events generation. It deals with the choice problem when reduced supervisors are implemented, randomly choosing one controllable event among the possible ones. This dissertation also presents a tool developed for the automatic code generation of the proposed implementation structure. The main module code is generated to be independent of the number of supervisors and plant models, that is, is the same for any control application. The tool is used to obtain the control applied to a case study and also for the temperature control of a commercial refrigerator. The control system has been validated using the same tools applied for the validation of household appliances at Whirlpool Corporation / Neste trabalho é proposto um método de projeto para sistemas embarcados concebido com base na Teoria de Controle Supervisório de Sistemas a Eventos Discretos. O método é composto por etapas que vão desde a especificação até a aprovação do sistema de controle. A etapa de concepção do método utiliza da abordagem modular local para síntese de supervisores minimamente restritivos que limitam o comportamento da planta através da desabilitação de eventos controláveis e são não bloqueantes em relação ao conjunto de estados marcados. O método ainda inclui uma arquitetura de implementação do controle supervisório direcionada para microcontroladores, visando solucionar os problemas da causalidade, escolha e sincronização inexata. Uma interface é concebida para concentrar a geração de eventos controláveis e não controláveis. Apresenta-se uma solução para o problema da escolha quando são implementados supervisores reduzidos sendo tal escolha realizada de modo online definindo um evento controlável, entre os possíveis, de forma aleatória. Apresenta-se uma ferramenta desenvolvida para a geração de código baseada na estrutura de implementação proposta. O código do módulo principal é gerado de forma a ser independente do número de supervisores e modelos de planta envolvidos, sendo o mesmo para qualquer aplicação de controle. Utiliza-se a ferramenta para obtenção do código da lógica de controle em um estudo de caso e para a regulação de temperatura em um refrigerador comercial. A validação do controle é realizada utilizando-se de ferramentas aplicadas à validação de eletrodomésticos da linha branca na Whirlpool Eletrodomésticos.
|
695 |
Modelagem e análise das cadeias de suprimentos globais e resilientes baseadas em rede de Petri. / Modeling and analysis of global and resilient supply chain based on Petri Net.Célia Hanako Kano 16 June 2015 (has links)
Em um cenário de aumento de competitividade, crescente expectativa por inovações do produto e necessidade de atender diferentes perfis de consumidores, o conceito de gerenciamento de cadeias de suprimentos globais (GSCM) surge como uma estratégia para coordenar mais eficazmente as atividades dispersas geograficamente dos sistemas produtivos. Na adoção do GSCM, as organizações devem lidar com rupturas que impactam no gerenciamento das suas atividades, tais como a interrupção de vias de transporte, pane no fornecimento de energia, desastres naturais e até ataques terroristas. Nesse contexto, o trabalho introduz um procedimento sistematizado para modelagem das cadeias de suprimentos visto como um sistema a eventos discretos e sua análise por simulação das atividades do GSCM baseada em técnicas formais como a rede de Petri (PN) e o Production Flow Schema (PFS). Um exemplo é também apresentado para ilustrar e comprovar as vantagens do método proposto na análise do GSCM. / In a context of increasing competition, rising of expectations for product innovations and need to satisfy different consumer needs, the concept of global supply chain management (GSCM) emerges as a strategy to more efficiently coordinate the geographically dispersed activities of production systems. Adopting GSCM, organizations have to deal with external disruptions that impact management activities, such as transport interruption, power supply failure, natural disasters and terrorist attacks. In this way, a systematized procedure for modeling supply chains as a discrete event system and simulation analysis of GSCM activities based on formal techniques, such as Petri net (PN) and Production Flow Schema (PFS) is introduced. An example is also presented to illustrate and confirm the advantages of the proposed method for GSCM analysis.
|
696 |
Técnicas de proteção e restauração em redes ópticas elásticas / Protection and restoration techniques in elastic optical networksAndré Luiz Ferraz Lourenço 26 November 2015 (has links)
As redes ópticas estão passando por mudanças significativas, impulsionadas pelo crescimento exponencial do tráfego, principalmente advindo de serviços multimídia e armazenamento em nuvem. Esta demanda exigirá aumento da capacidade da taxa de transmissão para padrões como 400 Gb/s e 1 Tb/s. Nesse contexto, foi proposta uma arquitetura de rede com grade de frequências granular flexível chamada elastic optical network (EON). A EON divide o espectro de frequências em fatias (slots) de tamanho fixo e aloca grupos de slots contíguos estritamente de acordo com os requisitos de banda das demandas de conexão, implicando eficiência de uso do espectro. Com o aumento significativo da taxa de transmissão, acentuou-se a preocupação em manter a sobrevivência da rede, já que pouco tempo de queda no serviço pode acarretar uma imensa perda de dados. Neste trabalho, investigamos esquemas de proteção baseados em caminhos compartilhados (shared-path protection, SPP) e esquemas de restauração de tráfego. Avaliamos esquemas divulgados na literatura como o dynamic load balancing shared-path protection (DLBSPP) e esquemas de restauração como o traffic aware restoration (TAR) e bandwidth squeezed restoration (BSR). Avaliamos também uma heurística de alocação de slots chamada inverted dual stack (IDS). O DLBSPP utiliza balanceamento dinâmico de carga para computar os caminhos primários e de proteção compartilhados. O TAR executa a restauração dinâmica ordenando as conexões por granularidade de banda. O BSR utiliza a capacidade de contração de banda do EON para restaurar conexões por meio da política de melhor esforço ou de banda garantida, dependendo do acordo de níveis de serviço do cliente. O esquema IDS concentra o maior número possível de slots compartilhados em uma região do espectro. As medidas de desempenho dos algoritmos são avaliadas segundo as métricas: probabilidade de bloqueio, taxa de utilização do espectro, número médio de hops e taxa de restauração falha. As simulações computacionais mostram o bom desempenho da utilização do esquema IDS com DLBSPP. / Optical networks are undergoing significant changes driven by the exponentially growing traffic, especially coming from multimedia and cloud storage services. This demand will require increasing of the transmission rate capacity as high as 400 Gb/s and 1 Tb/s. Within this context, it was proposed the elastic optical network (EON), which is a network architecture with flexible granular frequency grid. EON divides the frequency spectrum into slices (slots) of fixed size and allocates groups of contiguous slots strictly according to the bandwidth requirement of the connection demands, providing high spectrum use efficiency. The significant increase in transmission rate put emphasis on the need to maintain the survival of the network, since the occurrence of faults in the network nodes or links can cause huge loss of data. In this work, we investigate protection schemes based on shared-path protection (SPP) and traffic restoration schemes. We evaluate schemes related in the literature, such as the dynamic load balancing shared-path protection (DLBSPP), and restoration schemes such as the traffic aware restoration (TAR) and the bandwidth squeezed restoration (BSR). The DLBP scheme uses dynamic load balancing to compute primary and shared protection paths. The TAR performs dynamic restoration ordering the connections based on band granularity. The BSR uses EON\'s band squeezing feature to restore connections by means of the best effort or guaranteed bandwidth strategy, depending on the customer\'s service level agreement. IDS scheme concentrates the maximum possible number of shared slots in a given region of the spectrum. Performance of the algorithms are evaluated according to metrics: blocking probability, spectrum utilization rate, average number of hops and failure restoration rate. Computer simulations show that the use of the IDS scheme improves the performance of the investigated algorithms.
|
697 |
Expresiones de movimiento en español como segunda lengua y como lengua heredada : Conceptualización y entrega del Camino, la Manera y la Base / Motion expressions in Spanish as a second language and as a heritage language : Conceptualization and encoding of Path, Manner and GroundDonoso, Alejandra January 2016 (has links)
The current thesis is based on four individual studies which aim to account for the expression of motion events (ME) in Spanish and Swedish as first languages (L1), in Swedish as a second language (L2), and in Spanish as a heritage language (SHL). The data, resulting from audio-recordings of different sorts of stimuli, have been analyzed with special focus on (1) the most common structures used for referring to various types of ME, (2) the types and amount of information provided by the participants, in particular as regards the semantic components Path, Manner and Ground, and (3) grammatical aspect and types of syntactic structures resorted to, including the correlation between the two latter factors and speakers’ discursive preferences. Study 1 sets out to explore how Spanish and Swedish native speakers convey information about motion. The results show that the Swedish L1 speakers produced a wider range of descriptions concerning Manner and Path than the Spanish L1 speakers; furthermore, both groups delivered detailed Ground descriptions, although the Swedish native speakers expressed final destinations (endpoints) of ME to a greater extent. Study 2 aims to investigate to what extent Swedish L1 patterns for motion encoding are still at play in the acquisition of Spanish L2 even at advanced stages of L2 acquisition. The results show that the learner group used a larger amount of Path particles and Ground adjuncts (in particular those referring to endpoints) than did the Spanish natives; this finding supports the claim that L2 learners rely on the lexicalization patterns of their L1 when describing ME in an L2. As for Manner, the L2 speakers were found to express this component mainly outside the verb, and to deliver more information about Manner than the Spanish natives. Study 3 addresses the construal of ME in Swedish speakers of L2 Spanish, in particular concerning the encoding of motion endpoints and Manner of motion. The results show that the Swedish learners of Spanish exhibited the same, high frequencies of endpoint marking as did their monolingual Swedish peers, thus deviating from the Spanish native pattern. Moreover, the L2 speakers used the same amount of Manner verbs as did the Spanish natives but tended consistently to provide additional Manner information in periphrastic constructions. Finally, Study 4 sets out to analyze the ways in which L1 Spanish/L2 Swedish early and late bilinguals express ME in SHL. The aim is to show in which ways and to what extent the typological patterns for motion encoding in the L2 may impact on motion encoding in the L1 with regard to three parameters: (1) age of onset (AO) of the acquisition of L2, (2) length of residence (LoR) in the L2 environment and (3) contact level with the L1 (CL). The focus data, consisting of oral re-tellings produced by the bilinguals, were compared to analogous data produced by two control groups (native speakers of Spanish and Swedish) in order to analyze conflation patterns regarding Manner, Path and Ground information. The analysis points to the conclusion that both the individuals’ AO of L2 acquisition and their LoR in the L2 environment have affected their L1 conceptualization patterns while their CL plays a subordinate role. In summary, the findings lend support to the idea that the habitual conceptualization of events in the L1 influences L2 acquisition; conversely, the conceptual patterns of the L2 have an impact on L1 usage in bilinguals, especially in combination with an early AO and a long LoR. / <p>At the time of the doctoral defense, the following paper was unpublished and had a status as follows: Paper 4: In press.</p>
|
698 |
Propuesta de arquitectura distribuida de control inteligente basada en políticas de calidad de servicioPoza Luján, José Luis 10 February 2012 (has links)
La tesis se enmarca en el estudio de las arquitecturas inteligentes de control distribuido y de los sistemas de comunicaciones empleados, más concretamente el trabajo se centra en la optimización del sistema de control por medio de la evaluación del rendimiento en el middleware a través de los parámetros de calidad de servicio y de la optimización del control empleando políticas de calidad de servicio.
El principal objetivo de este trabajo ha sido estudiar, diseñar, desarrollar y evaluar una arquitectura de control distribuido, basándose en el estándar de comunicaciones Data-Distribution Service for Real-Time Systems (DDS) propuesto por la organización Object Management Group (OMG).
Como aportación principal de la tesis se propone el diseño de una arquitectura distribuida de control inteligente que de soporte a la QoS, tanto en la medición por medio de los parámetros, como en la gestión por medio de las políticas de QoS. Las políticas deben permitir la variación de las características de la comunicación en función de los requisitos de control, expresados estos últimos por medio de los parámetros de QoC. A la arquitectura desarrollada se le ha llamado FSACtrl.
Para determinar los requisitos de la arquitectura FSACtrl, se han estudiado las revisiones de los autores más relevantes acerca de las características más destacadas de las arquitecturas distribuidas de sistemas de control. A partir de estas características se han diseñado los elementos de la arquitectura FSACtrl. Los elementos que dan soporte a las comunicaciones se han basado en los del estándar DDS de la OMG, mientras que los elementos de control se han basado en el estándar Sensor Web Enablement (SWE) del Open Geospatial Consortium (OGC).
Para la validación de la arquitectura se ha implementado un entorno de diseño y simulación del control. / Poza Luján, JL. (2012). Propuesta de arquitectura distribuida de control inteligente basada en políticas de calidad de servicio [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14674
|
699 |
La influencia en redes sociales durante los eventos deportivos: "Los casos de Twitter en los Mundiales de Ciclismo en Pista de Londres (Reino Unido) 2016, y Apeldoorn (Países Bajos) 2018"Lamirán Palomares, José María 19 December 2022 (has links)
Tesis por compendio / [ES] Las redes sociales han provocado un gran cambio en la manera en la que los eventos deportivos son consumidos en la actualidad, ya que consiguen generar una conversación y ser aglutinadores de un seguimiento que en muchos casos era impensable a través de los medios tradicionales. Tanto para los grandes eventos y los deportes de masas, pero muy especialmente para los deportes minoritarios, también llamados de nicho, todas las acciones en medios digitales cobran gran importancia.
En este contexto de medios sociales en el deporte, la red social Twitter genera grandes debates y se posiciona como líder de la conversación en torno a los diferentes temas de actualidad deportivos o para el seguimiento de temas deportivos más específicos. El dinamismo de Twitter se basa en la participación individual, propiciando que diferentes usuarios conduzcan la conversación social gracias a su capacidad de influir. Por ello identificar tanto las dimensiones y variables, como los usuarios con mayor capacidad de generar influencia en esta red social se considera de gran importancia. En nuestra tesis, utilizando de manera combinada dos metodologías como el SNA y el AHP se propone una medida de la influencia en Twitter basada en variables obtenidas de la propia plataforma de Twitter (número de tweets, número de retweets y número de seguidores) y otras calculadas a partir del Análisis de Redes Sociales (outdegree, indegree y PageRank). Para componer este índice se utilizó el Proceso de Jerarquía Analítica, y se analizaron dos ediciones de un evento deportivo de un deporte de nicho: el ciclismo en Pista.
Analizando la conversación generada en torno al mundial de Londres 2016 bajo el hashtag oficial #TWC2016, y el mundial de Paises Bajos de 2018 con el hashtag de la ciudad organizadora #Apeldoorn2018 , se constató que la dimensión autoridad formada por las variables número de retweets y pagerank era la que mayor ponderación obtuvo, un 62%, frente a la popularidad con un 29% y la actividad con un 8,4%. Además se consiguió identificar a los usuarios más influyentes de cada uno de los eventos, concluyendo que las cuentas con mayor influencia en Twitter eran las relacionadas con los deportistas participantes y organización del evento. En los eventos se pudo comprobar la importancia de la participación de los organizadores en la conversación generada, ya que en el evento de Londres, donde el perfil organizador fue uno de los más influyentes fueron más de 55.000 los tweets registrados, frente a los 19.000 de Apeldoorn, donde el organizador ocupó posiciones muy inferiores en este ranking de la influencia.
Nuestra investigación adquiere gran importancia en esta área de los deportes de nicho, ya que puede resultar de gran interés para el estudio de la dependencia y origen cultural y geográfico de los deportes de nicho, y cómo posibles organizaciones pueden identificar las cuentas más influyentes que pueden redundar positivamente en la generación de menciones y beneficios para posibles patrocinadores. De hecho en nuestra tesis se refleja la creación de diferentes clusters geográficos en torno a los deportistas de un mismo país, y la importancia de determinados perfiles para ampliar el tamaño de estos grupos. / [CA] Les xarxes socials han provocat un gran canvi en la manera com els esdeveniments esportius són consumits actualment, ja que aconsegueixen generar una conversa i ser aglutinadors d'un seguiment que en molts casos era impensable a través dels mitjans tradicionals. Tant per als grans esdeveniments i els esports de masses, però molt especialment per als esports minoritaris, també anomenats de nínxol, totes les accions en mitjans digitals cobren gran importància.
En aquest context de mitjans socials a l'esport, la xarxa social Twitter genera grans debats i es posiciona com a líder de la conversa al voltant dels diferents temes d'actualitat esportius o per al seguiment de temes esportius més específics. El dinamisme de Twitter es basa en la participació individual, i propicia que diferents usuaris condueixin la conversa social gràcies a la seva capacitat d'influir. Per això identificar tant les dimensions i les variables com els usuaris amb més capacitat de generar influència en aquesta xarxa social es considera de gran importància. A la nostra tesi, utilitzant de manera combinada dues metodologies com el SNA i l'AHP es proposa una mesura de la influència a Twitter basada en variables obtingudes de la pròpia plataforma de Twitter (nombre de tweets, nombre de retweets i nombre de seguidors) i altres calculades a partir de l'Anàlisi de Xarxes Socials (outdegree, indegree i PageRank). Per compondre aquest índex es va fer servir el AHP i es van analitzar dues edicions d'un esdeveniment esportiu d'un esport de nínxol: el ciclisme de Pista.
Analitzant la conversa generada al voltant del mundial de Londres 2016 sota el hashtag oficial #TWC2016, i el mundial de Països Baixos de 2018 amb el hashtag de la ciutat organitzadora #Apeldoorn2018 , es va constatar que la dimensió autoritat formada per les variables nombre de retweets i pagerank era la que més ponderació va obtener, amb un 62%, davant de la popularitat amb 29% i l'activitat amb el 8,4%.
A més es va aconseguir identificar els usuaris més influents de cadascun dels esdeveniments, concloent que els comptes amb més influència a Twitter eren aquells relacionats amb els esportistes participants i l'organització de l'esdeveniment. En aquests esdeveniments es va poder comprovar la importància de la participació dels organitzadors en la conversa generada, només a l'esdeveniment de Londres, on el perfil de l'organitzador va ser un dels més influents, es van registrar més de 55.000 tuits, davant dels 19.000 de Apeldoorn , on l'organitzador va ocupar un lloc molt més baix en aquest rànquing de l' influència
La nostra recerca adquireix gran importància en aquesta àrea dels esports de nínxol, ja que pot resultar de gran interès per a l'estudi de la dependència i l'origen cultural i geogràfic dels esports de nínxol, i com possibles organitzacions poden identificar els comptes més influents que poden redundar positivament en la generació de mencions i beneficis per a possibles patrocinadors. De fet, la nostra tesi reflecteix la creació de diferents clústers geogràfics al voltant d'esportistes d'un mateix país, i la importància d'alguns perfils per ampliar aquests grups. / [EN] Social networks have caused a great change in the way sporting events are currently consumed. They generate a conversation that in many cases was unthinkable through traditional media. Both for major events and mass sports, but especially for minority sports, also called niche sports, every action in digital media are very important.
In this context of social media in sports, the social network Twitter generates great debates and positions itself as the leader of the conversation around the different current sports topics or for the monitoring of more specific sports topics. Twitter's dynamism is based on individual participation, allowing different users to lead the social conversation thanks to their ability to influence. Therefore, identifying both the dimensions and variables, as well as the users with the greatest ability to generate influence in this social network, is considered of great importance. In our thesis, using in a combined way two methodologies such as the SNA and the AHP, a measure of the influence on Twitter is proposed based on variables obtained from the Twitter platform (number of tweets, number of retweets and number of followers) and others calculated from the Social Network Analysis (outdegree, indegree and PageRank). To compose this index, the Analytical Hierarchy Process was used, and two editions of a sporting event of a niche sport were analyzed: Track cycling.
Analyzing the conversation generated around the 2016 London World Championship under the official hashtag #TWC2016, and the 2018 Netherlands World Championship with the organizing city's hashtag #Apeldoorn2018 , it was found that the authority dimension formed by the variables number of retweets and pagerank was the one that obtained the highest weight, 62%, compared to popularity with 29% and activity with 8.4%.
In addition, it was possible to identify the most influential users of each event, concluding that the accounts with the greatest influence on Twitter were those related to the participating athletes and the organization of the event. In these events, verifying the importance of the participation of the organizers in the generated conversation, was possible, just in the London event, where the organizer profile was one of the most influential, more than 55,000 tweets were registered, compared to 19,000 of Apeldoorn, where the organizer ranked much lower in this ranking of influence.
Our research acquires great importance in this area of niche sports, since it can be of great interest for the study of the dependency and cultural and geographical origin of niche sports, and how potential organizations can identify the most influential accounts that can positively result in the generation of mentions and benefits for potential sponsors. In fact, our thesis reflects the creation of different geographical clusters around athletes from the same country, and the importance of some profiles to expand the size of these groups. / Lamirán Palomares, JM. (2022). La influencia en redes sociales durante los eventos deportivos: "Los casos de Twitter en los Mundiales de Ciclismo en Pista de Londres (Reino Unido) 2016, y Apeldoorn (Países Bajos) 2018" [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/190811 / Compendio
|
700 |
Applications of Deep Leaning on Cardiac MRI: Design Approaches for a Computer Aided DiagnosisPérez Pelegrí, Manuel 27 April 2023 (has links)
[ES] Las enfermedades cardiovasculares son una de las causas más predominantes de muerte y comorbilidad en los países desarrollados, por ello se han realizado grandes inversiones en las últimas décadas para producir herramientas de diagnóstico y aplicaciones de tratamiento de enfermedades cardíacas de alta calidad. Una de las mejores herramientas de diagnóstico para caracterizar el corazón ha sido la imagen por resonancia magnética (IRM) gracias a sus capacidades de alta resolución tanto en la dimensión espacial como temporal, lo que permite generar imágenes dinámicas del corazón para un diagnóstico preciso. Las dimensiones del ventrículo izquierdo y la fracción de eyección derivada de ellos son los predictores más potentes de morbilidad y mortalidad cardiaca y su cuantificación tiene connotaciones importantes para el manejo y tratamiento de los pacientes. De esta forma, la IRM cardiaca es la técnica de imagen más exacta para la valoración del ventrículo izquierdo. Para obtener un diagnóstico preciso y rápido, se necesita un cálculo fiable de biomarcadores basados en imágenes a través de software de procesamiento de imágenes. Hoy en día la mayoría de las herramientas empleadas se basan en sistemas semiautomáticos de Diagnóstico Asistido por Computador (CAD) que requieren que el experto clínico interactúe con él, consumiendo un tiempo valioso de los profesionales cuyo objetivo debería ser únicamente interpretar los resultados. Un cambio de paradigma está comenzando a entrar en el sector médico donde los sistemas CAD completamente automáticos no requieren ningún tipo de interacción con el usuario. Estos sistemas están diseñados para calcular los biomarcadores necesarios para un diagnóstico correcto sin afectar el flujo de trabajo natural del médico y pueden iniciar sus cálculos en el momento en que se guarda una imagen en el sistema de archivo informático del hospital.
Los sistemas CAD automáticos, aunque se consideran uno de los grandes avances en el mundo de la radiología, son extremadamente difíciles de desarrollar y dependen de tecnologías basadas en inteligencia artificial (IA) para alcanzar estándares médicos. En este contexto, el aprendizaje profundo (DL) ha surgido en la última década como la tecnología más exitosa para abordar este problema. Más específicamente, las redes neuronales convolucionales (CNN) han sido una de las técnicas más exitosas y estudiadas para el análisis de imágenes, incluidas las imágenes médicas. En este trabajo describimos las principales aplicaciones de CNN para sistemas CAD completamente automáticos para ayudar en la rutina de diagnóstico clínico mediante resonancia magnética cardíaca. El trabajo cubre los puntos principales a tener en cuenta para desarrollar tales sistemas y presenta diferentes resultados de alto impacto dentro del uso de CNN para resonancia magnética cardíaca, separados en tres proyectos diferentes que cubren su aplicación en la rutina clínica de diagnóstico, cubriendo los problemas de la segmentación, estimación automática de biomarcadores con explicabilidad y la detección de eventos.
El trabajo completo presentado describe enfoques novedosos y de alto impacto para aplicar CNN al análisis de resonancia magnética cardíaca. El trabajo proporciona varios hallazgos clave, permitiendo varias formas de integración de esta reciente y creciente tecnología en sistemas CAD completamente automáticos que pueden producir resultados altamente precisos, rápidos y confiables. Los resultados descritos mejorarán e impactarán positivamente el flujo de trabajo de los expertos clínicos en un futuro próximo. / [CA] Les malalties cardiovasculars són una de les causes de mort i comorbiditat més predominants als països desenvolupats, s'han fet grans inversions en les últimes dècades per tal de produir eines de diagnòstic d'alta qualitat i aplicacions de tractament de malalties cardíaques. Una de les tècniques millor provades per caracteritzar el cor ha estat la imatge per ressonància magnètica (IRM), gràcies a les seves capacitats d'alta resolució tant en dimensions espacials com temporals, que permeten generar imatges dinàmiques del cor per a un diagnòstic precís. Les dimensions del ventricle esquerre i la fracció d'ejecció que se'n deriva són els predictors més potents de morbiditat i mortalitat cardíaca i la seva quantificació té connotacions importants per al maneig i tractament dels pacients. D'aquesta manera, la IRM cardíaca és la tècnica d'imatge més exacta per a la valoració del ventricle esquerre. Per obtenir un diagnòstic precís i ràpid, es necessita un càlcul fiable de biomarcadors basat en imatges mitjançant un programa de processament d'imatges. Actualment, la majoria de les ferramentes emprades es basen en sistemes semiautomàtics de Diagnòstic Assistit per ordinador (CAD) que requereixen que l'expert clínic interaccioni amb ell, consumint un temps valuós dels professionals, l'objectiu dels quals només hauria de ser la interpretació dels resultats. S'està començant a introduir un canvi de paradigma al sector mèdic on els sistemes CAD totalment automàtics no requereixen cap tipus d'interacció amb l'usuari. Aquests sistemes estan dissenyats per calcular els biomarcadors necessaris per a un diagnòstic correcte sense afectar el flux de treball natural del metge i poden iniciar els seus càlculs en el moment en què es deixa la imatge dins del sistema d'arxius hospitalari.
Els sistemes CAD automàtics, tot i ser molt considerats com un dels propers grans avanços en el món de la radiologia, són extremadament difícils de desenvolupar i depenen de les tecnologies d'Intel·ligència Artificial (IA) per assolir els estàndards mèdics. En aquest context, l'aprenentatge profund (DL) ha sorgit durant l'última dècada com la tecnologia amb més èxit per abordar aquest problema. Més concretament, les xarxes neuronals convolucionals (CNN) han estat una de les tècniques més utilitzades i estudiades per a l'anàlisi d'imatges, inclosa la imatge mèdica. En aquest treball es descriuen les principals aplicacions de CNN per a sistemes CAD totalment automàtics per ajudar en la rutina de diagnòstic clínic mitjançant ressonància magnètica cardíaca. El treball recull els principals punts a tenir en compte per desenvolupar aquest tipus de sistemes i presenta diferents resultats d'impacte en l'ús de CNN a la ressonància magnètica cardíaca, tots separats en tres projectes principals diferents, cobrint els problemes de la segmentació, estimació automàtica de *biomarcadores amb *explicabilidad i la detecció d'esdeveniments.
El treball complet presentat descriu enfocaments nous i potents per aplicar CNN a l'anàlisi de ressonància magnètica cardíaca. El treball proporciona diversos descobriments clau, que permeten la integració de diverses maneres d'aquesta tecnologia nova però en constant creixement en sistemes CAD totalment automàtics que podrien produir resultats altament precisos, ràpids i fiables. Els resultats descrits milloraran i afectaran considerablement el flux de treball dels experts clínics en un futur proper. / [EN] Cardiovascular diseases are one of the most predominant causes of death and comorbidity in developed countries, as such heavy investments have been done in recent decades in order to produce high quality diagnosis tools and treatment applications for cardiac diseases. One of the best proven tools to characterize the heart has been magnetic resonance imaging (MRI), thanks to its high-resolution capabilities in both spatial and temporal dimensions, allowing to generate dynamic imaging of the heart that enable accurate diagnosis. The dimensions of the left ventricle and the ejection fraction derived from them are the most powerful predictors of cardiac morbidity and mortality, and their quantification has important connotations for the management and treatment of patients. Thus, cardiac MRI is the most accurate imaging technique for left ventricular assessment. In order to get an accurate and fast diagnosis, reliable image-based biomarker computation through image processing software is needed. Nowadays most of the employed tools rely in semi-automatic Computer-Aided Diagnosis (CAD) systems that require the clinical expert to interact with it, consuming valuable time from the professionals whose aim should only be at interpreting results. A paradigm shift is starting to get into the medical sector where fully automatic CAD systems do not require any kind of user interaction. These systems are designed to compute any required biomarkers for a correct diagnosis without impacting the physician natural workflow and can start their computations the moment an image is saved within a hospital archive system.
Automatic CAD systems, although being highly regarded as one of next big advances in the radiology world, are extremely difficult to develop and rely on Artificial Intelligence (AI) technologies in order to reach medical standards. In this context, Deep learning (DL) has emerged in the past decade as the most successful technology to address this problem. More specifically, convolutional neural networks (CNN) have been one of the most successful and studied techniques for image analysis, including medical imaging. In this work we describe the main applications of CNN for fully automatic CAD systems to help in the clinical diagnostics routine by means of cardiac MRI. The work covers the main points to take into account in order to develop such systems and presents different impactful results within the use of CNN to cardiac MRI, all separated in three different main projects covering the segmentation, automatic biomarker estimation with explainability and event detection problems.
The full work presented describes novel and powerful approaches to apply CNN to cardiac MRI analysis. The work provides several key findings, enabling the integration in several ways of this novel but non-stop growing technology into fully automatic CAD systems that could produce highly accurate, fast and reliable results. The results described will greatly improve and impact the workflow of the clinical experts in the near future. / Pérez Pelegrí, M. (2023). Applications of Deep Leaning on Cardiac MRI: Design Approaches for a Computer Aided Diagnosis [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/192988
|
Page generated in 0.0608 seconds