• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 184
  • 6
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 193
  • 116
  • 47
  • 42
  • 42
  • 37
  • 27
  • 23
  • 22
  • 19
  • 17
  • 17
  • 17
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Economia colaborativa na segurança pública / Collaborative Economics in Public Security (Inglês)

Mota, João Moises Brito 25 May 2017 (has links)
Made available in DSpace on 2019-03-30T00:16:39Z (GMT). No. of bitstreams: 0 Previous issue date: 2017-05-25 / Although governments have invested large sums in public security over recent years, according to the National Information System of Brazilian Yearbook of Public Security (2015), crime rates and crimes with non-identified authors remain in the state of Ceará. This dissertation aimed to analyze the applicability of Collaborative Economy in the context of public security. In this way, it used the literature on ¿Collaborative Economy¿ (BOTSMAN; ROGER, 2011) as the starting theoretical framework, as well as the involving tools from the Collaborative Economy, such as Crowdsourcing (BRAHBAM, 2012; PRIPC et al., 2015). This dissertation was divided into two articles. The aim of the first article is to validate a research instrument (numerical scale) that measures the propensity to adopt a mobile application, within the concept of collaborative economy, which serves as a useful tool to public security. The study was based on the practice of Collaborative Consumption and its principles, according to Botsman and Roger¿s studies (2011): critical mass, trust between strangers, belief in the common good and idle capacity. The validation indicators of the built scale have proved to be largely reliable, however there is still a need for greater efforts to achieve higher levels, i.e. larger samples, thereby the scale will be consolidated. In the second article, it investigated the factors that influence the implementation of crowdsourcing in the area of public security in the next five years. It used Delphi method to address this issue. Delphi method allows the identification of trends and possible scenarios based on the structured use of experts¿ knowledge. It chose experts based on the criterion of experience and involvement with law enforcement inquiry, all of them are from Judiciary Police of Ceará. The results showed a wide acceptance of information sharing between the public security professionals and citizens. However, in relation to issues involving the direct participation of public entities, i.e., investments or development of actions that encourage citizens to share information, there is no strong consensus among the experts; this result may reside in the context of non-alignment between the various initiatives from top management decisions, or from unsuccessful experiences of previous projects. Keywords: Collaborative economy. sharing. Crowdsourcing. Public security. Mobile applications. / Ainda que os governos tenham investido grandes montantes na pasta da segurança pública nos últimos anos, de acordo com o Sistema Nacional de Informações do Anuário Brasileiro de Segurança Pública (2015), os índices de criminalidade e os crimes sem autoria definida continuam persistentes no Estado do Ceará. Esta dissertação buscou, com isso, analisar a aplicabilidade da Economia Colaborativa no contexto da Segurança Pública. Dessa forma utilizou-se como referencial teórico básico os estudos sobre ¿Economia Colaborativa¿ (BOTSMAN; ROGER, 2011), além de referências que envolvem ferramentas provenientes da Economia Colaborativa, como o Crowdsourcing (BRAHBAM, 2012; PRIPC et al., 2015). O trabalho foi dividido em dois artigos. No primeiro artigo, objetiva-se validar um instrumento de pesquisa (escala numérica) que mensure a propensão à adoção de um aplicativo móvel, dentro do conceito de economia colaborativa, que sirva como ferramenta de inteligência à segurança pública. O estudo fundamentou-se na prática do Consumo Colaborativo e seus princípios, de acordo com estudos de Botsman e Roger (2011): massa crítica, confiança entre estranhos, crença no bem comum e capacidade ociosa. Os indicadores de validação da escala construída se mostraram em grande parte confiáveis, porém há ainda a necessidade de maiores esforços para que sejam atingidos níveis maiores, i.e., amostras maiores, para que a escala seja consolidada. No segundo artigo, foram investigados os fatores influenciadores à implantação do Crowdsourcing no âmbito da segurança pública nos próximos cinco anos. Para abordar essa questão futura, foi empregada a técnica Delphi, a qual possibilita a identificação de tendências e possíveis cenários a partir do uso estruturado do conhecimento de especialistas. Os especialistas foram escolhidos com base no critério de experiência e envolvimento com atividades de investigação, sendo todos eles da Polícia Judiciária do Ceará. Os resultados finais apontaram ampla aceitação do compartilhamento de informações entre os profissionais da segurança pública e os cidadãos. Porém, em relação às questões envolvendo a participação direta dos entes públicos, i.e., investimentos ou desenvolvimento de ações que incentivem os cidadãos a compartilharem informações, não há consenso robusto entre os especialistas; tal resultado pode residir do contexto de não-alinhamento entre as diversas iniciativas da alta gestão, ou ainda de experiências de insucesso de projetos anteriores. Palavras-chave: Economia colaborativa. Compartilhamento. Crowdsourcing. Segurança pública. Aplicativos móveis.
2

Guarda compartilhada : vivência de mulheres

Ribeiro, Marília Lobão 31 August 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Psicologia, Programa de Pós-graduação em Psicologia Clínica e Cultura, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2018-03-12T17:56:00Z No. of bitstreams: 1 2017_MaríliaLobãoRibeiro.pdf: 1000632 bytes, checksum: 333c2260f5274a202d2e07c28d204dd4 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-03-13T16:38:11Z (GMT) No. of bitstreams: 1 2017_MaríliaLobãoRibeiro.pdf: 1000632 bytes, checksum: 333c2260f5274a202d2e07c28d204dd4 (MD5) / Made available in DSpace on 2018-03-13T16:38:11Z (GMT). No. of bitstreams: 1 2017_MaríliaLobãoRibeiro.pdf: 1000632 bytes, checksum: 333c2260f5274a202d2e07c28d204dd4 (MD5) Previous issue date: 2018-03-13 / Este trabalho visa discutir um tema de grande relevância e pouco estudado: as vivências de mulheres-mães que compartilham a guarda de sua prole, à revelia de suas vontades, por determinação judicial. Os estudos feministas mostram que as vozes das mulheres são ignoradas na História, na construção de cidades, no desenvolvimento de pesquisas e na elaboração da maioria das leis. Esse foi o caso da Lei nº 11.698/2008, que modificou o Código Civil Brasileiro - CCB, instituiu a guarda compartilhada e ditou que ela seria aplicada quando não houvesse acordo entre os genitores. Esse regramento não levou em conta a assimetria de gênero, ignorou os diferentes caminhos pelos quais as mulheres e homens se subjetivam em relação à maternidade e à paternidade e, principalmente, desconheceu o dispositivo materno que aprisiona muitas mulheres em um modelo de maternidade ditado pelo patriarcado. Este estudo se justifica pela necessidade de mostrar possibilidades de determinar modelos de cuidado de crianças após a separação de seus pais que respeitem a subjetividade de todos os envolvidos, que reconheçam a assimetria de gênero específica de cada família com relação ao desempenho dos papéis parentais e que não fortaleçam o exercício de poder dos homens sobre as mulheres. Nesse contexto, esta dissertação foi dividida em três artigos: o primeiro teve por objetivo fazer uma revisão crítica da literatura sobre guarda compartilhada e maternidade, a partir de uma leitura feminista e de gênero; o segundo artigo questionou se e como a Lei da Guarda Compartilhada fortalecia o patriarcado ou o subvertia; o terceiro artigo apresenta estudo qualitativo e exploratório ancorado nas teorias feministas e de gênero, cujo objetivo foi conhecer e dar voz a três mulheres-mães pertencentes a classes sociais distintas, que não concordaram com o compartilhamento da guarda de suas/eus filhas/os. A técnica de coleta de dados foi uma entrevista que privilegiou o relato livre das mulheres-mães, inicialmente, e finalizou com um questionário composto por perguntas abertas. Realizou-se análise do conteúdo da fala das participantes para o tratamento dos dados, da qual resultaram quatro categorias de análise. Constatou-se que a guarda compartilhada, à revelia das mulheres-mães, foi vivenciada com sofrimento e como exercício de poder dos ex-maridos sobre elas. Em todos os três casos, as mulheres-mães haviam sido as únicas cuidadoras da prole durante a vigência do casamento, pelo que abandonaram projetos profissionais e pessoais. Esses resultados sugerem que o modelo de guarda de crianças pós-separação dos pais deve ser definido utilizando-se como parâmetro a divisão dos cuidados com a criança existente entre pai e mãe durante o casamento. Esse pode ser um caminho para que o modelo de guarda respeite a subjetividade de todos os envolvidos e para que a guarda compartilhada não se torne uma forma de fortalecimento do patriarcado. / This study aims to debate a very important and not well studied subject: the experiences of women-mothers who share the custody of their children against their will obliged by a court order. The field of feminist’s studies show that women’s voices are not heard neither in History nor in cities planning or even in laws’ making. This was the case with the implementation of the Law 11.698/2008 which has modified the Brazilian Civil Code – CCB. This Law has instituted the shared custody of children upon a divorce and has dictated that it would be applied even when there is no agreement between the parents. This rule did not take into account gender asymmetry. It has denied the different ways in which women and men subjective themselves in relation to maternity and paternity. Most importantly it has ignored the maternal dispositif that incarcerates many women in a maternity standard dictated by patriarchy. This study justifies itself by pointing out the necessity to hear the voices and understand the perspectives of women who do not subscribe to the application of joint custody of their children. It intends to show that there are possibilities in deciding different arrangements regarding children custody after parents’ separation. Such arrangements must respect the subjectivity of all involved and acknowledge gender asymmetry in each family in relation of parents’ roles performances in order not to strengthen the men`s exercise of power over women. In this context, this study was divided in three papers: the first paper intended to make a critical review of the literature about shared custody and maternity from a feminist paradigm; the second paper inquires if the Brazilian shared custody law strengthens patriarchy or if it subverts it; the third article presents a qualitative and exploratory research based in the feminists and gender theories, which aim was to know and to give voice to three women-mothers from distinct social class that do not agree with sharing their children custody. The data collection technique was an interview that has prioritized the free speech of the women-mothers at its beginning and has ended with several open questions. A content analyses was used, according to the model of Laurence, from which resulted four analyses categories. We have acknowledged that shared custody against women-mothers which was experienced with suffering and as power exercise form their ex-husbands. In all three cases, the women-mothers were the sole care-giver of the children during the marriage, for what they dropped their careers and personal projects. The results of this research suggest that custody of children after the separation of parents must be decided using as a parameter the division of the care of the children between parents during the marriage. This may be an important path to avoid that this judicial proceeding respects everyone’s subjectivity and in order to avoid that shared custody turns into a way of strengthen patriarchy.
3

Guarda compartilhada

Manoela Rocha de Albuquerque Quintas, Maria January 2004 (has links)
Made available in DSpace on 2014-06-12T17:18:45Z (GMT). No. of bitstreams: 2 arquivo4958_1.pdf: 629037 bytes, checksum: 94681577a710514f28063d373af6bd8c (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / A guarda dos filhos, exercida pelos pais, através do poder familiar, garante à criança o direito fundamental de conviver em família. Quando ocorre a ruptura do casal, a guarda pode ser atribuída a apenas um dos pais, a cada um alternadamente, ou manter-se nos moldes da união familiar, compartilhada pelos pais. Nesta modalidade de guarda, ambos os pais participam ativamente na vida dos filhos, com mesmos direitos e deveres. É, pois, uma forma de manter intacto o poder familiar após a ruptura do casal, dando continuidade à relação de afeto edificada entre pais e filhos, para evitar disputas que afetem o pleno desenvolvimento da criança. Justifica-se na busca do melhor interesse da criança; na aplicação injustificada da guarda exclusiva; na igualdade entre homens e mulheres quanto aos direitos e deveres em relação aos filhos; no exercício da guarda compartilhada de fato; e, na incomunicabilidade entre a relação do casal e a relação pais e filhos. Pode ser exercida com ou sem alternância de residência dos filhos. Na prática, a guarda compartilhada apresenta alguns pressupostos e também alguns problemas a serem enfrentados pelos pais. Uma pesquisa empírica comprova a possibilidade de sua operacionalização e a necessidade de divulgá-la. A guarda compartilhada apresenta vantagens para todos os envolvidos na ruptura familiar e encontra na mediação um instrumento para ser efetivada, já que deve partir de um acordo dos pais. No Direito comparado, a guarda compartilhada é aplicada freqüentemente. O Direito brasileiro não a impede, no entanto, deveria haver uma presunção legal expressa de que essa modalidade de guarda, em condições normais, representa o melhor interesse da criança, a medida em que contempla a plena relação entre pais e filhos
4

Gestão compartilhada da política no enfrentamento da pobreza: o caso de caranguejo Tabaiares

Maria Gonçalves, Rosineide 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T23:14:03Z (GMT). No. of bitstreams: 2 arquivo2585_1.pdf: 1419899 bytes, checksum: 5dbcf379e6fffc366b2951809c21761b (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Esta dissertação teve por objeto analisar a gestão compartilhada da política como estratégia de desenvolvimento em áreas pobres. A pesquisa empírica foi realizada na ZEIS do Recife Caranguejo Tabaiares, e buscou compreender como a experiência de Gestão Compartilhada do Programa Operação Trabalho, da Prefeitura de Recife, contribuiu para o processo de desenvolvimento local. A experiência se desenvolveu por meio da criação de uma comissão que envolveu três grupos de sujeitos: organizações locais, ONGs e Gestão Pública Municipal - Recife e Nantes/França. Na construção teórica, a pesquisa analisou a pobreza sob a ótica da privação de capacidades, resultante de um sistema gerador de desigualdade social, bem como buscou compreender o Desenvolvimento como processo, cuja característica principal é a construção de liberdades necessárias à autonomia dos sujeitos, onde desenvolver ou não determinada região depende da participação da sociedade e do compromisso do Estado, cada um assumindo suas atribuições e responsabilidades. Concluímos que garantir espaços de Gestão Compartilhada das políticas e programas fortalece a autonomia dos sujeitos, estabelece a co-responsabilidade com a comunidade e gera mudança na cultura de gestão da coisa pública, seja pelo Estado, seja pela sociedade
5

Gestão compartilhada da política no enfrentamento da pobreza: o caso de caranguejo Tabaiares

Maria Gonçalves, Rosineide 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T23:15:41Z (GMT). No. of bitstreams: 2 arquivo4314_1.pdf: 1422103 bytes, checksum: 4d16a18783079f2859ec5c9acfd49ab1 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Esta dissertação teve por objeto analisar a gestão compartilhada da política como estratégia de desenvolvimento em áreas pobres. A pesquisa empírica foi realizada na ZEIS do Recife Caranguejo Tabaiares, e buscou compreender como a experiência de Gestão Compartilhada do Programa Operação Trabalho, da Prefeitura de Recife, contribuiu para o processo de desenvolvimento local. A experiência se desenvolveu por meio da criação de uma comissão que envolveu três grupos de sujeitos: organizações locais, ONGs e Gestão Pública Municipal - Recife e Nantes/França. Na construção teórica, a pesquisa analisou a pobreza sob a ótica da privação de capacidades, resultante de um sistema gerador de desigualdade social, bem como buscou compreender o Desenvolvimento como processo, cuja característica principal é a construção de liberdades necessárias à autonomia dos sujeitos, onde desenvolver ou não determinada região depende da participação da sociedade e do compromisso do Estado, cada um assumindo suas atribuições e responsabilidades. Concluímos que garantir espaços de Gestão Compartilhada das políticas e programas fortalece a autonomia dos sujeitos, estabelece a co-responsabilidade com a comunidade e gera mudança na cultura de gestão da coisa pública, seja pelo Estado, seja pela sociedade
6

Simulação paralela de eventos discretos com uso de memória compartilhada distribuída

Rebonatto, Marcelo Trindade January 2000 (has links)
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.
7

Simulação paralela de eventos discretos com uso de memória compartilhada distribuída

Rebonatto, Marcelo Trindade January 2000 (has links)
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.
8

Verificação de consistência e coerência de memória compartilhada para multiprocessamento em chip

Henschel, Olav Philipp January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014 / Made available in DSpace on 2015-02-05T21:02:33Z (GMT). No. of bitstreams: 1 330255.pdf: 3149547 bytes, checksum: 67161f66dc891b9dd0fe6599ef298d40 (MD5) Previous issue date: 2014 / O multiprocessamento em chip sob a crescente demanda por desempenho leva a um número crescente de núcleos de processamento, que interagem através de uma complexa hierarquia de memória compartilhada, a qual deve obedecer a requisitos de coerência e consistência, capturados na interface hardware-software na forma de um modelo de memória. Dada uma execução de um programa paralelo, verificar se a hierarquia obedece aqueles requisitos é um problema intratável quando a observabilidade do sistema restringe-se a um trace de memória para cada processador, tal como ocorre em um checker dinâmico pós-silício. Esses checkers (baseados em inferências sobre traces) requerem o uso de backtracking para excluir falsos negativos. Por outro lado, checkers pré-silício podem se beneficiar da observabilidade ilimitada de representações de projeto para induzir um problema de verificação que pode ser resolvido em tempo polinomial (sem o uso de backtracking) e com plenas garantias de verificação (sem falsos negativos nem falsos positivos). Esta dissertação faz uma avaliação experimental comparativa de checkers dinâmicos baseados em diferentes mecanismos (inferências, emparelhamento em grafo bipartido, scoreboard única e múltiplas scoreboards). Os checkers são comparados para exatamente o mesmo conjunto de casos de teste: 200 programas paralelos não sincronizados, gerados de forma pseudo-aleatória, obtidos variando a frequência de ocorrência de instruções (4 mixes), o número de endereços compartilhados (entre 2 e 32) e o número total de operações de memória (entre 250 e 64K). A partir de uma mesma representação pré-validada do sistema, foram construídas oito representações derivadas, cada uma contendo um erro de projeto distinto. Para reproduzir condições compatíveis com as tendências arquiteturais, os checkers foram comparados ao verificar um modelo com máxima relaxação de ordem de programa (bastante similar ao usado, por exemplo, nas arquiteturas Alpha e ARMv7) para sistemas contendo de 2 a 32 núcleos de processamento. Não é do conhecimento do autor a existência na literatura de uma avaliação experimental tão ampla. Os resultados mostram a inviabilidade do uso de checkers baseados em inferências em tempo de projeto: têm o mais alto esforço computacional e a maior taxa de crescimento com o aumento do número de processadores. A avaliação indica que a forma mais eficiente de construir um checker pré-silício corresponde a uma observabilidade de três pontos de monitoramento por processador, ao uso de verificação on-the-fly (ao invés de análise post-mortem) e à utilização de múltiplos mecanismos para verificar separadamente e em paralelo os subespaços de verificação definidos pelo escopo individual de cada processador, enquanto os subespaços entre processadores são verificados globalmente. Como um desdobramento da avaliação experimental, a dissertação identifica uma deficiência comum a todos os checkers analisados: sua inadequação para verificar modelos de memória com fraca atomicidade de escrita, exatamente aqueles apontados como tendência e já presentes em arquiteturas recentes (e.g. ARMv8). Diante disso, a dissertação propõe algoritmos generalizados capazes de verificar tais modelos.<br> / Abstract: Chip multiprocessing under the growing demand for performance leads to agrowing number of processing cores, which interact through a complex shared memory hierarchy that must satisfy coherence and consistency requirements captured as a memory model in the hardware-software interface. Given an execution of a parallel program, verifying if the hierarchy complies to those requirements is an intractable problem when the system observability is limited to a memory trace per processor, as in dynamic post-silicon checkers.Those checkers (based on inferences over traces) require the use of backtracking to avoid false negatives. On the other hand, pre-silicon checkers may benefit from the unlimited observability of design representations to induce a verification problem that may be solved in polynomial time (without the use of backtracking) with full verification guarantees (i.e. neither false negatives nor false positives). This dissertation provides an experimental evaluation of dynamic checkers based on different mechanisms (inferences, bipartite graph matching, single scoreboard and multiple scoreboards). The checkers are compared under exactly the same set of test cases: 200 non-synchronized parallel programs, generated pseudo-randomly, obtained by varying the frequency of instructions (4 mixes), the number of shared addresses (between 2 and 32) and the total number of memory operations (between 250 and 64K). From the same pre-validated system representation, eight distinct representations were built, each one containing a single and unique design error. To reproduce conditions compatible with architectural trends, the checkers were compared while verifying a memory model with maximal relaxation of program order (similar, for example, to those used in Alpha and ARMv7 architectures) and systems containing 2 to 32 processing cores. To the author's best knowledge, no broader experimental evaluation is available in the literature. The results show that the use of inference-based checkers at design time is impractical: they have the highest computational effort and the highest rate of growth with the number of cores. The evaluation shows that the most efficient way of building a pre-silicon checker corresponds to three observable points per core, the use of on-the-fly analysis (instead of post-mortem) and the usage of multiple engines to check the verification subspaces defined by the scope of each processor independently and in parallel, while checking globally the inter-processor subspaces. As a spin-off from the experimental evaluation, the dissertation identifies a deficiency common to all analyzed checkers: their unsuitability to handle memory models with weak write atomicity, which are precisely those pointed out as the trend and are present in architectures already in the market (e.g. ARMv8). In face of this, the dissertation proposes generic algorithms capable of verifying such models.
9

Exploiting canonical dependence chains and address biasing constraints to improve random test generation for shared-memory veridication

Andrade, Gabriel Arthur Gerber January 2017 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2017. / Made available in DSpace on 2017-06-27T04:21:32Z (GMT). No. of bitstreams: 1 345872.pdf: 1423815 bytes, checksum: d7ab5e6898d999346ceec9e69c88bedd (MD5) Previous issue date: 2017 / Introdução A verificação funcional do projeto de um sistema com multiprocessamento em chip (CMP) vem se tornando cada vez mais desafiadora por causa da crescente complexidade para suportar a abstração de memória compartilhada coerente, a qual provavelmente manterá seu papel crucial para multiprocessamento em chip, mesmo na escala de centenas de processadores. A verificação funcional baseia-se principalmente na geração de programas de teste aleatórios.Trabalhos Correlatos e Gerador Proposto Embora frameworks de verificação funcional que se baseiam na solução de problemas de satisfação de restrições possuam a vantagem de oferecer uma abordagem unificada para gerar estímulos aleatórios capazes de verificar todo o sistema, eles não são projetados para explorar não-determinismo, que é um importante mecanismo para expôr erros de memória compartilhada. Esta dissertação reporta novas técnicas que se baseiam em lições aprendidas de ambos? os frameworks de verificação de propósitos gerais e as abordagens especializadas em verificar o modelo de memória. Elas exploram restrições sobre endereços e cadeias canônicas de dependência para melhorar a geração de testes aleatórios enquanto mantêm o papel crucial do não-determinismo como um mecanismo-chave para a exposição de erros. Geração de Sequências Ao invés de selecionar instruções aleatoriamente, como faz uma técnica convencional, o gerador proposto seleciona instruções de acordo com cadeias de dependências pré-definidas que são comprovadamente significativas para preservar o modelo de memória sob verificação. Esta dissertação explora cadeias canônicas, definidas por Gharachorloo, para evitar a indução de instruções que, sendo desnecessárias para preservar o modelo de memória sob verificação, resultem na geração de testes ineficazes. Assinalamento de Endereços Em vez de selecionar aleatoriamente padrões binários para servir de endereços efetivos de memória, como faz um gerador convencional, o gerador proposto aceita restrições à formação desses endereços de forma a forçar o alinhamento de objetos em memória, evitar falso compartilhamento entre variáveis e especificar o grau de competição de endereços por uma mesma linha de cache. Avaliação Experimental Um novo gerador, construído com as técnicas propostas, foi comparado com um gerador convencional de testes aleatórios. Ambos foram avaliados em arquiteturas de 8, 16, e 32 núcleos, ao sintetizar 1200 programas de testes distintos para verificar 5 projetos derivados, cada um contendo um diferente tipo de erro (6000 casos de uso por arquitetura). Os testes sintetizados exploraram uma ampla variedade de parâmetros de geração (5 tamanhos de programas, 4 quantidades de posições compartilhadas de memória, 4 mixes de instruções, e 15 sementes aleatórias). Os resultados experimentais mostram que, em comparação com um convencional, o novo gerador tende a expor erros para um maior número de configurações dos parâmetros: ele aumentou em 38% o potencial de expor erros de projeto. Pela análise dos resultados da verificação sobre todo o espectro de parâmetros, descobriu-se que os geradores requerem um número bastante distinto de posições de memória para alcançar sua melhor exposição. Os geradores foram comparados quando cada um explorou a quantidade de posições de memória correspondente à sua melhor exposição. Nestas condições, quando destinados a projetos com 32 núcleos através da exploração de todo o espectro de tamanhos de testes, o novo gerador expôs um tipo de erro tão frequentemente quanto a técnica convencional, dois tipos com 11% mais frequência, um tipo duas vezes, e um tipo 4 vezes mais frequentemente. Com os testes mais longos (64000 operações) ambos os geradores foram capazes de expor todos os tipos de erros, mas o novo gerador precisou de 1,5 a 15 vezes menor esforço para expor cada erro, exceto por um (para o qual uma degradação de 19% foi observada). Conclusões e Perspectivas Com base na avaliação realizada, conclui-se que, quando se escolhe um número suficientemente grande de variáveis compartilhadas como parâmetro, o gerador proposto requer programas de teste mais curtos para expor erros de projeto e, portanto, resulta em menor esforço, quando comparado a um gerador convencional.<br> / Abstract : Albeit general functional processor verification frameworks relying on the solution of constraint satisfaction problems have the advantage of offering a unified approach for generating random stimuli to verify the whole system, they are not designed to exploit non-determinism, which is an important mechanism to expose shared-memory errors. This dissertation reports new techniques that build upon the lessons learned from both - the general verification frameworks and the approaches specifically targeting memory-model verification. They exploit address biasing constraints and canonical dependence chains to improve random test generation while keeping the crucial role of non-determinism as a key mechanism to error exposure. A new generator, built with the proposed techniques, was compared to a conventional random test generator. Both were evaluated for 8, 16, and 32-core architectures, when synthesizing 1200 distinct test programs for verifying 5 derivative designs containing each a different type of error (6000 use cases per architecture). The synthesized tests explored a wide variety of generation parameters (5 program sizes, 4 shared-location counts, 4 instruction mixes, and 15 random seeds). The experimental results show that, as compared to a conventional one, the new generator tends to expose errors for a larger number of parameter settings: it increased by 38% the potential for exposing design errors. By analyzing the verification out-comes over the full parameter ranges, we found out that the generators require quite distinct numbers of shared locations to reach best exposure. We compared them when each generator exploited the location count leading to its best exposure. In such conditions, when targeting32-core designs by exploring the whole range of test lengths, the new generator exposed one type of error as often as the conventional technique, two types 11% more often, one type twice as often, and one type4 times as often. With the longest tests (64000 operations) both generators were able to expose all types of errors, but the new generator required from 1.5 to 15 times less effort to expose each error, except for one (for which a degradation of 19% was observed).
10

Simulação paralela de eventos discretos com uso de memória compartilhada distribuída

Rebonatto, Marcelo Trindade January 2000 (has links)
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.

Page generated in 0.045 seconds