• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 1
  • Tagged with
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Análise retórica com base em grande quantidade de dados / Rhetorical analysis based on large amount of data

Maziero, Erick Galani 09 November 2016 (has links)
Com uma quantidade quase incontável de informação textual disponível na web, a automatização de diversas tarefas referentes ao processamento automático de textos é uma necessidade inegável. Em abordagens superficiais do PLN (Processamento da Linguagem Natural), importantes propriedades do texto são perdidas, como posição, ordem, adjacência e contexto dos segmentos textuais. Uma análise textual mais profunda, como a realizada no nível do discurso, ocupa-se da busca e identificação da organização retórica do texto, gerando uma estrutura hierárquica em que as intenções do autor são explicitadas e relacionadas entre si. Para a automatização dessa tarefa, tem-se utilizado técnicas de aprendizado automático, predominantemente do paradigma supervisionado. Nesse paradigma, são necessários dados rotulados manualmente para a geração dos modelos de classificação. Como a anotação para essa tarefa é algo custoso, os resultados obtidos no aprendizado são insatisfatórios, pois estão bem aquém do desempenho humano na mesma tarefa. Nesta tese, o uso massivo de dados não rotulados no aprendizado semissupervisionado sem fim foi empregado na tarefa de identificação das relações retóricas. Foi proposto um framework que utiliza textos obtidos continuamente da web. No framework, realiza-se a monitoração da mudança de conceito, que pode ocorrer durante o aprendizado contínuo, e emprega-se uma variação dos algoritmos tradicionais de semissupervisão. Além disso, foram adaptados para o Português técnicas do estado da arte. Sem a necessidade de anotação humana, a medida-F melhorou, por enquanto, em 0,144 (de 0,543 para 0,621). Esse resultado consiste no estado da arte da análise discursiva automática para o Português. / Considering the almost uncountable textual information available on the web, the auto- matization of several tasks related to the automatic text processing is an undeniable need. In superficial approaches of NLP (Natural Language Processing), important properties of the text are lost, as position, order, adjacency and context of textual segments. A de- eper analysis, as carried out in the discursive level, deals with the identification of the rhetoric organization of the text, generating a hierarchical structure. In this structure, the intentions of the author are identified and related among them. To the automati- zation of this task, most of the works have used machine learning techniques, mainly from the supervised paradigm. In this paradigm, manually labeled data is required to obtain classification models, specially to identify the rhetorical relations. As the manual annotation is a costly process, the obtained results in the task are unsatisfactory, because they are below the human perfomance. In this thesis, the massive use of unlabeled data was applied in a semi-supervised never-ending learning to identify the rhetorical relations. In this exploration, a framework was proposed, which uses texts continuously obtained from the web. In the framework, a variation of traditional semi-supervised algorithms was employed, and it uses a concept-drift monitoring strategy. Besides that, state of the art techniques for English were adapted to Portuguese. Without the human intervention, the F-measure increased, for while, 0.144 (from 0.543 to 0.621). This result consists in the state-of-the-art for Discourse Analysis in Portuguese.
2

Aplicando princípios de aprendizado de máquina na construção de um biocurador automático para o Gene Ontology (GO)

Amaral, Laurence Rodrigues do 08 October 2013 (has links)
Made available in DSpace on 2016-06-02T19:03:58Z (GMT). No. of bitstreams: 1 6030.pdf: 2345815 bytes, checksum: 385c6d8c1bda1d4afe540c01668338fa (MD5) Previous issue date: 2013-10-08 / Nowadays, the amount of biological data available by universities, hospitals and research centers has increased exponentially due the use of bioinformatics, with the development of methods and advanced computational tools, and high-throughput techniques. Due to this significant increase in the amount of available data, new strategies for capture, storage and analysis of data are necessary. In this scenario, a new research area is developing, called biocuration. The biocuration is becoming a fundamental part in the biological and biomedical research, and the main function is related with the structuration and organization of the biological information, making it readable and accessible to mens and computers. Seeking to support a fast and reliable understanding of new domains, different initiatives are being proposed, and the Gene Ontology (GO) is one of the main examples. The GO is one the main initiatives in bioinformatics, whose main goal is to standardize the representation of genes and their products, providing interconnections between species and databases. Thus, the main objective of this research is to propose a computational architecture that uses principles of never-ending learning to help biocurators in new GO classifications. Nowadays, this classification task is totally manual. The proposed architecture uses semi-supervised learning combining different classifiers used in the classification of new GO samples. In addition, this research also aims to build high-level knowledge in the form of simple IF-THEN rules and decision trees. The generated knowledge can be used by the GO biocurators in the search for important patterns present in the biological data, revealing concise and relevant information about the application domain. / Nos dias atuais, a quantidade de dados biológicos disponibilizados por universidades, hospitais e centros de pesquisa tem aumentado de forma exponencial, devido ao emprego da bio-informática, através do desenvolvimento de métodos e técnicas computacionais avançados, e de técnicas de high-throughput. Devido a esse significativo aumento na quantidade de dados disponibilizados, gerou-se a necessidade da criação de novas estratégias para captura, armazenamento e principalmente analise desses dados. Devido a esse cenário, um novo campo de trabalho e pesquisa vem surgindo, chamado biocuragem. A biocuragem está se tornando parte fundamental na pesquisa biomédica e biológica, e tem por principal função estruturar e organizar a informação biológica, tornando-a legível e acessível a homens e computadores. Buscando prover um rápido e confiável entendimento de novos domínios, diferentes iniciativas estão sendo propostas, tendo no Gene Ontology (GO) um dos seus principais exemplos. O GO se destaca mundialmente sendo uma das principais iniciativas em bioinformática, cuja principal meta e padronizar a representação dos genes e seus produtos, provendo interconexões entre espécies e bancos de dados. Dessa forma, objetiva-se com essa pesquisa propor uma arquitetura computacional que utiliza princípios de aprendizado de maquina sem-fim para auxiliar biocuradores do GO na tarefa de classificação de novos termos, tarefa essa, totalmente manual. A arquitetura proposta utiliza aprendizado semi-supervisionado combinando diferentes classificadores na rotulação de novas instâncias do GO. Além disso, essa pesquisa também tem por objetivo a construção de conhecimento de alto-nível na forma de simples regras SE-ENTÃO e árvores de decisão. Esse conhecimento gerado pode ser utilizado pelos biocuradores do GO na busca por padrões importantes presentes nos dados biológicos, revelando informações concisas e relevantes sobre o domínio da aplicação.
3

Uma abordagem de sistema de recomendação orientada pelo aprendizado sem fim

Gotardo, Reginaldo Aparecido 28 February 2014 (has links)
Made available in DSpace on 2016-06-02T19:03:59Z (GMT). No. of bitstreams: 1 6340.pdf: 3337556 bytes, checksum: 693a6a9cfb4dc2a26651724099fcf890 (MD5) Previous issue date: 2014-02-28 / Financiadora de Estudos e Projetos / Recommender Systems have a very well defined function: recommend something to someone. Through Artificial Intelligence techniques, more particularly from areas such as Data Mining and Machine Learning, it is possible to build recommendation systems. These systems will analyze large amounts of data and will inform users about some items that will probably interest them. However, some limitations of the recommender systems, which are sometimes, caused by the Mining or Learning models themselves or by the lack of available data make them computationally expensive or inaccurate. Besides, recommender systems in real environments are dynamic: data change over time or with new ratings, new users, new items or when user updates previous ratings. The Never Ending-Learning Approach (NEL) aims at a self-supervised and self-reflexive learning to mainly maximize learning of a system based on data from several sources, algorithms that can cooperate to make a better knowledge base considering the dynamic of real learning problems: learning improves along the time. As mentioned before, recommender systems are dynamic and depend on data between user and items. In order to minimize this dependency and to provide meaningful and useful results to users, this work presents a Recommender System approach guided by NEL Principles. Results show that it is possible to minimize or delay the data dependency through classifiers coupling techniques and concept deviation control. Due to that, it is possible to start with little data from a recommender system that will be dynamic and will receive new information. These new information will help even more in controlling the concept deviation and promoting the most useful recommendations. Then, this thesis presents how the Recommender System guided by NEL principles can contribute to the state of the art in recommender systems and implement a system with practical results through the Never-Ending Learning Approach. / Os Sistemas de Recomendação possuem uma função muito bem definida: recomendar algo a alguém. Através de técnicas de Inteligência Artificial, mais particularmente de áreas como a Mineração de Dados e o Aprendizado de Máquina é possível construir Sistemas de Recomendação que analisem grandes volumes de dados e consigam predizer aos usuários algo que provavelmente irá lhes interessar. No entanto, algumas limitações dos Sistemas de Recomendações, causadas as vezes pelos próprios modelos de Mineração ou Aprendizado utilizados ou pela escassez dos dados disponíveis, os tornam computacionalmente caros ou imprecisos. Além disto, Sistemas de Recomendação em ambientes reais são dinâmicos, ou seja, os dados mudam com o passar do tempo seja com novas avaliações, novos usuários, novos itens ou mesmo atualizações de avaliações anteriores. A abordagem de Aprendizado Sem-Fim (SASF) visa um aprendizado autossupervisionado e autorreflexivo para, sobretudo, maximizar o aprendizado de um sistema com base em dados de fontes diversas, algoritmos que cooperem entre si para melhor modelar uma base de conhecimento e considerar a dinamicidade de problemas reais de aprendizado: Aprender amadurece com o tempo. Como já dito, sistemas de recomendação são dinâmicos e dependem de dados entre usuários e itens. Para minimizar esta dependência e prover resultados significativos e úteis aos usuários é apresentada neste trabalho uma abordagem de Sistema de Recomendação orientada pelos Princípios do Aprendizado Sem-Fim. Os resultados obtidos sugerem que é possível minimizar ou retardar a dependência de dados através de técnicas de acoplamento de classificadores e do controle do desvio de conceito. Com isto, é possível atuar com poucos dados de um sistema de recomendação que será dinâmico e receberá novas informações. Estas novas informações auxiliarão ainda mais no controle do desvio de conceito e na promoção de recomendações mais úteis. Por tudo isto, este trabalho apresenta como proposta o desenvolvimento de uma Abordagem para Sistemas de Recomendação baseada no Aprendizado Sem Fim, como forma de contribuir para o estado da arte em sistemas de recomendação e de implementar um sistema com resultados práticos através do Aprendizado sem Fim.
4

Análise retórica com base em grande quantidade de dados / Rhetorical analysis based on large amount of data

Erick Galani Maziero 09 November 2016 (has links)
Com uma quantidade quase incontável de informação textual disponível na web, a automatização de diversas tarefas referentes ao processamento automático de textos é uma necessidade inegável. Em abordagens superficiais do PLN (Processamento da Linguagem Natural), importantes propriedades do texto são perdidas, como posição, ordem, adjacência e contexto dos segmentos textuais. Uma análise textual mais profunda, como a realizada no nível do discurso, ocupa-se da busca e identificação da organização retórica do texto, gerando uma estrutura hierárquica em que as intenções do autor são explicitadas e relacionadas entre si. Para a automatização dessa tarefa, tem-se utilizado técnicas de aprendizado automático, predominantemente do paradigma supervisionado. Nesse paradigma, são necessários dados rotulados manualmente para a geração dos modelos de classificação. Como a anotação para essa tarefa é algo custoso, os resultados obtidos no aprendizado são insatisfatórios, pois estão bem aquém do desempenho humano na mesma tarefa. Nesta tese, o uso massivo de dados não rotulados no aprendizado semissupervisionado sem fim foi empregado na tarefa de identificação das relações retóricas. Foi proposto um framework que utiliza textos obtidos continuamente da web. No framework, realiza-se a monitoração da mudança de conceito, que pode ocorrer durante o aprendizado contínuo, e emprega-se uma variação dos algoritmos tradicionais de semissupervisão. Além disso, foram adaptados para o Português técnicas do estado da arte. Sem a necessidade de anotação humana, a medida-F melhorou, por enquanto, em 0,144 (de 0,543 para 0,621). Esse resultado consiste no estado da arte da análise discursiva automática para o Português. / Considering the almost uncountable textual information available on the web, the auto- matization of several tasks related to the automatic text processing is an undeniable need. In superficial approaches of NLP (Natural Language Processing), important properties of the text are lost, as position, order, adjacency and context of textual segments. A de- eper analysis, as carried out in the discursive level, deals with the identification of the rhetoric organization of the text, generating a hierarchical structure. In this structure, the intentions of the author are identified and related among them. To the automati- zation of this task, most of the works have used machine learning techniques, mainly from the supervised paradigm. In this paradigm, manually labeled data is required to obtain classification models, specially to identify the rhetorical relations. As the manual annotation is a costly process, the obtained results in the task are unsatisfactory, because they are below the human perfomance. In this thesis, the massive use of unlabeled data was applied in a semi-supervised never-ending learning to identify the rhetorical relations. In this exploration, a framework was proposed, which uses texts continuously obtained from the web. In the framework, a variation of traditional semi-supervised algorithms was employed, and it uses a concept-drift monitoring strategy. Besides that, state of the art techniques for English were adapted to Portuguese. Without the human intervention, the F-measure increased, for while, 0.144 (from 0.543 to 0.621). This result consists in the state-of-the-art for Discourse Analysis in Portuguese.
5

Aprendizado sem-fim de paráfrases

Polastri, Paulo César 04 March 2016 (has links)
Submitted by Luciana Sebin (lusebin@ufscar.br) on 2016-10-05T18:38:23Z No. of bitstreams: 1 DissPCP.pdf: 1921482 bytes, checksum: 5298cc1a066e0cfe217b2b9c61076e65 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-14T14:13:08Z (GMT) No. of bitstreams: 1 DissPCP.pdf: 1921482 bytes, checksum: 5298cc1a066e0cfe217b2b9c61076e65 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-14T14:13:18Z (GMT) No. of bitstreams: 1 DissPCP.pdf: 1921482 bytes, checksum: 5298cc1a066e0cfe217b2b9c61076e65 (MD5) / Made available in DSpace on 2016-10-14T14:13:28Z (GMT). No. of bitstreams: 1 DissPCP.pdf: 1921482 bytes, checksum: 5298cc1a066e0cfe217b2b9c61076e65 (MD5) Previous issue date: 2016-03-04 / Não recebi financiamento / Use different words to express/convey the same message is a necessity in any natural language and, as such, should be investigated in research in Natural Language Processing (NLP). When it is just a simple word, we say that the interchangeable words are synonyms; while the term paraphrase is used to express a more general idea and that also may involve more than one word. For example, the sentences "the light is red" and "the light is closed" are examples of paraphrases as "sign" and "traffic light" represent synonymous in this context. Proper treatment of paraphrasing is important in several NLP applications, such as Machine Translation, which paraphrases can be used to increase the coverage of Statistical Machine Translation systems; on Multidocument Summarization, where paraphrases identification allows the recognition of repeated information; and Natural Language Generation, where the generation of paraphrases allows creating more varied and fluent texts. The project described in this document is intended to verify that is possible to learn, in an incremental and automatic way, paraphrases in words level from a bilingual parallel corpus, using Never-Ending Machine Learning (NEML) strategy and the Internet as a source of knowledge. The NEML is a machine learning strategy, based on how humans learn: what is learned previously can be used to learn new information and perhaps more complex in the future. Thus, the NEML has been applied together with the strategy for paraphrases extraction proposed by Bannard and Callison-Burch (2005) where, from bilingual parallel corpus, paraphrases are extracted using a pivot language. In this context, it was developed NEPaL (Never-Ending Paraphrase Learner) AMSF system responsible for: (1) extract the internet texts, (2) align the text using a pivot language, (3) rank the candidates according to a classification model and (4) use the knowledge to produce a new classifier model and therefore gain more knowledge restarting the never-ending learning cycle. / Usar palavras diferentes para expressar/transmitir a mesma mensagem é uma necessidade em qualquer língua natural e, como tal, deve ser investigada nas pesquisas em Processamento de Língua Natural (PLN). Quando se trata apenas de uma palavra simples, dizemos que as palavras intercambiáveis são sinônimos; enquanto o termo paráfrase é utilizado para expressar uma ideia mais geral e que pode envolver também mais de uma palavra. Por exemplo, as sentenças “o sinal está vermelho” e “o semáforo está fechado” são exemplo de paráfrases enquanto “sinal” e “semáforo” representam sinônimos, nesse contexto. O tratamento adequado de paráfrases é importante em diversas aplicações de PLN, como na Tradução Automática, onde paráfrases podem ser utilizadas para aumentar a cobertura de sistemas de Tradução Automática Estatística; na Sumarização Multidocumento, onde a identificação de paráfrases permite o reconhecimento de informações repetidas; e na Geração de Língua Natural, onde a geração de paráfrases permite criar textos mais variados e fluentes. O projeto descrito neste documento visa verificar se é possível aprender, de modo incremental e automático, paráfrases em nível de palavras a partir de corpus paralelo bilíngue, utilizando a estratégia de Aprendizado de Máquina Sem-fim (AMSF) e a Internet como fonte de conhecimento. O AMSF é uma estratégia de Aprendizado de Máquina, baseada na forma como os humanos aprendem: o que é aprendido previamente pode ser utilizado para aprender informações novas e talvez mais complexas, futuramente. Para tanto, o AMSF foi aplicado juntamente com a estratégia para a extração de paráfrases proposta por Bannard e Callison-Burch (2005) onde, a partir de corpus paralelo bilíngue, paráfrases são extraídas utilizando um idioma pivô. Nesse contexto, foi desenvolvido o NEPaL (Never-Ending Paraphrase Learner), sistema de AMSF responsável por: (1) extrair textos da internet, (2) alinhar os textos utilizando um idioma pivô, (3) classificar as candidatas de acordo com um modelo de classificação e (4) utilizar o conhecimento para produzir um novo modelo classificador e, consequentemente, adquirir mais conhecimento reiniciando o ciclo de aprendizado sem-fim.
6

Leitura da web em português em ambiente de aprendizado sem-fim

Duarte, Maísa Cristina 04 January 2016 (has links)
Submitted by Alison Vanceto (alison-vanceto@hotmail.com) on 2017-01-03T12:49:19Z No. of bitstreams: 1 TeseMCD.pdf: 1564245 bytes, checksum: fbb9eb1099a1b38351371c97e8e49bb4 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2017-01-16T16:47:27Z (GMT) No. of bitstreams: 1 TeseMCD.pdf: 1564245 bytes, checksum: fbb9eb1099a1b38351371c97e8e49bb4 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2017-01-16T16:47:38Z (GMT) No. of bitstreams: 1 TeseMCD.pdf: 1564245 bytes, checksum: fbb9eb1099a1b38351371c97e8e49bb4 (MD5) / Made available in DSpace on 2017-01-16T16:47:46Z (GMT). No. of bitstreams: 1 TeseMCD.pdf: 1564245 bytes, checksum: fbb9eb1099a1b38351371c97e8e49bb4 (MD5) Previous issue date: 2016-01-04 / Não recebi financiamento / NELL is a computer system that has the goal of learn to learn 24 hours per day, continuously and learn more an better than the last day, to perform the knowledge base (KB). NELL is running since January 12 of 2010. Furthermore, NELL goals is have hight precision to be able to continue the learning. NELL is developed in macro-reading context, because this NELL needs very much redundancy to run. The first step to run NELL is to have an big (all-pairs-data). An all-pairs-data is a preprocessed base using Natural Language Processing (NLP), that base has all sufficient statistics about a corpus of web pages. The proposal of this project was to create a instance of NELL (currently in English) in Portuguese. For this, the first goal was the developing an all-pairs-data in Portuguese. The second step was to create a new version of Portuguese NELL. And finally, the third goal was to develop a coreference resolution hybrid method focused in features semantics and morphologics. This method is not dependent of a specific language, it is can be applied for another languages with the same alphabet of Portuguese language. The NELL in Portuguese was developed, but the all-pairs-data is not big enough. Because it Portuguese NELL is not running for ever, like the English version. Even so, this project present the steps about how to develop a NELL in other language and some ideas about how to improve the all-pairs-data. By the way, this project present a coreference resolution hybrid method with good results to NELL. / A NELL é um sistema de computador que possui o objetivo de executar 24 horas por dia, 7 dias por semana, sem parar. A versão atual da NELL foi iniciada em 12 de Janeiro de 2010 e continua ativa. Seu objetivo é aprender cada vez mais fatos da web para popular sua base de conhecimento (Knowlegde Base - KB). Além de aprender cada vez mais, a NELL também objetiva alcançar alta confiança no aprendizado para garantir a continuidade do aprendizado. A NELL foi desenvolvida e atua no contexto da macroleitura, no qual é necessária uma grande quantidade e redundância de dados. Para que o sistema possa aprender, o primeiro passo é criar uma base preprocessada (all-pairs-data) a partir do uso de técnicas linguísticas. O all-pairs-data deve possuir todas as estatísticas suficientes para a execução da NELL e também deve ser de um tamanho suficientemente grande para que o aprendizado possa ocorrer. Neste projeto, foi proposta a criação de uma nova instância da NELL em português. Inicialmente foi proposta a criação de um all-pairs-data e, em seguida, a criação de uma abordagem híbrida para a resolução de correferências independente de língua por base em características semânticas e morfológicas. A proposta híbrida objetivou aperfeiçoar o processo atual de tratamento de correferências na NELL, melhorando assim a confiabilidade no aprendizado. Todas as propostas foram desenvolvidas e a NELL em português obteve bons resultados. Tais resultados evidenciam que a leitura da web em português poderá se tornar um sistema de aprendizado sem-fim. Para que isso ocorra são também apresentadas as futuras abordagens e propostas. Além disso, este projeto apresenta a metodologia de criação da instância da NELL em português, uma proposta de resolução de correferência que explora atributos linguisticos,bem como a ontologia da NELL, além de apontar trabalhos futuros, nos quais inclui-se processos de adição de outras línguas na NELL, principalmente para aquelas que possuem poucas páginas web disponíveis para o aprendizado.
7

Marguerite Duras : la tentation du théorique / The theoretical temptation of Marguerite Duras

Crippa, Simona 01 December 2014 (has links)
Marguerite Duras a assurément pensé à la littérature en se mesurant sans cesse à sa production littéraire et plus amplement, à sa production artistique. Littérature, cinéma, théâtre font en effet l’objet d’une réflexion constante chez l’écrivain qui montre par là une tendance certaine pour la pensée théorique. Si Marguerite Duras a pu s’exprimer négativement vis-à-vis de la théorie, c’est parce qu’elle redoute les dérives de l’esprit théorique qui peut parfois se révéler dogmatique. L’adhésion à l’idéologie du PCF d’abord partagée puis contestée, fait ainsi l’objet de sévères critiques qui donneront raison dans son œuvre à des textes littéraires traversés par cette épreuve du théorique doctrinaire. D’autres engagements théoriques et politiques prouveront en revanche incontestablement l’attrait intellectuel de l’écrivain envers une époque qui, entre les années 1960 et 1980, fait avancer le discours de la théorie et notamment de la modernité littéraire. Cette thèse se propose de montrer que la théorie occupe sans cesse l’esprit de l’auteur, qu’elle se révèle particulièrement sous la forme d’une tentation à laquelle l’écrivain ne succombe jamais définitivement, et qui donc revient comme une obsession habiter et interroger son œuvre. Cette tentation s’intègre d’abord à la vie de Duras qui évolue au sein d’une génération fortement politisée et marquée par la pensée critique. Elle saura ensuite s’incorporer à l’activité créatrice de l’auteur et, dès lors, à sa pratique littéraire et artistique. La tentation du théorique suit ainsi deux directions. Elle passe par une aventure publique, sans pour autant jamais témoigner d’une voix chorale désireuse de se joindre notamment aux nouvelles tendances du Nouveau Roman. Elle se manifestera plutôt comme une voix solitaire, une voix qui s’exprime à travers la confidence privée. Cette voix murmure dans son œuvre ses critères conceptuels personnels qui accompagneront néanmoins la modernité littéraire. La voix de la tentation théorique se confondra enfin à la voix poétique de l’auteur qui révélera, à travers un jeu réflexif, la force productive de son écriture. Vouée sans cesse à faire résonner le mouvement du dernier mot, dépassant les cloisons génériques, la puissance créatrice prodigieuse de Marguerite Duras ira nourrir le paysage à plusieurs facettes de son œuvre ainsi que celui de l’Ecriture moderne. / For sure Marguerite Duras always thought about literature by comparing herself to the rest of literature and the artistic production of her time. Indeed, literature, cinema and theater are the reflexive centers of a constant thinking which shows how much theory is a main issue for the writer herself. Her apparent and negative odds against theory in general are all because of the wanderings of the dogmatic way of the theoretical spirit. Being an active member of the French Communist Party (PCF), sharing its ideological point of view and then quitting it made way for a severe criticism and gave to her literary works a doctrinal trial. Others theoretical and political commitments may decidedly show in contrast her intellectual attraction of the writer for her age which, between the 1960s and the 1980s, made theory and literary modernity look forward. This essay will show how theory is always on Duras’s Mind as it is for her such a temptation that she never totally succumbs to, and that came back as an obsession to haunt and question her works. This temptation marks at first place her life that went through a harsh political generation that also dealt with criticism and thinking. This temptation would also be an important part of her creativity process and made her way unto literary and artistic technicals. The Theoretical temptation she dealt with went on two different ways. She went on a public adventure but without never belonging to the chorus of her times or explicitly belonging to the New Novel too. She stood as a solitary voice, a voice of her that expressed herself as a intimate confidence. This voice whispered in her writings her personal and conceptual thoughts that escorted modernity in literature. Her voice made of theoretical temptation would mingle at last with her poetical voice which reveals, through a reflexive game, the productive strengh of her writing. Vowed to a never-ending movment unto the last word, beyond the walls of all genres, the tremendous creativity of Marguerite Duras will give birth to a mesmerizing landscape in her works that goes unto the modern writing.

Page generated in 0.4045 seconds