• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 111
  • 67
  • 22
  • 15
  • 11
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 254
  • 50
  • 40
  • 40
  • 26
  • 23
  • 22
  • 21
  • 21
  • 19
  • 18
  • 17
  • 16
  • 15
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Investigando o uso de marcadores culturais presentes em quatro obras amadeanas, traduzidas para o inglês /

Validório, Valéria Cristiane. January 2008 (has links)
Orientador: Diva Cardoso de Camargo / Banca: Francis Henrik Aubert / Banca: Heloisa Gonçalves Barbosa / Banca: Antonio Manoel dos Santos Silva / Banca: Peter James Harris / Resumo: Com o propósito de analisar o comportamento lingüístico-tradutório de dois tradutores profissionais diante das dificuldades impostas pelas barreiras culturais na tradução, investigamos os quatro corpora paralelos de nossa pesquisa, compostos por duas obras traduzidas por Gregory Rabassa, Sea of Death (1984) e The War of the Saints (1993), em relação às respectivas obras originais Mar Morto (1936) e O Sumiço da Santa (1988), escritas por Jorge Amado, bem como por duas obras traduzidas por Barbara Shelby Merello, Tent of Miracles (1971) e Tieta (The Americas) (1979) em relação às obras originais Tenda dos Milagres (1969) e Tieta do Agreste (1977), do mesmo autor. Os objetivos principais que nortearam o presente trabalho foram: analisar a tradução de marcadores culturais, verificar o comportamento lingüístico dos tradutores profissionais Gregory Rabassa e Barbara Shelby Merello por meio da observação das opções por eles utilizadas nas traduções, bem como dos traços de normalização presentes nas quatro obras traduzidas. Para tanto, apoiamo-nos na abordagem interdisciplinar proposta por Camargo (2005, 2007), adotando, para o levantamento e processamento eletrônico de dados, o arcabouço teórico-metodológico dos estudos tradução baseadas em corpus de Baker (1993, 1995, 1996, 2004), bem como os estudos sobre a lingüística de corpus, propostos por Berber Sardinha (2000, 2004). Com relação à classificação e análise dos dados levantados, adotamos os trabalhos sobre as modalidades tradutórias de Aubert (1984, 1998), a proposta de Nida (1945) para os domínios culturais, reformulada por Aubert (1981), bem como os estudos sobre normalização de Baker (1996) e Scott (1998). A metodologia adotada requereu a utilização do programa WordSmith Tools e as ferramentas por ele disponibilizadas, que nos proporcionaram os recursos necessários... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Intending to analyse the translational linguistic behavior of two professional translators faced with difficulties imposed by cultural barriers in translation, we analyzed four parallel corpora in our research, composed by two novels translated by Gregory Rabassa, Sea of Death (1984) and The War of the Saints (1993), in comparison with the original novels Mar Morto (1936) and O Sumiço da Santa (1988), written by Jorge Amado, as well as by two novels translated by Barbara Shelby Merello, Tent of Miracles (1971) and Tieta (The Americas) (1979), in comparison with the original novels Tenda dos Milagres (1969) and Tieta do Agreste (1977), written by the same author. Our main objectives were: to analyze the translation of cultural markers, to observe Gregory Rabassa's and Barbara Shelby Merello's professional behavior by the analysis of resources used by them in their respective translations, and also to identify normalization features in the four translated texts. With these purposes in mind, we based our study on Camargo's interdisciplinary proposal (2005, 2007) adopting, for the electronic compilation and processing, the theory and methodology proposed by Baker for corpus-based translation studies (1993, 1995, 1996, 2000), and the methodology adopted by Berber Sardinha for corpus linguistics (1999, 2000, 2003, 2004). Concerning the classification and analyzes of data gathered from our corpora, we based our study on the works on translation modalities by Aubert (1984, 1998), on the works on cultural domains by Nida (1945) and Aubert (1981), and also on the investigations on normalization by Baker (1996) and Scott (1998). The methodology adopted in the present research required the use of WordSmith Tools software, which provided the necessary resources for the collection of data from the novels and for the observation and analysis of the cultural and textual aspects... (Complete abstract click electronic access below) / Doutor
42

Solubilidade de sistemas de equações aditivas sobre o corpo dos números p-ádicos com uma restrição sobre p / Solubility of systems of additive equations in p-adic fields with a restriction about p

Veras, Daiane Soares 21 March 2013 (has links)
Submitted by Erika Demachki (erikademachki@gmail.com) on 2014-09-18T20:04:19Z No. of bitstreams: 2 DISSERT.CORRETA.DAI.pdf: 1217710 bytes, checksum: dd809f01ecd6c0000cfa17badb034cf1 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Rejected by Luciana Ferreira (lucgeral@gmail.com), reason: Há problemas nos campos de palavras chaves e citação. 11º. Palavras chaves só use a primeira letra maiúscula de cada palavra chave, e caso não tenha unitermo no resumo use as palavras chaves da ficha catalográfica, mas como unitermo, ou seja, palavras isoladas. Coloque, também, o correspondente das palavras chaves em inglês, a menos que não tenha na dissertação ou tese Ex.: Controle de qualidade Atividade antimicrobiana Qualitycontrol Antimicrobial activity A citação tem que ser adequada a NBR 6023. Ex.: ALCÂNTARA, Guizelle Aparecida de. Caracterização farmacognostica e atividade antimicrobiana da folha e casca do caule da myrciarostratadc.(myrtaceae). 2012. 41 f. Dissertação (Mestrado em Ciências Farmacêuticas) - Universidade Federal de Goiás, Goiânia, 2012. on 2014-09-19T13:15:04Z (GMT) / Submitted by Erika Demachki (erikademachki@gmail.com) on 2014-09-22T18:09:15Z No. of bitstreams: 2 DISSERT.CORRETA.DAI.pdf: 1217710 bytes, checksum: dd809f01ecd6c0000cfa17badb034cf1 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Jaqueline Silva (jtas29@gmail.com) on 2014-09-22T19:11:21Z (GMT) No. of bitstreams: 2 DISSERT.CORRETA.DAI.pdf: 1217710 bytes, checksum: dd809f01ecd6c0000cfa17badb034cf1 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2014-09-22T19:11:21Z (GMT). No. of bitstreams: 2 DISSERT.CORRETA.DAI.pdf: 1217710 bytes, checksum: dd809f01ecd6c0000cfa17badb034cf1 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2013-03-21 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / This work is based on articles by Atkinson, and Cook Brüdern [2] and I. D. Meir [15] treating solubility p-adic nontrivial of the systems for additive equations of degree k in n variables. Using techniques of the exponential sums we will see that to ensure the solubility nontrivial of such systems when p > k2r+2, then 2rk + 1 variables will be sufficient. When p > r2k2+2/(c−2) e r 6= 1 then n > crk variables are sufficient. In the case where r = 1 we assure solubility nontrivial p-adic for every p > k2+2/(c−1). / Este trabalho é baseado nos artigos de Atkinson, Brüdern e Cook [2] e I. D. Meir [15] que tratam de solubilidade p-ádica não trivial para sistemas de equações aditivas de grau k em n variáveis. Usando técnicas de somas exponenciais veremos que para garantir a solubilidade não trivial de tais sistemas quando p > k2r+2, então 2rk+1 variáveis serão suficientes. Quando p > r2k2+2/(c−2) e r 6= 1 então n > crk variáveis são suficientes. No caso em que r = 1 garantimos a solublidade não trivial p-ádica para todo p > k2+2/(c−1).
43

Durabilité des ouvrages en béton soumis à la corrosion : optimisation par une approche probabiliste / Durability of concrete structures subjected to corrosion : optimization by a probabilistic approach

Schmitt, Lucie 25 April 2019 (has links)
La maîtrise de la durabilité des ouvrages neufs et la nécessité de prolonger la durée de vie des structures existantes correspondent à des enjeux sociétaux de tout premier ordre et s’inscrivent dans les principes d’une économie circulaire. La durabilité des ouvrages en béton occupe ainsi une position centrale dans le contexte normatif. Ces travaux de thèse font suite à ceux de J. Mai-Nhu* et ont pour objectif d’étendre le domaine d’application du modèle SDReaM-crete en intégrant les bétons à base d’additions et en définissant un critère d’état limite basé sur une quantité de produits corrodés. Une approche basée sur une optimisation numérique des calculs prédictifs est mise en place pour réaliser des calculs d’indices de fiabilité en considérant les principaux mécanismes liés à la corrosion des armatures, carbonatation et chlorures. Ce modèle permet d’optimiser le dimensionnement des enrobages et les performances du béton en intégrant davantage les conditions environnementales telles qu’elles sont définies dans les normes. / Mastering the durability of new structures and the need to extand the lifespan of existing constructions correspond to social issues of the highest order and are part of the principles of a circular economy. The durability of concrete structures thus occupies a central position in the normative context. This thesis works follow those of J. Mai-Nhu* and aims at extending the field of application the SDReaM-crete model by integrating mineral additions based concretes and by defining a limit state criterion based on a quantity of corroded products. An approach based on a numerical optimization of predictive computations is set up to perform reliability analyses by considering the main mechanisms related to the corrosion of reinforcement, carbonation and chlorides. This model enables the optimization of the sizing of the concrete covers and performances by further integrating the environmental conditions as defined by the standards.
44

Reconnaissance automatique des sillons corticaux

Perrot, Matthieu 26 October 2009 (has links) (PDF)
La mise en évidence de biomarqueurs spéciques de pathologies cérébrales à l'échelle d'une population reste extrêmement dicile compte tenu de la variabilité inter-individuelle de la topographie sulco-gyrale. Cette thèse propose de répondre à cette diculté par l'identication automatique de 125 structures sulcales et leur mise en correspondance au travers des individus, à partir d'une base de 62 sujets labélisés manuellement. En s'appuyant sur la théorie des racines sulcales, les plissements corticaux sont découpés en entités élémentaires à labéliser. Dans une première phase, l'approche structurelle proposée précédemment par Jean-François Mangin et Denis Rivière a été revisitée pour faire face aux nombreux descripteurs morphomé- triques impliqués dans le processus d'identication. Dans une deuxième phase, cette modélisation a été reconsidérée intégralement au prot d'un cadre Bayésien exploitant des informations localisées (positions ou directions) négligées jusqu'alors, autorisant ainsi des schémas d'optimisation ecace. Dans ce cadre, la normalisation des données est essentielle ; cette question a été traitée sous la forme d'un processus de recalage ane global ou local à chaque sillon, de façon couplée au probl ème d'identication des sillons. Dans l'optique d'introduire plus d'information structurelle, une modélisation Markovienne traduisant une vue localisée de l'agencement entre plissements corticaux voisins a été introduite avec succès pour atteindre un taux de reconnaissance de plus de 86% pour chaque hémisphère. Seules les congurations atypiques ou les structures anatomiques les plus variables présentent encore de réelles dicultés.
45

Événements moléculaires et cellulaires associés à l'épileptogenèse dans deux modèles murins d'injection intrahippocampique de toxiques. Implication des mécanismes neuro-inflammatoires

Pernot, Fabien 25 November 2009 (has links) (PDF)
Le processus d'épileptogenèse, qui conduit à la production de décharges électro-encéphalographiques spontanées caractéristiques de la maladie épileptique, implique des mécanismes inconnus pour la plupart et probablement divers. Des études récentes soulignent le rôle potentiel de l'inflammation cérébrale dans les mécanismes précoces de l'épileptogenèse. Le syndrome d'épilepsie de la face mésiale du lobe temporal (EMLT) est souvent associé à une perte neuronale unilatérale et sélective dans l'hippocampe, suggérant que cette structure est particulièrement sensible. Notre travail a donc été consacré à l'étude de l'épileptogenèse faisant suite à l'injection intrahippocampique de toxiques chimiques capables d'entraîner des modifications tissulaires et cellulaires locales chez la souris C57BL/6. Le rôle potentiel de la neuro-inflammation a été plus particulièrement recherché. Dans notre premier modèle, un déséquilibre cholinergique est induit par l'injection de soman, un puissant inhibiteur des cholinestérases. Il est capable d'induire un processus d'épileptogenèse sans état de mal initial, associé à un déficit de la réponse émotionnelle conditionnée contextuelle mais en l'absence de remaniements tissulaires majeurs (neurodégénérescence, œdème et neuro-inflammation). En revanche, dans le modèle d'EMLT obtenu par l'injection de kaïnate, une forte activation microgliale est détectée précocement dans les zones de neurodégénérescence. Une astrogliose est également observée. Grâce à la technique quantitative de transcription inverse suivie de polymérisation en chaîne (RT-qPCR), nous avons également pu mettre en évidence que certains médiateurs moléculaires de l'inflammation sont également liés dans le temps et dans l'espace (particulièrement la transcription d'IL-1β) aux événements neurodégénératifs. Pour s'assurer de la fiabilité des données analytiques de RT-qPCR dans les régions cérébrales touchées par ces modifications, le choix des gènes de référence doit faire l'objet d'études spécifiques. Nous avons pu montrer qu'un ensemble de cinq gènes (Hprt1, Ppia, Tbp, Actb et Arbp) avait une forte stabilité dans la structure hippocampique dans ce modèle murin d'EMLT et pouvait être utilisé pour normaliser les données brutes de RT-qPCR dans ce modèle. Nos résultats indiquent que, chez la souris, des altérations neurochimiques sont capables d'initier l'épileptogenèse même en l'absence de lésions tissulaires notables et qu'une réponse neuro-inflammatoire massive n'est pas une condition sine qua non. Déterminer le caractère bénéfique ou délétère de la neuro-inflammation reste un enjeu majeur pour la découverte de nouvelles thérapeutiques anti-épileptogènes.
46

Identification de caractéristiques réduites pour l'évaluation des performances des systèmes solaires combinés

Leconte, Antoine 14 October 2011 (has links) (PDF)
Les Systèmes Solaires Combinés (SSC), qui répondent aux besoins d'Eau Chaude Sanitaire (ECS) et de chauffage d'un bâtiment, peuvent réaliser des économies d'énergie conséquentes. Cependant, leurs performances dépendent énormément de leur conception, de leur installation et surtout de l'environnement énergétique auquel ils sont confrontés (c'est-à-dire les besoins thermiques du bâtiment et les ressources solaire). A ce jour, il est impossible de prédire l'économie d'énergie qu'un SSC permettrait de réaliser. Il n'existe aucun test normatif permettant la caractérisation des performances des SSC, ce qui pénalise le développement de son marché. La méthode SCSPT (Short Cycle System Performance Test) a pour objectif d'évaluer les performances annuelles des SSC à partir d'un test de 12 jours sur banc d'essai thermique semi-virtuel. Sa particularité est de considérer chaque système comme un unique ensemble ce qui permet, contrairement aux méthodes de type " composant ", de prendre en compte les vraies interactions entre les éléments des SSC lors de leur test. Elle montre de très bons résultats mais ceux-ci sont limités à la prédiction des performances du système pour le seul environnement énergétique adopté lors du test. Ces travaux de recherche proposent une amélioration de la procédure SCSPT en lui ajoutant une étape d'identification d'un modèle générique de SSC à partir de données expérimentales. De cette manière, le modèle identifié pourrait simuler le comportement du SSC testé sur différentes séquences annuelles pour n'importe quel environnement énergétique et ainsi caractériser ses performances (à l'aide de la méthode FSC par exemple). L'architecture proposée pour ce modèle est du type " Boite Grise ". Elle mêle une partie " Boite Blanche " composée d'équations physiques caractéristiques de certains éléments du SSC et une partie " Boite Noire " constituée principalement d'un réseau de neurones artificiels. Une procédure complète est conçue pour entrainer et sélectionner un modèle correspondant aux SSC à partir des données de leur test sur banc d'essai semi-virtuel. Cette approche a été validée numériquement grâce à des simulations de trois modèles détaillés de SSC sous TRNSYS. En comparant leurs résultats annuels avec ceux des modèles " Boites Grises " entrainés à partir d'une séquence 12 jours, ces derniers sont capables de prédire la consommation en énergie d'appoint de manière très précise pour 27 environnements énergétiques différents. L'application concrète de cette nouvelle procédure a été réalisée expérimentalement sur deux SSC réels. Elle a confirmé que l'approche était pertinente et cohérente. Elle a également permis d'identifier quelques améliorations pour que la méthode soit totalement opérationnelle. Ce travaux offrent une base pour avancer dans l'élaboration d'une méthode complète et fiable de caractérisation des SSC qui pourraient conduire à une nouvelle procédure de normalisation (et d'envisager un étiquetage énergétique des SSC).
47

Terminaison à base de tailles: Sémantique et généralisations

Roux, Cody 14 June 2011 (has links) (PDF)
Ce manuscrit présente une réflexion sur la terminaison des systèmes de réécriture d'ordres supérieurs. Nous nous concentrons sur une méthode particulière, la terminaison à base de tailles. La terminaison à base de tailles utilise le typage pour donner une approximation syntaxique à la taille d'un élément du langage. Notre contribution est double: premièrement, nous permettons d'aborder de manière structurée le problème de la correction des approches à base de taille. Pour ce faire, nous montrons qu'elle peut être traitée par une version de la méthode des annotations sémantiques. Cette dernière utilise des annotations sur les termes calculés à partir de la sémantique des sous-termes dans un certain prémodèle équationnel. Nous montrons la correction de notre approche par annotations sémantiques, ainsi que du critère qui permet de traiter le système annoté, et nous construisons un prémodèle pour le système qui correspond intuitivement à la sémantique du système de réécriture. Nous montrons alors que le système annoté passe le critère de terminaison. D'un autre coté nous modifions l'approche classique de la terminaison à base de tailles et montrons que le système modifié permet une analyse fine du flot de contrôle dans un langage d'ordre supérieur. Ceci nous permet de construire un graphe, dit graphe de dépendance approximé, et nous pouvons montrer qu'un critère syntaxique sur ce graphe suffit à montrer la terminaison de tout terme bien typé.
48

A General View of Normalisation through Atomic Flows

Gundersen, Tom 10 November 2009 (has links) (PDF)
Atomic flows are a geometric invariant of classical propositional proofs in deep inference. In this thesis we use atomic flows to describe new normal forms of proofs, of which the traditional normal forms are special cases, we also give several normalisation procedures for obtaining the normal forms. We define, and use to present our results, a new deep-inference formalism called the functorial calculus, which is more flexible than the traditional calculus of structures. To our surprise we are able to 1) normalise proofs without looking at their logical connectives or logical rules; and 2) normalise proofs in less than exponential time.
49

Preuves constructives de complétude et contrôle délimité

Ilik, Danko 22 October 2010 (has links) (PDF)
Motivés par la facilitation du raisonnement sur des méta-théories logiques à l'intérieur de l'assistant de preuve Coq, nous étudions les versions constructives de certains théorèmes de complétude. Nous commençons par l'analyse des preuves de Krivine et Berardi-Valentini qui énoncent que la logique classique est constructivement complète au regard des modèles booléens relaxés, ainsi que l'analyse de l'algorithme de cette preuve. En essayant d'élaborer une preuve de complétude plus canonique pour la logique classique, inspirés par la méthode de la normalisation-par-évaluation (NPE) de Berger et Schwichtenberg, nous concevons une preuve de complétude pour la logique classique en introduisant une notion de modèle dans le style des modèles de Kripke, dont le contenu calculatoire est l'élimination des coupures, ou la normalisation. Nous nous tournons ensuite vers la NPE pour une logique de prédicats intuitionniste (en considérant tous les connecteurs logiques), c'est-à-dire, vers sa complétude par rapport aux modèles de Kripke. Inspirés par le programme informatique de Danvy pour la normalisation des termes du $\lambda$-calcul avec sommes, lequel utilise des opérateurs de contrôle délimité, nous développons une notion d'un modèle, encore une fois semblable aux modèles de Kripke, qui est correct et complet pour la logique de prédicats intuitionniste, et qui est, par coïncidence, très similaire à la notion de modèle de Kripke introduit pour la logique classique. Finalement, en se fondant sur des observations de Herbelin, nous montrons que l'on peut avoir une logique intuitionniste étendue avec des opérateurs de contrôle délimité qui est equiconsistante avec la logique intuitionniste, qui préserve les propriétés de disjonction et d'existence, et qui est capable de dériver le schéma « Double Negation Shift » et le principe de Markov.
50

LE PROCESSUS DE NORMALISATION COMPTABLE PAR L'IASB : LE CAS DU RESULTAT

Le Manh-Béna, Anne 10 December 2009 (has links) (PDF)
Cette recherche apporte une contribution à la compréhension du processus de normalisation comptable par l‟IASB à travers le thème de la définition et de la présentation du résultat comptable. L‟objet de recherche se décline en deux questions : Comment se positionnent les différentes parties prenantes dans le processus de normalisation du résultat comptable en IFRS ? Comment s‟explique la pugnacité de l‟IASB à imposer une nouvelle définition du résultat comptable ? La première partie présente le cadre théorique retenu, qui emprunte à la théorie de l‟agence et la théorie néo-institutionnelle. La seconde partie expose les enjeux de la normalisation du résultat comptable. La troisième partie rend compte des trois études qualitatives menées à partir d‟un corpus d‟écrits constitué de l‟ensemble des documents publiés par l‟IASB sur le thème de la définition du résultat comptable : normes, exposé-sondage, papier de discussion, réponses reçus par l‟IASB suite à un appel à commentaires et synthèses de réunions de travail. Les principaux résultats concernent le fonctionnement du due process et la nature de l‟argumentation utilisée par le normalisateur pour imposer sa conception du résultat comptable. Il apparaît ainsi que les avis des participants au due process sont peu pris en compte par le normalisateur et que ce dernier cherche essentiellement à accroître la cohérence de son référentiel comptable en imposant une définition et un format de présentation du résultat comptable dont la pertinence pour les utilisateurs peine à être mise en évidence.

Page generated in 0.1157 seconds